La OpenAI, responsable del popular ChatGPT, declaró este domingo que no tiene planes activos para utilizar los chips de inteligencia artificial desarrollados internamente por Google a gran escala.
La declaración llegó después de rumores divulgados por medios como Reuters, sugiriendo que la empresa estaría evaluando el uso de estos componentes para atender a la creciente demanda por sus servicios.
Según OpenAI, solo se están realizando pruebas iniciales con los TPUs (unidades de procesamiento tensorial) de Google, pero aún no hay intención de adoptar esta tecnología en sus productos de forma amplia.
Es común que las empresas de tecnología experimenten con diferentes tipos de chips para evaluar rendimiento y compatibilidad, pero el uso a gran escala exige cambios significativos en la arquitectura de los sistemas y en el soporte de software.
Actualmente, OpenAI sigue utilizando mayoritariamente GPUs de Nvidia y también ha estado adoptando chips de AMD. Paralelamente, la empresa está desarrollando su propio chip, que debería alcanzar un hito importante este año con la finalización del diseño y el envío para fabricación.
Incluso sin adoptar los chips de Google, OpenAI firmó recientemente un contrato con Google Cloud para expandir su capacidad computacional. La mayor parte de esta infraestructura, sin embargo, se basa en servidores de CoreWeave, una empresa especializada en computación en la nube con GPUs.
Por su parte, Google ha estado invirtiendo en la apertura comercial de sus TPUs, ganando clientes como Apple y startups como Anthropic y Safe Superintelligence, ambas creadas por exmiembros de la propia OpenAI.
Al ser contactado para comentar sobre el tema, Google prefirió no pronunciarse.