La empresa OpenAI, responsable del popular ChatGPT, ha comenzado a utilizar los chips de inteligencia artificial desarrollados por Google para satisfacer la creciente demanda de sus productos.
La información fue revelada por fuentes consultadas por la agencia Reuters y refuerza una colaboración inusual entre dos de las mayores empresas del sector de la IA.
Tradicionalmente, OpenAI ha dependido en gran medida de las GPUs de Nvidia, que son ampliamente utilizadas para entrenar modelos de inteligencia artificial y realizar inferencias, es decir, cuando la IA aplica su conocimiento para responder preguntas o tomar decisiones.
Sin embargo, la empresa decidió ampliar su infraestructura computacional con Google Cloud, que ofrece las llamadas TPUs (unidades de procesamiento tensor), chips desarrollados internamente por Google.
Este cambio marca la primera vez que OpenAI utiliza de manera significativa chips que no son de Nvidia. Además, podría indicar un ligero distanciamiento de los centros de datos de Microsoft, principal inversora de OpenAI.
Las TPUs de Google son conocidas por ofrecer una alternativa más económica, lo que puede ayudar a la empresa a reducir los costos operativos de sus sistemas de IA.
Aunque Google está alquilando sus TPUs a OpenAI, la empresa no ha liberado sus versiones más potentes para la competidora.
De todos modos, la asociación muestra cómo Google ha estado abriendo su ecosistema de inteligencia artificial para impulsar el crecimiento de Google Cloud.
Con clientes como Apple, Anthropic y ahora OpenAI, Google refuerza su presencia en un mercado cada vez más competitivo y estratégico.