Google DeepMind presenta un sistema para entrenar inteligencia artificial en centros de datos remotos

Rene Fraga
6 minutos de lectura

Principales puntos destacados

  • Nueva arquitectura permite entrenar modelos de IA en centros de datos distantes sin depender de conexiones ultrarrápidas
  • El sistema mantiene alta eficiencia incluso ante fallos, haciendo el proceso más resiliente
  • La drástica reducción del ancho de banda puede democratizar el acceso al entrenamiento de grandes modelos

La Google DeepMind anunció una innovación que podría redefinir la forma en que se entrena la inteligencia artificial a gran escala. El sistema, llamado Decoupled DiLoCo, fue presentado durante el ICLR 2026 en Río de Janeiro, y surge como respuesta a uno de los mayores desafíos del sector: las limitaciones físicas y técnicas de los centros de datos tradicionales.

Hoy en día, entrenar modelos avanzados requiere una infraestructura altamente concentrada, con chips sincronizados a altísima velocidad y conectados por redes extremadamente rápidas. Este modelo no solo encarece el proceso, sino que también crea cuellos de botella que dificultan la expansión de la capacidad global de IA. La propuesta de Google apunta precisamente a romper esa dependencia.

Cómo el sistema cambia la lógica del entrenamiento de IA

El Decoupled DiLoCo nace de la combinación de dos tecnologías previas de la compañía: Pathways y DiLoCo. Juntas permiten que distintas partes del entrenamiento se desarrollen de forma distribuida y con menor dependencia de comunicación constante entre máquinas.

En la práctica, el sistema divide el entrenamiento en grupos llamados unidades de aprendizaje. Cada unidad funciona como un pequeño laboratorio independiente, realizando múltiples cálculos de forma local antes de compartir solo información esencial con un optimizador central.

Este intercambio de datos ocurre de manera asíncrona, lo que significa que no es necesario esperar a que todos los sistemas estén sincronizados al mismo tiempo. Esto elimina uno de los principales puntos débiles de los métodos tradicionales.

Además, este enfoque reduce drásticamente el impacto de fallos. Si un clúster completo deja de funcionar, el resto del sistema continúa operando con normalidad. Cuando el clúster vuelve, se reintegra sin comprometer el progreso alcanzado.

Pruebas con simulación de fallos mostraron un resultado notable: el sistema mantuvo cerca del 88% de eficiencia operativa, mientras que los enfoques tradicionales cayeron hasta el 27% en las mismas condiciones. Esto demuestra un salto importante en robustez.

Una internet convencional puede ser suficiente

Uno de los aspectos más transformadores de esta tecnología es la reducción en la necesidad de ancho de banda. Los modelos tradicionales requieren conexiones extremadamente rápidas, alcanzando cientos de gigabits por segundo entre centros de datos.

Con el Decoupled DiLoCo, esta exigencia se reduce drásticamente. En algunas pruebas, se necesitaron menos de 1 Gbps, algo mucho más cercano a la infraestructura de internet convencional.

Esto significa que el entrenamiento de modelos avanzados deja de ser exclusivo de entornos altamente especializados. Empresas e instituciones podrían, en teoría, utilizar redes ya existentes para participar en este proceso.

En un experimento práctico, Google logró entrenar un modelo con miles de millones de parámetros distribuido en varias regiones, utilizando conexiones de entre 2 y 5 Gbps. El rendimiento fue más de 20 veces superior al de métodos tradicionales en condiciones similares.

Este cambio no solo reduce costos, sino que también amplía el acceso a la tecnología, permitiendo que más organizaciones participen en el desarrollo de inteligencia artificial avanzada.

Uso más inteligente del hardware y los recursos

Otro punto clave es la flexibilidad en relación con el hardware. El nuevo sistema permite combinar diferentes generaciones de chips dentro de un mismo proceso de entrenamiento.

En la práctica, esto significa que equipos más antiguos no necesitan ser descartados. Pueden seguir utilizándose junto con tecnologías más modernas sin pérdidas significativas de rendimiento.

Pruebas que combinaron distintas versiones de aceleradores mostraron resultados equivalentes a los obtenidos con hardware homogéneo. Esto representa un ahorro importante y contribuye a una mayor sostenibilidad tecnológica.

Además, el sistema abre la puerta al uso de capacidad computacional ociosa. En lugar de depender exclusivamente de grandes centros de datos centralizados, será posible aprovechar recursos distribuidos por todo el mundo.

Este modelo transforma la infraestructura global en una especie de red colaborativa de procesamiento, donde diferentes regiones pueden contribuir simultáneamente al entrenamiento de IA.

Impacto directo en el futuro de la infraestructura global

El Decoupled DiLoCo podría marcar un cambio estructural en la forma en que se desarrolla la inteligencia artificial. Al reducir la dependencia de mega centros de datos y conexiones ultrarrápidas, descentraliza el poder computacional.

Esto puede acelerar el desarrollo de nuevos modelos, reducir costos operativos y hacer que el ecosistema sea más resiliente frente a fallos y limitaciones físicas.

Otro impacto relevante está en la escalabilidad. A medida que la demanda de IA crece más rápido que la producción de nuevos chips, soluciones como esta permiten aprovechar mejor los recursos ya existentes.

Según Google, este enfoque puede transformar la capacidad ociosa en valor real, creando un nuevo paradigma donde la infraestructura global funciona de manera más eficiente e integrada.

Si esta tecnología se consolida, el entrenamiento de inteligencia artificial podría dejar de ser un privilegio de unas pocas grandes empresas y convertirse en una posibilidad más amplia, abriendo espacio para la innovación en distintos sectores y regiones.

Seguir:
Renê Fraga es fundador de Google Discovery y editor en jefe de Eurisko, un ecosistema editorial independiente dedicado a la tecnología, la ciencia y la innovación. Profesional del marketing digital, con posgrado por la ESPM, sigue de cerca a Google desde la década de 2000 y escribe desde hace más de 20 años sobre tecnología, productos digitales e inteligencia artificial. Fundó Google Discovery en 2006, convirtiéndolo en uno de los principales sitios especializados en Google en Brasil, y fue columnista de TechTudo (Globo.com).
No hay comentarios