Google anunció hoy el lanzamiento de Cloud TPU v5p, la última versión de su unidad de procesamiento tensorial (TPU).
Con un conjunto de chips aún más potente y una interconexión mejorada, el TPU v5p promete ofrecer velocidades de entrenamiento hasta 2,8 veces más rápidas que su predecesor, el TPU v4.
Esta actualización representa un avance significativo en el campo del entrenamiento de modelos de lenguaje, como el GPT3-175B.
Según Google, el TPU v5p tiene el doble de operaciones de punto flotante por segundo (FLOPS) y tres veces más memoria de alta velocidad de ancho de banda en comparación con el TPU v5e.
Estos avances tecnológicos permiten entrenar modelos de lenguaje a una escala mucho mayor y de manera más eficiente.
En pruebas iniciales, el TPU v5p demostró un rendimiento impresionante, proporcionando un aumento de velocidad de 2 veces en cargas de trabajo de entrenamiento de modelos de lenguaje en comparación con el TPU v4.
Los beneficios del TPU v5p se extienden más allá del entrenamiento de modelos de lenguaje. El sólido soporte para marcos de aprendizaje automático (JAX, PyTorch, TensorFlow) y herramientas de orquestación permite a los desarrolladores escalar sus proyectos de manera más eficiente.
Además, la segunda generación de SparseCores ofrece un rendimiento significativamente mejorado para cargas de trabajo intensivas en incrustaciones.
Esta combinación de características avanzadas hace que el TPU v5p sea esencial para impulsar esfuerzos de investigación e ingeniería en modelos de vanguardia, como Gemini.
Aunque el TPU v5p aún no está disponible para el público en general, los desarrolladores interesados pueden ponerse en contacto con sus gerentes de cuenta de Google para entrar en la lista de espera.
Con esta nueva generación de TPUs, Google establece nuevos estándares de velocidad y eficiencia para el entrenamiento de modelos de lenguaje, allanando el camino para avances aún mayores en el campo de la inteligencia artificial.