Durante el evento Google I/O 2025, Google presentó una de sus mayores apuestas para el futuro de la inteligencia artificial: Project Astra, una tecnología multimodal con latencia muy baja que ahora comienza a integrarse en diversos productos de la empresa, incluyendo Google Search, la aplicación Gemini y también en herramientas para desarrolladores asociados.
Uno de los aspectos más impresionantes es la nueva función Search Live, que funciona de manera interactiva con la cámara del celular. Al usar el modo IA en la búsqueda o la función Google Lens, los usuarios ahora pueden tocar el botón «Live» para preguntar, en tiempo real, sobre lo que están viendo.
La cámara envía el video en vivo a la inteligencia artificial de Google, que analiza y responde de inmediato, como si fuera una conversación natural con alguien que está a tu lado.

El Project Astra fue presentado por primera vez en el Google I/O de 2024. Creado por el equipo de Google DeepMind, Astra fue desarrollado para mostrar el poder de la IA en tiempo real, combinando visión, audio y lenguaje.
Aunque las gafas aún no tienen una fecha oficial de lanzamiento, Google reveló que está trabajando en ellas con marcas como Samsung y Warby Parker, lo que indica que este futuro no está tan lejos.
Para los desarrolladores, Google también anunció una nueva versión de la Live API, que permite crear experiencias de voz y video con latencia mínima, además de soporte para entradas visuales y respuestas con audio nativo.
La API ahora también cuenta con detección de emociones, haciendo las interacciones más naturales y personalizadas. Y para los usuarios de la aplicación Gemini, la empresa liberará funciones como video en tiempo real y compartir pantalla para todos, antes disponibles solo para suscriptores.
El Project Astra promete abrir camino para una nueva generación de productos basados en IA, que ven, escuchan y piensan como nunca antes.