Durante la conferencia TED2025, Google sorprendió al presentar, por primera vez en vivo, su plataforma Android XR funcionando en gafas inteligentes.
La demostración mostró cómo la tecnología avanza rápidamente hacia un futuro donde las gafas de realidad aumentada podrían formar parte de nuestra vida diaria, conectadas al teléfono móvil y con integración total con la inteligencia artificial Gemini.
Hasta ahora, lo que habíamos visto de Android XR era un video publicado a finales del año pasado, con escenas simuladas de lo que la plataforma podría hacer.
Pero ahora ha sido posible seguir, en tiempo real, cómo funcionan las gafas en la práctica. El experimento fue dirigido por Shahram Izadi, líder del proyecto en Google, con la ayuda de la investigadora Nishtha Bhatia.
Durante la presentación, las gafas mostraron información directamente en las lentes, como notas para presentaciones, y respondieron a comandos de voz de manera impresionante.
La IA Gemini fue capaz de crear un poema haikai bajo demanda, recordar objetos vistos brevemente (como el título de un libro en una estantería) e incluso localizar una llave de hotel.
Además, tradujo letreros en tiempo real al inglés y al persa, y respondió de manera natural a preguntas formuladas en hindi, sin necesidad de ajustes en la configuración del idioma.
La segunda parte del video demostró el Android XR en auriculares de realidad mixta, con especial atención al prototipo desarrollado en colaboración con Samsung, llamado Project Moohan, que debería lanzarse aún este año.
Con él, el sistema puede ofrecer navegación con mapas 3D, visualizaciones inmersivas de Google Maps e incluso interacciones en tiempo real con juegos, como sugerencias de la IA mientras el usuario juega a Stardew Valley.
Esta nueva fase de Android representa un gran paso hacia la computación espacial accesible y conectada a nuestra vida cotidiana.