Principales destacados:
- El código del app de Google anticipa un Modo de Razonamiento con respuestas más largas y detalladas en Gemini Live.
- Nuevas funciones de Labs incluyen memoria multimodal, lectura de pantalla y controles de agente capaces de ejecutar acciones en el móvil.
- Indicios apuntan a que Gemini Live podría migrar a modelos más avanzados de la familia Gemini, posiblemente Gemini 3.
El Google se prepara para dar un paso importante en la evolución de su asistente de voz con inteligencia artificial.
Un análisis de la versión beta más reciente de la aplicación de Google reveló referencias a nuevas funciones en desarrollo para Gemini Live, entre ellas un esperado Modo de Razonamiento, diseñado para ofrecer respuestas menos inmediatas y mucho más elaboradas.
Los hallazgos provienen del análisis del APK de la versión 17.2.51.sa.arm64 del app, donde aparecen cuatro nuevas capacidades experimentales de Labs. En la actualidad, Gemini Live funciona con Gemini 2.5 Flash, pero las cadenas de código sugieren que la interfaz podría pasar pronto a modelos más recientes de la línea Gemini.
El Modo de Razonamiento cambia la dinámica de respuestas
La función más llamativa es el llamado Modo de Razonamiento en Vivo. Según descripciones encontradas por medios especializados como Android Authority y 9to5Google, esta opción permite que Gemini “se tome tiempo para pensar” antes de responder, priorizando explicaciones completas en lugar de respuestas rápidas.
En la práctica, esto marca un cambio claro en la experiencia de uso. El asistente deja de ser solo reactivo y pasa a actuar de forma más analítica, algo especialmente útil para preguntas complejas, explicaciones técnicas o apoyo en la toma de decisiones.
Funciones experimentales amplían el contexto
Otro bloque de novedades aparece bajo el nombre Funciones Experimentales en Vivo. Incluye mejoras como memoria multimodal, mejor tratamiento del ruido en la entrada de voz, respuestas basadas en el contenido que aparece en la pantalla y resultados personalizados según las aplicaciones de Google vinculadas a la cuenta del usuario.
La capacidad de comprender lo que se muestra en la pantalla está directamente relacionada con el Project Astra, iniciativa presentada por Google como su visión de un asistente de IA universal, capaz de interpretar el contexto visual y actuar de manera más natural en el día a día.
De asistente a agente digital
Las dos últimas opciones de Labs refuerzan esta transformación.
El Control de Interfaz permitiría que el agente toque la pantalla, se desplace por páginas y complete campos automáticamente para realizar tareas, en lugar de limitarse a describir los pasos. Por su parte, la función de Investigación Profunda serviría para delegar búsquedas y análisis más complejos a la IA.
Estas capacidades acercan a Gemini Live al concepto de un agente digital completo, con acciones que van más allá del navegador. Aun así, Google parece apostar por un lanzamiento gradual, con cada función activable de forma independiente.
Disponibilidad todavía incierta
Por ahora, todos estos controles permanecen ocultos para los usuarios y dependen de activaciones del lado del servidor. Google no ha anunciado oficialmente estas funciones y, como ocurre con cualquier análisis de APK, no existe garantía de que lleguen al público.
Sin embargo, el nivel de detalle en las descripciones y elementos de interfaz sugiere que el desarrollo está bastante avanzado.