Google está desarrollando una nueva funcionalidad experimental que promete transformar el uso de Google Lens.
Según información obtenida por el sitio 9to5Google, el gigante de Mountain View está integrando en Lens un modo de inteligencia artificial llamado Live for AI Mode, que se asemeja mucho a la función Gemini Live, presentada recientemente por la empresa.
Con este nuevo modo, Google Lens podrá acceder a la cámara del celular en tiempo real, permitiendo que el usuario apunte el dispositivo a cualquier objeto —como una planta, un libro o un producto— y reciba respuestas inmediatas de la IA, sin necesidad de tomar una foto o subir imágenes.
La idea es facilitar interacciones más naturales y rápidas, aprovechando la cámara como un puente directo entre el mundo físico y la inteligencia artificial.
Además del análisis en vivo, la función también debería permitir que el usuario comparta la pantalla de su celular con la IA, lo que puede ser útil para resolver dudas sobre contenidos mostrados en el dispositivo, como páginas web, documentos o imágenes.
Sin embargo, vale la pena destacar que, por ahora, la función aún es limitada: solo es posible hacer una pregunta a la vez, y Google advierte que la función es experimental y está sujeta a errores.
Por el momento, esta novedad se ha encontrado en fragmentos de código en la versión beta de la aplicación de Google (versión 16.17), lo que indica que aún está en fase de pruebas y puede sufrir cambios antes de (o si) ser lanzada oficialmente.
Aun así, este movimiento muestra que Google sigue avanzando en el uso de la IA para hacer que sus herramientas sean más inteligentes, intuitivas e integradas en la vida diaria de las personas.