Google reconoció que su funcionalidad de generación de imágenes por inteligencia artificial (IA) de Gemini cometió un error.
En su blog oficial, Prabhakar Raghavan, Vicepresidente Senior de Conocimiento e Información, admitió que la tecnología no logró proporcionar resultados precisos y apropiados.
«Hace tres semanas, lanzamos una nueva función de generación de imágenes para la aplicación de conversación Gemini (anteriormente conocida como Bard), que incluía la capacidad de crear imágenes de personas.
Es evidente que esta función no alcanzó el objetivo. Algunas de las imágenes generadas son imprecisas o incluso ofensivas. Agradecemos los comentarios de los usuarios y lamentamos que la función no haya funcionado correctamente.
Reconocemos el error y hemos pausado temporalmente la generación de imágenes de personas en Gemini mientras trabajamos en una versión mejorada».
La empresa asegura estar comprometida en corregir esta falla y garantizar que la generación de imágenes por IA sea precisa, confiable y cumpla con las expectativas de los usuarios.
«No queríamos que Gemini se negara a crear imágenes de cualquier grupo específico. Y no queríamos que creara imágenes históricas – o cualquier otra – imprecisas.
Por lo tanto, hemos desactivado la generación de imágenes de personas y trabajaremos para mejorarla significativamente antes de volver a activarla. Este proceso incluirá pruebas extensivas».
Este incidente destaca los desafíos enfrentados por las empresas que utilizan inteligencia artificial para crear contenido visual.
Aunque la IA ha avanzado significativamente, aún existen limitaciones que pueden llevar a resultados incorrectos o inapropiados.
«Nuestro ajuste para garantizar que Gemini mostrara una variedad de personas no tuvo en cuenta los casos que claramente no deberían mostrar una variedad.
Y en segundo lugar, con el tiempo, el modelo se volvió mucho más cauteloso de lo que pretendíamos y se negó a responder completamente a ciertas solicitudes, interpretando erróneamente algunas solicitudes muy anodinas como sensibles.
Estas dos cosas llevaron al modelo a compensar en exceso en algunos casos y a ser demasiado conservador en otros, resultando en imágenes embarazosas e incorrectas».
Google también mencionó que está trabajando para mejorar sus algoritmos y procesos de generación de imágenes por IA para evitar futuros errores.
«(…) las alucinaciones son un desafío conocido en todos los LLMs; hay casos en los que la IA simplemente entiende las cosas de manera incorrecta. Esto es algo en lo que estamos constantemente trabajando para mejorar».
No puedo prometer que Gemini no generará ocasionalmente resultados embarazosos, imprecisos u ofensivos, pero puedo prometer que seguiremos actuando siempre que identifiquemos un problema. La IA es una tecnología emergente útil de muchas maneras, con un enorme potencial, y estamos haciendo nuestro mejor esfuerzo para implementarla de manera segura y responsable».
Es importante destacar que Google está comprometido en aprender de este incidente e implementar medidas para evitar que problemas similares ocurran en el futuro.