✨ Puntos destacados:
- Una organización independiente clasificó Gemini como “alto riesgo” para menores de 18 años.
- Las versiones “infantil” y “adolescente” son prácticamente idénticas a la versión para adultos, solo con filtros adicionales.
- Google reconoce fallos, pero asegura que está reforzando las protecciones y consultando a expertos.
La organización Common Sense Media, conocida por evaluar la seguridad digital para niños y adolescentes, publicó un análisis sobre Google Gemini, el sistema de inteligencia artificial de la empresa.
Los resultados no fueron alentadores: tanto la versión “Under 13” como la “Teen Experience” fueron clasificadas como de “alto riesgo”.
Según el informe, estas versiones no se crearon desde cero para el público joven, sino que se adaptaron a partir del modelo para adultos, con algunos filtros adicionales.
Esto significa que, en ciertos casos, Gemini aún podría exponer a los menores a contenidos inapropiados, como información sobre drogas, alcohol, sexo e incluso consejos de salud mental considerados peligrosos.
¿Por qué esto preocupa a padres y expertos?
La alerta cobra relevancia porque ya existen casos en los que interacciones con chatbots de IA se han asociado a situaciones graves, incluyendo suicidios de adolescentes.
Common Sense Media destacó que niños y jóvenes en diferentes etapas de desarrollo necesitan enfoques distintos, no una solución “talla única”.
Además, el informe llega en un momento estratégico: rumores indican que Apple podría adoptar Gemini como base para la nueva versión de Siri con inteligencia artificial.
Si esto ocurre sin ajustes, millones de adolescentes podrían estar expuestos a los mismos riesgos señalados.
La respuesta de Google
Google cuestionó parte de las conclusiones, pero reconoció que algunas respostas de Gemini no funcionaron como se esperaba.
La empresa afirmó que ya ha añadido nuevas capas de protección, mantiene políticas específicas para menores de 18 años y consulta a expertos externos para reforzar la seguridad.
También destacó que Gemini evita crear la sensación de amistad o relación con el usuario, algo que podría aumentar los riesgos emocionales.
Sin embargo, Google cuestionó la metodología de Common Sense, ya que no tuvo acceso a las preguntas utilizadas en las pruebas.