Google elimina resúmenes de salud generados por IA tras alertas sobre errores peligrosos

Rene Fraga
3 minutos de lectura

Principales destacados:

  • Google retiró resúmenes automáticos de salud después de denuncias por información médica incorrecta.
  • Una investigación reveló datos engañosos sobre exámenes hepáticos y recomendaciones clínicas erróneas.
  • Expertos advierten que el problema puede persistir en búsquedas similares.

Google comenzó a eliminar algunos de sus resúmenes de salud generados por inteligencia artificial luego de que una investigación del The Guardian expusiera información médica potencialmente peligrosa mostrada directamente en los resultados de búsqueda.

Los errores estaban relacionados con la función AI Overviews, que ofrece respuestas automáticas en la parte superior de la página.

Con más del 90% de participación en el mercado global de buscadores, cualquier fallo de este tipo puede afectar a millones de personas.

Tras la publicación del informe, consultas como “rango normal de análisis de sangre del hígado” dejaron de mostrar estos resúmenes automáticos.

Los análisis hepáticos en el centro de la controversia

La investigación reveló que, al buscar valores de referencia para pruebas hepáticas, el sistema mostraba largas listas de números sin considerar factores clave como edad, sexo o antecedentes médicos.

Especialistas alertaron que esto podía llevar a pacientes con enfermedades graves a creer erróneamente que sus resultados eran normales.

Vanessa Hebditch, directora de comunicación y políticas de la British Liver Trust, explicó que las pruebas de función hepática incluyen varios marcadores y requieren una interpretación médica compleja. Según ella, comparar números sin contexto puede retrasar diagnósticos y tratamientos esenciales.

Otras recomendaciones médicas erróneas

Además de los problemas con los análisis del hígado, la investigación identificó otros errores graves, como sugerencias para que pacientes con cáncer de páncreas eviten alimentos ricos en grasa, justo lo contrario de lo que recomiendan los especialistas en muchos casos.

También se detectaron fallos en información sobre pruebas de detección de cáncer en mujeres.

Estos casos reforzaron la preocupación de que las respuestas automáticas, cuando carecen de contexto, pueden resultar más dañinas que útiles en temas sensibles como la salud.

La eliminación no pone fin a las preocupaciones

Aunque la retirada de algunas consultas fue bien recibida, expertos señalan que el problema no está completamente resuelto.

Variaciones leves de las mismas búsquedas aún pueden activar los resúmenes de IA. Google afirmó que está revisando estos ejemplos y realizando mejoras más amplias cuando el sistema pierde contexto.

En un comunicado, la empresa señaló que no comenta sobre eliminaciones individuales y que, en muchos casos, la información mostrada se basa en fuentes consideradas de alta calidad.

Aun así, el episodio reaviva el debate sobre los límites del uso de inteligencia artificial para ofrecer orientación médica, especialmente cuando millones de personas recurren a los buscadores en momentos de vulnerabilidad.

Seguir
Renê Fraga es fundador de Google Discovery y editor en jefe de Eurisko, un ecosistema editorial independiente dedicado a la tecnología, la ciencia y la innovación. Profesional del marketing digital, con posgrado por la ESPM, sigue de cerca a Google desde la década de 2000 y escribe desde hace más de 20 años sobre tecnología, productos digitales e inteligencia artificial. Fundó Google Discovery en 2006, convirtiéndolo en uno de los principales sitios especializados en Google en Brasil, y fue columnista de TechTudo (Globo.com).
No hay comentarios