Un error cometido por la inteligencia artificial médica de Google ha reavivado el debate sobre los límites de la tecnología en el ámbito de la salud.
Durante la presentación de Med-Gemini, un modelo de IA desarrollado para interpretar exámenes y asistir en diagnósticos, el sistema identificó una condición en una región del cerebro llamada «basilar ganglia», una parte que simplemente no existe.
La IA confundió los términos «basal ganglia» (una estructura real) con «basilar artery» (otra parte del cerebro), creando una denominación incorrecta y potencialmente peligrosa.
El equívoco fue publicado en un artículo científico y también en una publicación oficial de Google Health, sin que ninguno de los más de 50 autores o revisores notara el problema.
El fallo solo fue descubierto por un neurólogo especialista en IA, quien alertó a la empresa. En lugar de un comunicado público, Google modificó silenciosamente el contenido del blog para corregir la palabra, manteniendo el artículo original sin cambios.
La empresa justificó el error como un simple error de escritura, pero los profesionales del área médica consideran el fallo un ejemplo de los riesgos reales que la IA puede presentar cuando se utiliza en entornos clínicos.
Según los especialistas, errores como este pueden propagarse con facilidad en los sistemas automatizados. Una vez que la IA aprende de datos anteriores, un diagnóstico incorrecto puede ser replicado innumerables veces.
El fenómeno es conocido como sesgo de automatización: al confiar demasiado en las respuestas de la IA, que en la mayoría de las veces parece estar en lo correcto, médicos y profesionales pueden dejar de revisar cuidadosamente el contenido generado, aumentando el riesgo de que los fallos pasen desapercibidos.
Incluso con todos los avances, el uso de la inteligencia artificial en la medicina aún exige cautela.
Modelos como el MedGemma, la versión más reciente de la IA médica de Google, siguen presentando respuestas inconsistentes dependiendo de la forma en que son cuestionados.
Los especialistas defienden que, en lugar de sustituir a los profesionales de la salud, estas tecnologías deben servir como herramientas de apoyo, siempre con revisión humana.