Un nuevo estudio revela que ChatGPT no es adecuado para el diagnóstico pediátrico.
Según la investigación publicada en la revista JAMA Pediatrics, el chatbot mostró una alarmante tasa de error del 83% al intentar diagnosticar casos médicos en niños.
El estudio, llevado a cabo por investigadores del Centro Médico Cohen Children’s en Nueva York, probó ChatGPT en 100 desafíos de casos pediátricos publicados en revistas médicas de renombre.
Los resultados fueron preocupantes: el chatbot acertó solo en 17 casos, se equivocó en 72 casos y no logró capturar completamente el diagnóstico correcto en 11 casos.
Esto indica una tasa de aciertos muy baja y plantea dudas sobre la capacidad de ChatGPT para manejar la complejidad y las sutilezas de los diagnósticos en niños.
Los investigadores señalaron que ChatGPT tuvo dificultades para identificar relaciones conocidas entre condiciones médicas, algo que los médicos experimentados normalmente serían capaces de hacer.
Por ejemplo, el chatbot no pudo establecer la conexión entre el autismo y el escorbuto en uno de los casos, proporcionando un diagnóstico equivocado.
Estas fallas muestran que ChatGPT aún tiene un largo camino por recorrer antes de ser considerado una herramienta confiable para el diagnóstico pediátrico.
Con una tasa de error tan alta, es crucial que los profesionales de la salud no confíen en ChatGPT como una fuente confiable para el diagnóstico de condiciones médicas en niños.
La investigación destaca la importancia de la experiencia clínica humana y del conocimiento especializado de los pediatras, que son esenciales para evaluar adecuadamente los síntomas y realizar diagnósticos precisos.