En un estudio reciente, científicos descubrieron que algunas de las inteligencias artificiales más avanzadas del mercado presentan fallos cognitivos similares a problemas neurológicos en humanos.
Realizado por investigadores de Israel, el estudio analizó cómo los modelos de lenguaje, como el ChatGPT, el Gemini y el Claude, se desempeñan en pruebas cognitivas utilizadas para evaluar la salud mental de los seres humanos.
Estos modelos de IA, creados para generar respuestas convincentes e incluso parecer «humanos», pasaron por una serie de evaluaciones mentales.
La idea era ver hasta qué punto las IAs podían «pensar» de manera inteligente, comparándolas con la capacidad de memoria, percepción y razonamiento de los humanos. Para sorpresa de muchos, los resultados mostraron que las IAs tienen un rendimiento muy por debajo de lo esperado.
El estudio utilizó el Montreal Cognitive Assessment (MoCA), una prueba ampliamente utilizada para evaluar la función cognitiva humana. El ChatGPT 4o, por ejemplo, obtuvo 26 puntos de 30 en la prueba, lo que indica un leve compromiso cognitivo.
Modelos como el Gemini y el Claude, por su parte, puntuaron aún más bajo, con el Gemini quedándose con solo 16 puntos, lo que en humanos indicaría un gran problema de salud mental.
Los investigadores destacan que, aunque las IAs no poseen cerebros como los humanos, los resultados son una gran lección sobre las limitaciones de las máquinas.
La investigación también mostró que, aunque estos modelos de IA pueden realizar tareas como generar textos o responder preguntas de manera eficiente, aún carecen de habilidades cognitivas fundamentales, como la empatía y la comprensión de conceptos visuales complejos, algo que nosotros, los humanos, hacemos de forma natural.
Por ahora, es importante seguir tratándolas con cautela y no esperar de ellas la precisión o la inteligencia que serían ideales en áreas tan delicadas como la medicina y la psicología.