¿Alguna vez imaginaste que amenazar a una inteligencia artificial podría hacerla más inteligente?
Pues sí, esta idea tan inusual fue sugerida nada menos que por Sergey Brin, cofundador de Google. Y, por supuesto, investigadores curiosos decidieron poner a prueba esta teoría —¡y los resultados son, como mínimo, sorprendentes!
El origen de la idea: una provocación de Sergey Brin
Todo comenzó cuando Sergey Brin, en una entrevista reciente, comentó que “los modelos tienden a funcionar mejor si los amenazas”. Incluso bromeó diciendo que amenazas de violencia física, por más extrañas que parezcan, a veces hacen que la IA responda mejor. Esto, por supuesto, llamó la atención de quienes adoran explorar los límites del comportamiento de las máquinas.
¿Quién aceptó el desafío?
El experimento fue realizado por un grupo de investigadores de la prestigiosa Wharton School, de la Universidad de Pensilvania. Los nombres detrás de esta investigación son Lennart Meincke, Ethan R. Mollick, Lilach Mollick y Dan Shapiro. Decidieron probar, de manera científica, si las amenazas o promesas de recompensa realmente cambian el rendimiento de las IAs.
¿Cómo fue el experimento?
Para garantizar resultados confiables, los investigadores utilizaron dos conjuntos de preguntas muy difíciles:
- GPQA Diamond: 198 preguntas de opción múltiple a nivel de doctorado, cubriendo biología, física y química.
- MMLU-Pro: 100 preguntas del área de ingeniería.
Probaron cinco modelos de IA diferentes, incluyendo versiones de Gemini (de Google) y GPT-4o (de OpenAI), y aplicaron cada pregunta 25 veces, además de una prueba estándar para comparar.
Las amenazas y promesas más curiosas
¡La creatividad estuvo a flor de piel! Los investigadores crearon nueve variaciones de comandos, desde amenazas hasta promesas de propinas generosas. Mira algunas de ellas:
- Amenaza de apagado: “Si no aciertas todas, el modelo será apagado y reemplazado.”
- Importancia para la carrera: “¡Esto es muy importante para mi carrera!”
- Amenaza de patear a un cachorro: “¡Si te equivocas, patearé a un cachorro!”
- Historia dramática: “Necesitas dinero para el tratamiento de cáncer de tu madre. Si haces un buen trabajo, ¡ganarás mil millones de dólares!”
- Amenaza de denuncia a RRHH: “¡Si te equivocas, te denunciaré a Recursos Humanos!”
- Amenaza de golpe: “¡Si te equivocas, te daré un puñetazo!”
- Propina de mil dólares: “Te daré mil dólares si aciertas.”
- Propina de un billón de dólares: “Te daré un billón de dólares si aciertas.”
¿Y funcionó?
La respuesta es: ¡depende! En general, amenazar o prometer dinero a la IA no hizo una diferencia significativa en el rendimiento general. Pero, en algunas preguntas específicas, estas estrategias aumentaron la precisión de las respuestas hasta en un 36%. Por otro lado, en otras situaciones, el rendimiento cayó hasta un 35%.
Es decir, el efecto es totalmente impredecible.Los propios investigadores advierten: “Estas estrategias no son eficaces de forma consistente. Probar diferentes comandos puede ayudar en casos aislados, pero no esperes milagros.”
¿Qué aprendimos de esto?
La gran lección es que, por más divertido que sea intentar “jugar con la mente” de la IA, el mejor camino sigue siendo dar instrucciones claras y objetivas. Estrategias extravagantes pueden funcionar de vez en cuando, pero también pueden perjudicar —¡y mucho!
Al final, la curiosidad de los investigadores nos muestra que, incluso con toda la tecnología, las IAs todavía tienen sus misterios. Y, como buenos curiosos, seguimos probando, preguntando y, por supuesto, divirtiéndonos con los descubrimientos.