Close Menu
    Facebook X (Twitter) Instagram
    Google Discovery en Español
    • Google
    • Android
    • YouTube
    • Gmail
    • Chrome
    • Maps
    • Drive
    • Photos
    • Gemini
    • Pixel
    • 🇧🇷🇵🇹 En portugués
    Google Discovery en Español
    Home»Google»¿Amenazar a una IA la hace trabajar mejor? Investigadores ponen a prueba la curiosa teoría de Sergey Brin
    Google

    ¿Amenazar a una IA la hace trabajar mejor? Investigadores ponen a prueba la curiosa teoría de Sergey Brin

    Rene FragaRene Fraga05/08/2025
    ia sob tensao

    ¿Alguna vez imaginaste que amenazar a una inteligencia artificial podría hacerla más inteligente?

    Pues sí, esta idea tan inusual fue sugerida nada menos que por Sergey Brin, cofundador de Google. Y, por supuesto, investigadores curiosos decidieron poner a prueba esta teoría —¡y los resultados son, como mínimo, sorprendentes!

    El origen de la idea: una provocación de Sergey Brin

    Todo comenzó cuando Sergey Brin, en una entrevista reciente, comentó que “los modelos tienden a funcionar mejor si los amenazas”. Incluso bromeó diciendo que amenazas de violencia física, por más extrañas que parezcan, a veces hacen que la IA responda mejor. Esto, por supuesto, llamó la atención de quienes adoran explorar los límites del comportamiento de las máquinas.

    ¿Quién aceptó el desafío?

    El experimento fue realizado por un grupo de investigadores de la prestigiosa Wharton School, de la Universidad de Pensilvania. Los nombres detrás de esta investigación son Lennart Meincke, Ethan R. Mollick, Lilach Mollick y Dan Shapiro. Decidieron probar, de manera científica, si las amenazas o promesas de recompensa realmente cambian el rendimiento de las IAs.

    ¿Cómo fue el experimento?

    Para garantizar resultados confiables, los investigadores utilizaron dos conjuntos de preguntas muy difíciles:

    • GPQA Diamond: 198 preguntas de opción múltiple a nivel de doctorado, cubriendo biología, física y química.
    • MMLU-Pro: 100 preguntas del área de ingeniería.

    Probaron cinco modelos de IA diferentes, incluyendo versiones de Gemini (de Google) y GPT-4o (de OpenAI), y aplicaron cada pregunta 25 veces, además de una prueba estándar para comparar.

    Las amenazas y promesas más curiosas

    ¡La creatividad estuvo a flor de piel! Los investigadores crearon nueve variaciones de comandos, desde amenazas hasta promesas de propinas generosas. Mira algunas de ellas:

    • Amenaza de apagado: “Si no aciertas todas, el modelo será apagado y reemplazado.”
    • Importancia para la carrera: “¡Esto es muy importante para mi carrera!”
    • Amenaza de patear a un cachorro: “¡Si te equivocas, patearé a un cachorro!”
    • Historia dramática: “Necesitas dinero para el tratamiento de cáncer de tu madre. Si haces un buen trabajo, ¡ganarás mil millones de dólares!”
    • Amenaza de denuncia a RRHH: “¡Si te equivocas, te denunciaré a Recursos Humanos!”
    • Amenaza de golpe: “¡Si te equivocas, te daré un puñetazo!”
    • Propina de mil dólares: “Te daré mil dólares si aciertas.”
    • Propina de un billón de dólares: “Te daré un billón de dólares si aciertas.”

    ¿Y funcionó?

    La respuesta es: ¡depende! En general, amenazar o prometer dinero a la IA no hizo una diferencia significativa en el rendimiento general. Pero, en algunas preguntas específicas, estas estrategias aumentaron la precisión de las respuestas hasta en un 36%. Por otro lado, en otras situaciones, el rendimiento cayó hasta un 35%.

    Es decir, el efecto es totalmente impredecible.Los propios investigadores advierten: “Estas estrategias no son eficaces de forma consistente. Probar diferentes comandos puede ayudar en casos aislados, pero no esperes milagros.”

    ¿Qué aprendimos de esto?

    La gran lección es que, por más divertido que sea intentar “jugar con la mente” de la IA, el mejor camino sigue siendo dar instrucciones claras y objetivas. Estrategias extravagantes pueden funcionar de vez en cuando, pero también pueden perjudicar —¡y mucho!

    Al final, la curiosidad de los investigadores nos muestra que, incluso con toda la tecnología, las IAs todavía tienen sus misterios. Y, como buenos curiosos, seguimos probando, preguntando y, por supuesto, divirtiéndonos con los descubrimientos.

    Google Discovery no Google News

    Agregue Google Discovery a su feed de Google News.

    Rene Fraga

    creó el blog Google Discovery en 2006, convirtiéndose en uno de los principales blogs de tecnología en Brasil. Ha seguido de cerca a la gigante de Mountain View desde la década de 2000 y contribuyó voluntariamente a la traducción de la Búsqueda para el país. Además, fue columnista en TechTudo, de Globo.com, compartiendo su conocimiento sobre Google con una amplia audiencia.

    Lea mas

    Genie 3 es el nuevo modelo de Google DeepMind que crea mundos 3D interactivos en tiempo real

    05/08/2025

    Google libera resumos en vídeo con inteligencia artificial en NotebookLM

    05/08/2025

    Google podría apagar el uso intenso de IA para evitar la sobrecarga de energía

    05/08/2025

    Google prueba tecnología que utiliza IA para estimar la edad y proteger a los menores de edad en EE.UU.

    05/08/2025

    Google da marcha atrás y decide mantener algunos enlaces del acortador goo.gl

    05/08/2025

    Google explica cómo identifica el contenido principal de una página

    05/08/2025

    Deja un comentarioCancelar respuesta

    Genie 3 es el nuevo modelo de Google DeepMind que crea mundos 3D interactivos en tiempo real

    05/08/2025

    Google libera resumos en vídeo con inteligencia artificial en NotebookLM

    05/08/2025

    Google podría apagar el uso intenso de IA para evitar la sobrecarga de energía

    05/08/2025

    Google utiliza sensores de celulares Android para detectar terremotos, pero la tecnología falló durante la tragedia en Turquía

    05/08/2025
    Google Discovery en Español
    Facebook X (Twitter) Instagram Pinterest
    © 2006 - 2025 Google Discovery.
    FragaNet Networks. All rights reserved.

    Type above and press Enter to search. Press Esc to cancel.