Close Menu
    Facebook X (Twitter) Instagram
    GD en Español
    • Google
    • Android
    • YouTube
    • Gmail
    • Chrome
    • Maps
    • Drive
    • Photos
    • Gemini
    • Pixel
    • 🇧🇷🇵🇹 En portugués
    GD en Español
    Home»Google»¿Amenazar a una IA la hace trabajar mejor? Investigadores ponen a prueba la curiosa teoría de Sergey Brin
    Google

    ¿Amenazar a una IA la hace trabajar mejor? Investigadores ponen a prueba la curiosa teoría de Sergey Brin

    Rene FragaRene Fraga05/08/2025
    ia sob tensao

    ¿Alguna vez imaginaste que amenazar a una inteligencia artificial podría hacerla más inteligente?

    Pues sí, esta idea tan inusual fue sugerida nada menos que por Sergey Brin, cofundador de Google. Y, por supuesto, investigadores curiosos decidieron poner a prueba esta teoría —¡y los resultados son, como mínimo, sorprendentes!

    El origen de la idea: una provocación de Sergey Brin

    Todo comenzó cuando Sergey Brin, en una entrevista reciente, comentó que “los modelos tienden a funcionar mejor si los amenazas”. Incluso bromeó diciendo que amenazas de violencia física, por más extrañas que parezcan, a veces hacen que la IA responda mejor. Esto, por supuesto, llamó la atención de quienes adoran explorar los límites del comportamiento de las máquinas.

    ¿Quién aceptó el desafío?

    El experimento fue realizado por un grupo de investigadores de la prestigiosa Wharton School, de la Universidad de Pensilvania. Los nombres detrás de esta investigación son Lennart Meincke, Ethan R. Mollick, Lilach Mollick y Dan Shapiro. Decidieron probar, de manera científica, si las amenazas o promesas de recompensa realmente cambian el rendimiento de las IAs.

    ¿Cómo fue el experimento?

    Para garantizar resultados confiables, los investigadores utilizaron dos conjuntos de preguntas muy difíciles:

    • GPQA Diamond: 198 preguntas de opción múltiple a nivel de doctorado, cubriendo biología, física y química.
    • MMLU-Pro: 100 preguntas del área de ingeniería.

    Probaron cinco modelos de IA diferentes, incluyendo versiones de Gemini (de Google) y GPT-4o (de OpenAI), y aplicaron cada pregunta 25 veces, además de una prueba estándar para comparar.

    Las amenazas y promesas más curiosas

    ¡La creatividad estuvo a flor de piel! Los investigadores crearon nueve variaciones de comandos, desde amenazas hasta promesas de propinas generosas. Mira algunas de ellas:

    • Amenaza de apagado: “Si no aciertas todas, el modelo será apagado y reemplazado.”
    • Importancia para la carrera: “¡Esto es muy importante para mi carrera!”
    • Amenaza de patear a un cachorro: “¡Si te equivocas, patearé a un cachorro!”
    • Historia dramática: “Necesitas dinero para el tratamiento de cáncer de tu madre. Si haces un buen trabajo, ¡ganarás mil millones de dólares!”
    • Amenaza de denuncia a RRHH: “¡Si te equivocas, te denunciaré a Recursos Humanos!”
    • Amenaza de golpe: “¡Si te equivocas, te daré un puñetazo!”
    • Propina de mil dólares: “Te daré mil dólares si aciertas.”
    • Propina de un billón de dólares: “Te daré un billón de dólares si aciertas.”

    ¿Y funcionó?

    La respuesta es: ¡depende! En general, amenazar o prometer dinero a la IA no hizo una diferencia significativa en el rendimiento general. Pero, en algunas preguntas específicas, estas estrategias aumentaron la precisión de las respuestas hasta en un 36%. Por otro lado, en otras situaciones, el rendimiento cayó hasta un 35%.

    Es decir, el efecto es totalmente impredecible.Los propios investigadores advierten: “Estas estrategias no son eficaces de forma consistente. Probar diferentes comandos puede ayudar en casos aislados, pero no esperes milagros.”

    ¿Qué aprendimos de esto?

    La gran lección es que, por más divertido que sea intentar “jugar con la mente” de la IA, el mejor camino sigue siendo dar instrucciones claras y objetivas. Estrategias extravagantes pueden funcionar de vez en cuando, pero también pueden perjudicar —¡y mucho!

    Al final, la curiosidad de los investigadores nos muestra que, incluso con toda la tecnología, las IAs todavía tienen sus misterios. Y, como buenos curiosos, seguimos probando, preguntando y, por supuesto, divirtiéndonos con los descubrimientos.

    Google Discovery no Google News

    Agregue Google Discovery a su feed de Google News.

    Rene Fraga
    • Website
    • Facebook
    • X (Twitter)
    • Instagram
    • LinkedIn

    creó el blog Google Discovery en 2006, convirtiéndose en uno de los principales blogs de tecnología en Brasil. Ha seguido de cerca a la gigante de Mountain View desde la década de 2000 y contribuyó voluntariamente a la traducción de la Búsqueda para el país. Además, fue columnista en TechTudo, de Globo.com, compartiendo su conocimiento sobre Google con una amplia audiencia.

    Lea mas

    Google presenta protocolo abierto para compras realizadas por agentes de IA

    21/09/2025

    Google adopta un modelo de riesgo para actualizar Android y promete una protección más eficiente

    16/09/2025

    VaultGemma: Google apuesta por IA de código abierto que no memoriza información personal

    16/09/2025

    Alphabet alcanza un valor histórico de 3 billones de dólares en el mercado

    16/09/2025

    DeepMind: «Aprender a aprender» es la clave para el futuro de la IA

    12/09/2025

    Google mejora Gemini con respuestas en tiempo real en Android

    12/09/2025

    Deja un comentarioCancelar respuesta

    Google presenta protocolo abierto para compras realizadas por agentes de IA

    21/09/2025

    Startup de exlíderes de seguridad de Google que quiere convertir el phishing en cosa del pasado

    21/09/2025

    Google libera Gemini en Chrome y anuncia navegación inteligente con IA

    21/09/2025

    Google adopta un modelo de riesgo para actualizar Android y promete una protección más eficiente

    16/09/2025
    GD en Español
    Facebook X (Twitter) Instagram Pinterest
    • IA
    • Política de privacidad
    • Contacto
    © 2006 - 2025 GD en Español.
    FragaNet Media. All rights reserved.

    Type above and press Enter to search. Press Esc to cancel.