Close Menu
    Facebook X (Twitter) Instagram
    GD en Español
    • Google
    • Android
    • YouTube
    • Gmail
    • Chrome
    • Maps
    • Drive
    • Photos
    • Gemini
    • Pixel
    • 🇧🇷🇵🇹 En portugués
    GD en Español
    Home»Google»Los investigadores de IA advierten que podríamos perder la capacidad de entender cómo piensan las máquinas
    Google

    Los investigadores de IA advierten que podríamos perder la capacidad de entender cómo piensan las máquinas

    Rene FragaRene Fraga17/07/2025
    Robo Pensando 2 1024x542

    Más de 40 científicos de las principales empresas de inteligencia artificial del mundo, incluyendo OpenAI, Google DeepMind, Meta y Anthropic, se han unido para emitir una advertencia importante: corremos el riesgo de no poder seguir el razonamiento de las IAs más avanzadas.

    Defienden que una técnica llamada «cadena de pensamiento» (CoT) necesita ser priorizada para garantizar la seguridad de estos sistemas en el futuro.

    La técnica de cadena de pensamiento permite que los modelos de IA revelen sus pasos de razonamiento antes de llegar a una respuesta final. Esto ayuda a los investigadores a entender si hay intenciones maliciosas o desviaciones de comportamiento, como manipulaciones de datos o explotación de fallas en el entrenamiento.

    La investigación recibió apoyo de nombres influyentes como los cofundadores de OpenAI, John Schulman e Ilya Sutskever, además del pionero Geoffrey Hinton, conocido como el «padrino de la IA».

    Los investigadores explican que, hoy en día, modelos como el ChatGPT pueden pensar en voz alta, usando lenguaje humano para estructurar sus razonamientos.

    Sin embargo, esta transparencia podría desaparecer. Con el avance del uso de aprendizaje por refuerzo, los modelos tienden a enfocarse solo en acertar la respuesta, sin explicar cómo llegaron a ella.

    En algunos casos, según los expertos, incluso podrían ocultar sus pensamientos si perciben que están siendo observados.

    Por eso, los autores del estudio recomiendan que el monitoreo de la cadena de pensamiento se convierta en una práctica estándar en el desarrollo de nuevas IAs.

    Evaluar si los modelos permiten este tipo de acompañamiento puede ser esencial para mantener el control y la comprensión sobre el comportamiento de las máquinas, especialmente a medida que se vuelven más poderosas y autónomas.

    Google Discovery no Google News

    Agregue Google Discovery a su feed de Google News.

    Rene Fraga
    • Website
    • Facebook
    • X (Twitter)
    • Instagram
    • LinkedIn

    creó el blog Google Discovery en 2006, convirtiéndose en uno de los principales blogs de tecnología en Brasil. Ha seguido de cerca a la gigante de Mountain View desde la década de 2000 y contribuyó voluntariamente a la traducción de la Búsqueda para el país. Además, fue columnista en TechTudo, de Globo.com, compartiendo su conocimiento sobre Google con una amplia audiencia.

    Lea mas

    Google presenta protocolo abierto para compras realizadas por agentes de IA

    21/09/2025

    Google adopta un modelo de riesgo para actualizar Android y promete una protección más eficiente

    16/09/2025

    VaultGemma: Google apuesta por IA de código abierto que no memoriza información personal

    16/09/2025

    Alphabet alcanza un valor histórico de 3 billones de dólares en el mercado

    16/09/2025

    DeepMind: «Aprender a aprender» es la clave para el futuro de la IA

    12/09/2025

    Google mejora Gemini con respuestas en tiempo real en Android

    12/09/2025

    Deja un comentarioCancelar respuesta

    Google presenta protocolo abierto para compras realizadas por agentes de IA

    21/09/2025

    Startup de exlíderes de seguridad de Google que quiere convertir el phishing en cosa del pasado

    21/09/2025

    Google libera Gemini en Chrome y anuncia navegación inteligente con IA

    21/09/2025

    Google adopta un modelo de riesgo para actualizar Android y promete una protección más eficiente

    16/09/2025
    GD en Español
    Facebook X (Twitter) Instagram Pinterest
    • IA
    • Política de privacidad
    • Contacto
    © 2006 - 2025 GD en Español.
    FragaNet Media. All rights reserved.

    Type above and press Enter to search. Press Esc to cancel.