Google ha anunciado una expansión significativa en su programa de recompensas por vulnerabilidades (VRP), con el objetivo de mejorar la seguridad de la inteligencia artificial generativa.
La empresa tiene como objetivo fomentar la investigación que aborde los desafíos de seguridad y protección en este campo, con el fin de hacer que la IA sea más segura para todos los usuarios.
El programa de recompensas por vulnerabilidades, también conocido como «bug bounty», ofrece pagos a hackers éticos que descubren y reportan vulnerabilidades de seguridad de manera responsable.
Con el avance de la IA generativa, han surgido nuevas preocupaciones relacionadas con cuestiones como el sesgo injusto y la manipulación de modelos. Ante esto, Google ha decidido replantear la categorización y la notificación de errores en este contexto específico.
Para ayudar en esta iniciativa, Google está contando con la colaboración de su recién creada Equipo de Seguridad de IA.
Este grupo de expertos en ciberseguridad y hackers éticos simula diferentes tipos de adversarios, desde naciones y grupos respaldados por gobiernos hasta activistas e insiders maliciosos.
El objetivo es identificar posibles vulnerabilidades en las tecnologías de IA generativa, como ChatGPT y Google Bard.
El equipo de seguridad descubrió que los grandes modelos de lenguaje (LLM) son susceptibles a ataques de inyección de comandos, en los cuales un hacker crea comandos adversarios para influir en el comportamiento del modelo.
Además, se identificaron ataques de extracción de datos de entrenamiento, que permiten a los hackers reconstruir ejemplos de entrenamiento para extraer información personal identificable o contraseñas.
Estos tipos de ataques ahora están incluidos en el alcance del programa de recompensas ampliado de Google. En 2022, la empresa pagó más de 12 millones de dólares en recompensas a investigadores de seguridad.