🤖 Principales puntos destacados:
- Big Sleep, IA desarrollada por Google, identificó 20 vulnerabilidades en software de código abierto.
- Las fallas fueron descubiertas sin intervención humana, pero revisadas por expertos antes de la notificación.
- El proyecto refuerza el avance de las IAs en el campo de la ciberseguridad, a pesar de las preocupaciones sobre falsos positivos.
Google anunció que su nueva herramienta de inteligencia artificial llamada Big Sleep, enfocada en encontrar fallos de seguridad en sistemas, ya ha demostrado resultados concretos: identificó 20 vulnerabilidades en proyectos populares de código abierto.
La información fue compartida por Heather Adkins, vicepresidenta de seguridad de Google, quien explicó que los bugs fueron detectados principalmente en software como la biblioteca de audio y video FFmpeg y el editor de imágenes ImageMagick.
Aunque los detalles técnicos no han sido divulgados, una práctica común para evitar la explotación antes de la corrección, Google resaltó que todas las vulnerabilidades fueron descubiertas y reproducidas de forma autónoma por la IA.
Un experto humano solo revisó los informes antes de enviarlos a los mantenedores de los proyectos.
Big Sleep une fuerzas de dos potencias de Google: DeepMind y Project Zero
El desarrollo de Big Sleep es fruto de la colaboración entre DeepMind, la división de inteligencia artificial de Google, y Project Zero, el grupo de élite enfocado en encontrar vulnerabilidades en software utilizado a gran escala.
Según Kimberly Samra, portavoz de la empresa, el sistema actúa solo durante la fase de investigación y reproducción de los bugs.
La presencia de un humano en el proceso es solo para garantizar la calidad y claridad del informe enviado.
Royal Hansen, vicepresidente de ingeniería de Google, afirmó que Big Sleep representa “una nueva frontera en el descubrimiento automatizado de vulnerabilidades”, marcando un paso importante hacia sistemas más seguros con la ayuda de la IA.
La competencia crece, pero la confianza sigue siendo un desafío
Big Sleep se une a otras herramientas similares como RunSybil y XBOW, que también buscan automatizar la identificación de vulnerabilidades.
XBOW, por ejemplo, se destacó recientemente por alcanzar la cima de un ranking en la plataforma HackerOne, especializada en programas de recompensa por bugs.
Sin embargo, el uso de IAs para este tipo de tareas aún enfrenta críticas. Los mantenedores de proyectos de código abierto reportaron recibir alertas falsas, las llamadas alucinaciones de la IA, que confunden más de lo que ayudan.
Vlad Ionescu, CTO de la startup RunSybil, reconoce el potencial de Big Sleep, destacando la calidad del proyecto y la experiencia del equipo involucrado, pero también advierte sobre el exceso de ruido en los informes generados por sistemas automatizados: “Parece oro, pero es solo basura”, afirmó.