La inteligencia artificial, que tantas empresas han adoptado para impulsar innovaciones, está ahora causando un efecto secundario preocupante en el sector de la seguridad digital.
Google, Mozilla, Microsoft y Meta se encuentran entre las empresas que han enfrentado un aumento en el número de informes de fallos generados por modelos de lenguaje que inventan vulnerabilidades inexistentes.
Estos informes, conocidos como AI slop, llegan a los programas de recompensas por bugs con una apariencia profesional, pero sin ninguna base técnica real.
Los reportes de este problema se han multiplicado en todo el sector. En muchos casos, los textos parecen técnicamente correctos y bien estructurados, lo que lleva a los analistas a perder tiempo intentando validar algo que simplemente no existe.
“Recibimos informes que parecen legítimos, pero son solo invenciones de la IA”, explica Vlad Ionescu, de RunSybil, una empresa que desarrolla herramientas de IA para la seguridad cibernética.
Mozilla, responsable del navegador Firefox, afirmó que no ha observado un aumento significativo en estos informes falsos, pero reconoce el riesgo y mantiene la revisión manual precisamente para evitar rechazos indebidos.
Microsoft y Meta, por otro lado, prefirieron no comentar al respecto. Por su parte, Google tampoco respondió a las preguntas, aunque es una de las gigantes con uno de los programas de recompensas por bugs más grandes del mercado.
Para enfrentar este desafío, plataformas como HackerOne están invirtiendo en soluciones basadas en IA para ayudar a identificar los informes realmente relevantes.
Recientemente, la empresa lanzó Hai Triage, un sistema que combina agentes de IA y revisión humana para filtrar contenido duplicado y destacar amenazas reales.