Google Cloud ha anunciado AI Protection, un nuevo conjunto de herramientas de seguridad diseñado para proteger los sistemas de inteligencia artificial contra amenazas y vulnerabilidades.
Esta novedad permite que las empresas tengan una visión centralizada de los riesgos y puedan actuar antes de que ocurran problemas, independientemente del modelo de IA o la plataforma utilizada.
Con el crecimiento acelerado de la inteligencia artificial, también aumenta la preocupación por la seguridad. Los modelos de IA pueden ser objeto de ataques, filtraciones de datos e incluso manipulación maliciosa.
Para lidiar con estos desafíos, AI Protection se integrará en el Security Command Center (SCC), una herramienta que ya monitorea riesgos en la nube de Google.
Entre los principales recursos se encuentran AI Inventory Discovery, que identifica posibles vulnerabilidades en los sistemas de IA, AI Asset Security, que añade capas adicionales de protección, y Threat Management, que detecta y responde a amenazas específicas de la IA.
Otro aspecto destacado es Model Armor, una solución desarrollada para proteger los modelos de IA contra ataques como la inyección de comandos maliciosos (prompt injection) y el jailbreak, una técnica utilizada para eludir restricciones de seguridad.
Además, Google Cloud ha anunciado mejoras en Sensitive Data Protection (SDP), que ahora identifica automáticamente información sensible en bases de datos de IA, como las utilizadas en Vertex AI.
Google también ha afirmado que continuará mejorando la seguridad de los sistemas de IA en colaboración con la empresa de ciberseguridad Mandiant.
Se añadirán nuevos detectores a AI Protection en breve, ayudando a identificar amenazas emergentes, como intentos de manipulación de modelos de IA.