Google detecta intento masivo de clonación de la lógica de Gemini con más de 100 mil prompts

Rene Fraga
5 minutos de lectura

Principales destacados

  • Google identificó una campaña con más de 100 mil comandos para intentar copiar el funcionamiento interno de Gemini
  • Hackers vinculados a China, Irán, Corea del Norte y Rusia estarían usando IA en todas las etapas de ataques cibernéticos
  • La empresa asegura que bloqueó los intentos y protegió los registros internos del modelo

El Google informó que su modelo de inteligencia artificial, Gemini, fue blanco de una campaña masiva que buscaba extraer su lógica interna.

Según el Grupo de Inteligencia de Amenazas de la compañía, se enviaron más de 100 mil prompts en una sola operación con el objetivo de comprender y replicar el funcionamiento del sistema.

El hallazgo forma parte del informe trimestral AI Threat Tracker, que señala un aumento en los intentos de robo de propiedad intelectual relacionados con modelos de IA.

La práctica es conocida como ataque de destilación o extracción de modelo, una técnica mediante la cual los atacantes intentan reconstruir el razonamiento interno de un sistema a través de preguntas estratégicamente diseñadas.

Google afirmó que detectó la ofensiva en tiempo real y logró proteger los registros internos de razonamiento del modelo.

Qué son los ataques de destilación y por qué generan preocupación

En este tipo de ataque, los ciberdelincuentes someten al modelo a miles de solicitudes cuidadosamente estructuradas para identificar patrones en sus respuestas. El objetivo es descubrir cómo la inteligencia artificial organiza la información y toma decisiones, lo que podría permitir la creación de una versión paralela o adaptada del sistema original.

En términos simples, es como intentar descifrar una receta secreta haciendo múltiples preguntas sobre ingredientes y preparación. Si la estrategia tiene éxito, puede derivar en la copia de tecnología propietaria, un activo extremadamente valioso en el competitivo mercado de la IA.

John Hultquist, analista jefe del Grupo de Inteligencia de Amenazas de Google, advirtió que la compañía podría estar funcionando como un sistema de alerta temprana para otras organizaciones que enfrentan riesgos similares.

Actores estatales incorporan IA en todo el ciclo de ataque

El informe también documenta la actuación de grupos vinculados a gobiernos extranjeros. Entre ellos se menciona APT31, asociado a China, que habría utilizado prompts estructurados para simular investigaciones de seguridad y obtener análisis automatizados de vulnerabilidades.

APT42, relacionado con Irán, habría empleado Gemini para campañas de ingeniería social, búsqueda de contactos oficiales y creación de perfiles convincentes para acercarse a objetivos específicos. Otro grupo citado es UNC2970, vinculado a Corea del Norte, que utilizó el chatbot para recopilar información pública y perfilar objetivos de alto valor en empresas de defensa y ciberseguridad.

Uno de los puntos más alarmantes es que la calidad del idioma ya no es un indicador confiable de fraude. Con el apoyo de la IA, los atacantes pueden generar mensajes altamente personalizados y culturalmente precisos, lo que dificulta la detección de estafas.

Mercado clandestino de IA ofensiva en expansión

El reporte también revela la existencia de servicios ilegales que prometen modelos de IA personalizados para fines ofensivos. Un ejemplo es el kit Xanthorox, que se promocionaba como una inteligencia artificial diseñada para crear malware y campañas de phishing.

La investigación determinó que en realidad utilizaba APIs comerciales con desbloqueos indebidos, incluyendo Gemini, además de servidores de código abierto. Google informó que desactivó todas las cuentas asociadas a esta herramienta.

También se identificó una nueva familia de malware llamada HONESTCUE, que emplea la API de Gemini para generar código capaz de descargar y ejecutar cargas maliciosas adicionales sin dejar archivos sospechosos en el disco, lo que complica su detección por parte de soluciones tradicionales de seguridad.

El escenario confirma una tendencia clara: a medida que la inteligencia artificial avanza, se convierte tanto en una herramienta de innovación como en un recurso estratégico para el cibercrimen. La competencia ya no es solo tecnológica, sino también defensiva.

Seguir:
Renê Fraga es fundador de Google Discovery y editor en jefe de Eurisko, un ecosistema editorial independiente dedicado a la tecnología, la ciencia y la innovación. Profesional del marketing digital, con posgrado por la ESPM, sigue de cerca a Google desde la década de 2000 y escribe desde hace más de 20 años sobre tecnología, productos digitales e inteligencia artificial. Fundó Google Discovery en 2006, convirtiéndolo en uno de los principales sitios especializados en Google en Brasil, y fue columnista de TechTudo (Globo.com).
No hay comentarios