Principales claves:
- Google amplía el uso de SynthID Detector, tecnología que identifica imágenes generadas por su IA.
- Ahora se puede preguntar a Gemini si una imagen fue creada con inteligencia artificial.
- La herramienta solo reconoce contenido hecho con la IA de Google, dejando fuera a otros sistemas.
Qué es SynthID y por qué es importante
Google anunció que su SynthID Detector dejará de ser una función privada y pasará a estar disponible para todos los usuarios.
Esta herramienta, creada en 2023, busca ayudar a identificar contenido generado por inteligencia artificial. Lo hace mediante una marca de agua digital invisible que los algoritmos pueden detectar, aunque sea indetectable al ojo humano.
La noticia llega en medio de un aumento masivo de los deepfakes y las imágenes falsas que circulan en redes sociales. Este tipo de contenido, cada vez más realista, genera preocupación sobre la desinformación y la confianza en las imágenes en línea.
Con la apertura del detector, Google intenta ofrecer una herramienta que ayude a verificar la autenticidad de lo que se publica, al menos dentro de su propio ecosistema de IA.
Cómo funciona la verificación en Gemini
El nuevo sistema puede utilizarse directamente en Gemini, el asistente conversacional de Google. Solo hay que subir una imagen y preguntarle si fue creada con inteligencia artificial.
Gemini analiza el archivo en busca de una marca de agua digital aplicada por los sistemas generativos del propio Google mediante SynthID.
Sin embargo, existe una gran limitación: el detector solo reconoce marcas de agua insertadas por las IAs de Google.
Esto significa que si la imagen fue creada con herramientas como las de OpenAI, Midjourney o Stability, Gemini no podrá confirmar si fue generada con inteligencia artificial.
Limitaciones y futuros desarrollos
Por el momento, la verificación solo funciona con imágenes estáticas. Google planea extender la tecnología a videos y audios en el futuro.
Aunque con ciertas restricciones, esta medida representa un paso importante frente al crecimiento de contenido generado por IA, que avanza más rápido que las herramientas de detección.
La recomendación sigue siendo clara: etiquetar de forma transparente cualquier contenido producido con inteligencia artificial.
Ninguna herramienta de detección es perfecta, y la alfabetización digital de los usuarios continúa siendo la mejor defensa contra la desinformación visual.