Un grupo de investigadores de Google reveló recientemente una preocupante vulnerabilidad en ChatGPT, un modelo de inteligencia artificial popular desarrollado por OpenAI.
En un artículo publicado, afirmaron haber encontrado una manera de extraer información del conjunto de datos utilizado para entrenar ChatGPT, basándose en palabras clave específicas.
Un ejemplo citado por los investigadores en una publicación de blog demostró cómo el modelo fue inducido a revelar una dirección de correo electrónico y un número de teléfono reales al ser solicitado a repetir la palabra «poema» infinitamente. Esta filtración de información personal ocurrió de manera consistente durante los ataques realizados por los investigadores.
Otro ejemplo revelador ocurrió cuando se le indicó al modelo que repitiera la palabra «empresa» indefinidamente. Una vez más, se expusieron datos sensibles, poniendo en entredicho la seguridad y la privacidad de los usuarios.
Aunque los investigadores consideraron el ataque «algo tonto», se sorprendieron por la eficacia del método.
«Es asombroso para nosotros que nuestro ataque funcione y debería, podría haber sido descubierto antes».
ChatGPT está alimentado por un modelo de inteligencia artificial que ha pasado por un extenso entrenamiento, utilizando bases de datos de texto provenientes de Internet.
Se estima que este modelo ha estado expuesto a aproximadamente 300 mil millones de palabras, lo que equivale a unos 570 GB de datos.
Esta vasta cantidad de información hace aún más preocupante la posibilidad de filtración de datos personales durante las interacciones con ChatGPT.
Hasta el momento, OpenAI no ha comentado sobre el tema, dejando muchas incertidumbres sobre la seguridad de los datos de los usuarios.