El Google aconseja a sus empleados no utilizar su chatbot de IA para información confidencial

Rene Fraga
1 minutos de lectura

Google, a pesar de haber incorporado su propio chatbot de IA en su motor de búsqueda, ahora está orientando a sus empleados a evitar utilizarlos para información confidencial.

La empresa matriz de Google, Alphabet, también ha extendido esta advertencia a los códigos de computadora y a su propio chatbot, Bard.

La compañía está preocupada por la posibilidad de filtración de datos al utilizar el chatbot, tanto para material confidencial como para códigos de programación.

Además, los revisores humanos pueden leer los chats, y los investigadores han descubierto que una IA puede reproducir los datos que absorbió durante el entrenamiento, creando un riesgo de filtración.

Esta postura es similar a la adoptada por Samsung, Amazon y Apple, que ya han prohibido el uso de chatbots de IA por parte de sus empleados.

Seguir:
Renê Fraga es fundador de Google Discovery y editor en jefe de Eurisko, un ecosistema editorial independiente dedicado a la tecnología, la ciencia y la innovación. Profesional del marketing digital, con posgrado por la ESPM, sigue de cerca a Google desde la década de 2000 y escribe desde hace más de 20 años sobre tecnología, productos digitales e inteligencia artificial. Fundó Google Discovery en 2006, convirtiéndolo en uno de los principales sitios especializados en Google en Brasil, y fue columnista de TechTudo (Globo.com).
No hay comentarios