Google, a pesar de haber incorporado su propio chatbot de IA en su motor de búsqueda, ahora está orientando a sus empleados a evitar utilizarlos para información confidencial.
La empresa matriz de Google, Alphabet, también ha extendido esta advertencia a los códigos de computadora y a su propio chatbot, Bard.
La compañía está preocupada por la posibilidad de filtración de datos al utilizar el chatbot, tanto para material confidencial como para códigos de programación.
Además, los revisores humanos pueden leer los chats, y los investigadores han descubierto que una IA puede reproducir los datos que absorbió durante el entrenamiento, creando un riesgo de filtración.
Esta postura es similar a la adoptada por Samsung, Amazon y Apple, que ya han prohibido el uso de chatbots de IA por parte de sus empleados.