El pasado martes, Google anunció una actualización en sus directrices éticas sobre el uso de inteligencia artificial (IA), y el cambio no pasó desapercibido entre sus empleados.
La empresa eliminó una promesa importante: la de no utilizar IA para el desarrollo de armas o sistemas de vigilancia.
La decisión generó una ola de reacciones internas, especialmente en el foro Memegen, donde los colaboradores suelen expresar opiniones de manera relajada, pero directa.
Uno de los memes más compartidos mostraba al CEO de Google, Sundar Pichai, buscando en el motor de búsqueda de la empresa: «cómo convertirse en un contratista de armas?».
Otro meme, inspirado en una escena de comedia británica, planteaba la pregunta: «¿Somos los villanos de la historia?».
A pesar de las críticas, es importante destacar que estas reacciones provienen de un grupo pequeño dentro de Google, que tiene más de 180 mil empleados. No todos se oponen al cambio.
Algunos incluso podrían apoyar una mayor colaboración con clientes de defensa y el gobierno de los Estados Unidos, especialmente en un momento en que la competencia global por el liderazgo en IA está más feroz que nunca.
La empresa justificó el cambio en una publicación en su blog oficial, afirmando que el escenario geopolítico actual exige que empresas y gobiernos trabajen juntos en pro de la «seguridad nacional».
Sin embargo, la decisión reavivó un debate que ya había surgido en 2018, cuando Google renunció a un contrato con el Pentágono tras protestas internas.
Ahora, la pregunta que queda es: ¿hasta qué punto está dispuesta la empresa a renunciar a sus principios éticos en nombre de intereses estratégicos?