Google anunció una revisión importante en sus principios sobre el uso de inteligencia artificial (IA). La empresa decidió eliminar fragmentos que prohibían el uso de su tecnología en áreas consideradas sensibles, como armamento y sistemas de vigilancia.
En 2018, el gigante de Mountain View había establecido directrices claras, prometiendo no desarrollar tecnologías que pudieran causar daños a las personas o violar los derechos humanos.
Entre los compromisos se encontraba la prohibición de crear sistemas cuyo principal objetivo fuera dañar a individuos, facilitar la vigilancia en desacuerdo con normas internacionales o contradecir principios de derechos humanos.
Ahora, esas restricciones han sido eliminadas, lo que significa que la empresa puede, teóricamente, explorar esos campos en el futuro.
La decisión plantea preguntas sobre los motivos detrás de este cambio. Expertos y usuarios en redes sociales especulan que Google podría estar adaptándose a presiones políticas o económicas, especialmente en un momento de tensiones globales y avances en tecnologías de defensa.
El famoso lema de la empresa, “Don’t be evil” (“No seas malvado”), que ya había sido dejado de lado en años anteriores, ha vuelto a ser recordado por críticos, quienes acusan a la compañía de abandonar sus valores éticos.
A pesar de la polémica, Google aún no ha detallado cómo planea utilizar su IA de aquí en adelante. La empresa afirma que sus nuevos principios buscan “promover la innovación responsable”, pero muchos se preguntan qué significa eso en la práctica.
Mientras tanto, el debate sobre los límites de la tecnología y el papel de las grandes corporaciones en la sociedad sigue siendo intenso.
Lo que está claro es que, con este cambio, Google abre las puertas a un futuro en el que la IA podría ser utilizada de formas que, hasta hace poco, eran consideradas inaceptables.