Uno de los principales expertos en IA y cofundador de Google Brain afirmó que las grandes empresas de tecnología están explotando el miedo en relación a los riesgos de la inteligencia artificial para eliminar la competencia.
En una entrevista con The Australian Financial Review, Andrew Ng, profesor adjunto de la Universidad de Stanford y exprofesor del CEO de OpenAI, Sam Altman, reveló que las principales empresas de tecnología están promoviendo la idea de que la IA podría llevar a la extinción de la humanidad con la esperanza de desencadenar regulaciones estrictas.
Según Ng, esta estrategia ha sido utilizada como un arma por grupos de presión para respaldar legislaciones perjudiciales para la comunidad de código abierto.
En mayo, expertos en IA y CEOs firmaron una declaración del Center for AI Safety que comparaba los riesgos de la IA con la guerra nuclear y las pandemias. Nombres como Sam Altman, CEO de OpenAI, Demis Hassabis, CEO de DeepMind, y Dario Amodei, CEO de Anthropic, estaban entre los firmantes.
Varios líderes en el campo de la IA han emitido advertencias sobre el rápido desarrollo de modelos avanzados de IA generativa, instando a los reguladores a actuar con prontitud.
Gobiernos de todo el mundo están buscando regular la IA debido a preocupaciones sobre la seguridad, posibles pérdidas de empleo e incluso el riesgo de extinción de la humanidad. La Unión Europea probablemente será la primera región en imponer supervisión o regulación en relación con la IA generativa.
Ng destacó que la noción de que la IA podría llevar a la eliminación de la humanidad podría resultar en propuestas de políticas que requieran la licencia de la tecnología, lo que podría sofocar la innovación. Él enfatizó la importancia de una regulación cuidadosa y bien pensada, en caso de ser necesaria.
Google Brain, el equipo de investigación en IA de aprendizaje profundo, se fusionó con la división DeepMind a principios de este año.