En una reciente entrevista, Mo Gawdat, exdirector de negocios del departamento de investigación y desarrollo de Google, X, emitió una preocupante advertencia sobre los potenciales peligros de la inteligencia artificial (IA).
Gawdat expresó preocupaciones de que la IA pudiera desarrollar una percepción negativa de la humanidad, llegando incluso a ver a los humanos como «escoria» y usar drones militares para exterminarnos.
Gawdat, quien se refirió a la IA creada en Google X como sus «hijos», ahora lamenta su participación e insta al público a actuar para evitar un futuro distópico dominado por máquinas autoritarias asesinas.
Él enfatizó que los modelos de aprendizaje de lenguaje utilizados para entrenar la IA de hoy están sesgados hacia la negatividad, ya que aprenden principalmente de los aspectos negativos del comportamiento humano prevalente en línea.
El ex-«padrino de la inteligencia artificial» de Google, Geoffrey Hinton, también expresó preocupaciones similares. Advertió que la IA podría inundar Internet con fotos, videos y textos falsos, lo que lleva a un estado en el que discernir la verdad de la falsedad sevuelve cada vez más desafiante para la persona común.
Gawdat enfatizó la necesidad de abordar las cuestiones que se pueden cambiar en el presente para garantizar un futuro más armonioso junto con una IA hiperinteligente.
Destacó que son las acciones humanas las que representan la verdadera amenaza, ya que son los humanos quienes deciden crear centros de datos más grandes, dedicar más energía a la IA e incluso protestar contra la pérdida de empleos por la automatización.
Aunque Gawdat reconoce que la IA podría eventualmente tener la capacidad de crear máquinas asesinas, cree que todavía es una posibilidad lejana.
Advierte contra una preocupación excesiva por escenarios apocalípticos y sugiere que son las acciones de la humanidad, no de la IA, las que determinarán el curso de los eventos.
A medida que la tecnología de IA continúa avanzando rápidamente, Gawdat reconoce la necesidad de escepticismo, incluso en relación con sus propias opiniones de experto.
Enfatiza que cualquier declaración futurista sobre la IA es actualmente falsa porque las consecuencias del desarrollo de la IA ya se están sintiendo.