En una reciente entrevista con The Financial Times, Andrew Ng, cofundador de Google Brain, expresó su desacuerdo con las predicciones apocalípticas sobre la inteligencia artificial (IA).
Cuestionó enérgicamente la comparación frecuentemente realizada entre los riesgos de la IA y el potencial devastador de las armas nucleares, afirmando que tal analogía no tiene sentido alguno.
Ng criticó una declaración emitida por el Center for AI Safety en mayo, que comparaba los peligros de la IA con amenazas como la guerra nuclear y pandemias.
La declaración recibió amplia atención en ese momento y contó con el respaldo de destacados fundadores de empresas de IA, incluido Sam Altman, CEO de OpenAI.
El cofundador de Google Brain consideró esa declaración «desafortunada» y afirmó que distorsionó el pensamiento de los reguladores, llevando a una comprensión equivocada de los verdaderos riesgos de la IA.
Además, mencionó que otros críticos de la IA, como Elon Musk, también han establecido conexiones entre la tecnología y el peligro nuclear, pero él cree que esa visión es exagerada.
Ng ha sido un crítico ferviente de aquellos que promueven temores existenciales con respecto a la IA.
Anteriormente, sugirió que las grandes empresas de tecnología exageran los riesgos de la IA para crear un entorno de miedo que justifique una regulación más estricta.