Dario Amodei, CEO de Anthropic, advierte sobre un escenario preocupante: la posibilidad de que la IA se vuelva autónoma y autorreplicante, capaz de replicarse y sobrevivir por sí misma, ya en un futuro cercano, entre 2025 y 2028.
Amodei compara la seguridad en el desarrollo de la IA con los niveles de bioseguridad en laboratorios de virología. Según él, el mundo actualmente se encuentra en el nivel 2 (ASL 2), pero el nivel 4 (ASL 4), que incluiría «autonomía» y «persuasión», podría estar muy cerca.
Esta autonomía de la IA podría otorgar a países como China, Rusia o Corea del Norte una ventaja geopolítica considerable, mejorando sus capacidades militares ofensivas.
Reconoce que la idea de una IA autónoma puede parecer ciencia ficción, pero argumenta que la rapidez con que avanza la tecnología hace que esta posibilidad sea real y urgente.
«Estoy hablando realmente sobre el futuro cercano aquí. No estoy hablando de dentro de 50 años», dijo el CEO de Anthropic. «Dios me conceda la castidad, pero no ahora. Pero ‘ahora no’ no significa cuando sea viejo y canoso. Creo que puede ser a corto plazo».
En una entrevista con el New York Times, también enfatizó que, aunque la IA puede brindar muchos beneficios a la sociedad, es crucial que su desarrollo se realice de manera responsable y ética, con medidas de seguridad estrictas para evitar que se convierta en una amenaza para la humanidad.
Con inversiones de Google, Anthropic busca asegurar que la IA ayude a las personas y a la sociedad a prosperar, por lo que ha desarrollado métodos de control y regulación de la IA, además de promover la colaboración entre gobiernos y empresas para garantizar que esta tecnología se utilice para el bien común.
La perspectiva de Amodei sirve como una advertencia sobre los peligros potenciales de la IA autónoma, pero también sobre la necesidad de un desarrollo responsable y ético de esta tecnología.