OpenAI, la empresa que creó ChatGPT, está proponiendo una medida polémica: prohibir el uso de modelos de IA creados por empresas chinas, como DeepSeek, en los Estados Unidos.
La propuesta forma parte de un plan más amplio, llamado «Plan de Acción para IA», que busca definir la estrategia del país en el campo de la inteligencia artificial.
Pero, ¿por qué OpenAI está preocupada por modelos de IA como los de DeepSeek? La empresa argumenta que, al seguir las reglas de procesamiento de datos impuestas por el gobierno chino, estos modelos pueden representar riesgos para la privacidad y la seguridad de los usuarios en EE. UU.
Además, OpenAI defiende una prohibición amplia de cualquier modelo de IA originario de países considerados adversarios, citando preocupaciones sobre la filtración de información sensible y posibles ataques cibernéticos.
Sin embargo, no todo es tan simple. DeepSeek, por ejemplo, ofrece modelos de código abierto, que, en teoría, no ponen en riesgo la privacidad de los datos.
El problema estaría en el uso de APIs (interfaces que permiten la comunicación entre sistemas), ya que las consultas realizadas por los usuarios son procesadas directamente en los servidores de la empresa china.
Este no es el primer capítulo de la rivalidad entre OpenAI y DeepSeek. Anteriormente, OpenAI acusó a la empresa china de usar su tecnología de manera indebida para entrenar modelos de IA.
Vale recordar que OpenAI ya había acusado a la empresa china de utilizar indebidamente su tecnología para entrenar sus propios modelos de IA y, ahora, refuerza este argumento al destacar los riesgos para la seguridad nacional de EE. UU.