Las principales empresas de inteligencia artificial, Anthropic, Google, Microsoft y OpenAI, se han unido para crear el Frontier Model Forum, un foro destinado a priorizar el desarrollo seguro y cuidadoso de la IA.
El foro fue creado para abordar los crecientes riesgos de seguridad asociados con el uso de modelos de aprendizaje automático a gran escala, conocidos como modelos de frontera, que van más allá de las capacidades actuales.
Las empresas reconocen la necesidad de la autorregulación en el desarrollo de la IA hasta que se implementen regulaciones.
El Foro planea enfocarse en cuatro pilares principales: avanzar en la investigación de seguridad de la IA, definir las mejores prácticas, colaborar con formuladores de políticas, académicos, sociedad civil y empresas, y promover el desarrollo de la IA para enfrentar los mayores desafíos de la sociedad.
Con un claro compromiso con la seguridad, la adhesión al Frontier Model Forum requiere que las empresas produzcan modelos de frontera y demuestren dedicación a la implementación de medidas de seguridad.
Esta iniciativa sigue a un acuerdo de seguridad reciente entre la Casa Blanca y las principales empresas de IA, incluidos los participantes del Frontier Model Forum.
La creación del foro es un paso importante hacia un desarrollo más seguro y consciente de la IA, con la colaboración de las principales empresas de tecnología.