Icono del sitio Google Discovery en Español

Google responde a la convocatoria de la NTIA para comentarios sobre responsabilidad en IA

La NTIA solicitó comentarios sobre estrategias para promover la responsabilidad en sistemas de inteligencia artificial (IA) confiables, y Google ha respondido.

La empresa reconoció la necesidad de autorregulación y gobernanza para lograr una IA confiable, destacando sus propios esfuerzos en ética y seguridad en IA, incluyendo evaluaciones de riesgo y equidad.

Google recomendó un modelo de regulación de IA «hub-and-spoke», en el cual los reguladores sectoriales supervisan la implementación de IA con orientación de una agencia central, como el NIST.

La empresa estuvo de acuerdo en que los mecanismos de responsabilidad, como auditorías y certificaciones, pueden proporcionar garantías de sistemas de IA confiables, pero enfatizó que enfrentan desafíos en la implementación.

Google respaldó el uso de marcos regulatorios existentes cuando corresponda e intervenciones basadas en el riesgo para IA de alto riesgo. La empresa fomentó un enfoque colaborativo y basado en consenso para el desarrollo de estándares técnicos.

Al igual que otros participantes, Google cree que se requiere una combinación de autorregulación, estándares técnicos y políticas gubernamentales limitadas y basadas en el riesgo para avanzar en la responsabilidad en IA.

Salir de la versión móvil