Google responde a la convocatoria de la NTIA para comentarios sobre responsabilidad en IA

Rene Fraga
1 minutos de lectura

La NTIA solicitó comentarios sobre estrategias para promover la responsabilidad en sistemas de inteligencia artificial (IA) confiables, y Google ha respondido.

La empresa reconoció la necesidad de autorregulación y gobernanza para lograr una IA confiable, destacando sus propios esfuerzos en ética y seguridad en IA, incluyendo evaluaciones de riesgo y equidad.

Google recomendó un modelo de regulación de IA «hub-and-spoke», en el cual los reguladores sectoriales supervisan la implementación de IA con orientación de una agencia central, como el NIST.

La empresa estuvo de acuerdo en que los mecanismos de responsabilidad, como auditorías y certificaciones, pueden proporcionar garantías de sistemas de IA confiables, pero enfatizó que enfrentan desafíos en la implementación.

Google respaldó el uso de marcos regulatorios existentes cuando corresponda e intervenciones basadas en el riesgo para IA de alto riesgo. La empresa fomentó un enfoque colaborativo y basado en consenso para el desarrollo de estándares técnicos.

Al igual que otros participantes, Google cree que se requiere una combinación de autorregulación, estándares técnicos y políticas gubernamentales limitadas y basadas en el riesgo para avanzar en la responsabilidad en IA.

Seguir:
Renê Fraga es fundador de Google Discovery y editor en jefe de Eurisko, un ecosistema editorial independiente dedicado a la tecnología, la ciencia y la innovación. Profesional del marketing digital, con posgrado por la ESPM, sigue de cerca a Google desde la década de 2000 y escribe desde hace más de 20 años sobre tecnología, productos digitales e inteligencia artificial. Fundó Google Discovery en 2006, convirtiéndolo en uno de los principales sitios especializados en Google en Brasil, y fue columnista de TechTudo (Globo.com).
No hay comentarios