El equipo de robótica de Google, DeepMind, ha desarrollado una «Constitución del Robot» para garantizar que sus nuevos androides de inteligencia artificial (IA) no pongan en peligro a los seres humanos.
Inspirada en las «Tres Leyes de la Robótica» de Isaac Asimov, esta constitución consiste en un conjunto de pautas de seguridad que instruyen a los modelos de lenguaje extenso (LLMs) a evitar tareas que impliquen riesgos para los humanos.
Uno de los avances presentados es el sistema de recopilación de datos AutoRT, que utiliza un modelo visual de lenguaje (VLM) y un LLM para ayudar a los robots a comprender su entorno, adaptarse a contextos desconocidos y seleccionar tareas apropiadas.
La Constitución del Robot actúa como una salvaguarda, evitando que los LLMs elijan actividades que puedan causar daño a humanos, animales, objetos afilados o aparatos eléctricos.
Además, DeepMind ha incorporado características de seguridad adicionales a los robots. Han sido programados para detenerse automáticamente si la fuerza ejercida en sus articulaciones supera un límite específico.
Además, los operadores humanos tienen un botón físico de desactivación para detener las acciones de los robots, si es necesario.
Durante un período de siete meses, Google desplegó 53 robots AutoRT en cuatro edificios de oficinas diferentes para realizar más de 77,000 pruebas.
Algunos robots fueron controlados de forma remota por operadores humanos, mientras que otros operaron de manera autónoma o siguiendo un guion.
Aunque aún estamos lejos de robots autónomos que puedan realizar tareas complejas, como servir bebidas o arreglar almohadas, iniciativas como la «Constitución del Robot» de Google son esenciales para garantizar que la inteligencia artificial se desarrolle con la seguridad en mente, minimizando riesgos potenciales.