The Guardian acusó a Microsoft de dañar su reputación al incluir una encuesta ofensiva generada por inteligencia artificial en uno de sus artículos.
En un informe sobre la muerte de Lilie James, de 21 años, cuyo cuerpo fue encontrado con graves heridas en la cabeza en Australia, la gigante tecnológica utilizó su IA para preguntar a los lectores cuál habría sido la causa del fallecimiento, ofreciendo las opciones de asesinato, accidente o suicidio.
La encuesta generó indignación entre los lectores, quienes la consideraron «repugnante» y pidieron el despido inmediato del periodista responsable, aunque este no tenía ninguna implicación en la creación de la encuesta.
Un portavoz de Microsoft comentó sobre lo sucedido:
«Hemos desactivado las encuestas generadas por Microsoft para todos los artículos de noticias y estamos investigando la causa del contenido inapropiado. Una encuesta no debería haber aparecido junto con un artículo de esta naturaleza, y estamos tomando medidas para evitar que este tipo de error ocurra nuevamente en el futuro».
Este incidente reciente no es la primera vez que la IA generativa de Microsoft ha causado problemas a la empresa. En septiembre, el gigante tecnológico fue ampliamente criticado después de publicar un obituario generado por IA para la estrella de la NBA Brandon Hunter.
El exjugador de los Boston Celtics y Orlando Magic falleció repentinamente a la edad de 42 años, luego de desplomarse durante una clase de hot yoga en Orlando, Florida. Poco después de su muerte, los fanáticos se sorprendieron al encontrar un obituario en MSN que describía al padre de tres hijos como «inútil». El titular del artículo decía: «Brandon Hunter, inútil a los 42 años».
Esta situación vuelve a plantear la discusión sobre la decisión de Microsoft de utilizar la inteligencia artificial en lugar de redactores humanos. El incidente sirve como recordatorio de que las empresas deben utilizar la IA para respaldar el trabajo humano, no para reemplazarlo.