Una investigación reciente realizada por el Tow Center for Digital Journalism de la Universidad de Columbia reveló fallas significativas en ChatGPT Search, la herramienta de búsqueda de OpenAI.
El estudio destaca que el sistema enfrenta dificultades para citar correctamente las fuentes de noticias, lo que genera preocupaciones sobre la visibilidad y el control del contenido por parte de los editores.
Los hallazgos también ponen en duda las declaraciones de OpenAI sobre su colaboración con la industria periodística.
Lanzado el mes pasado, ChatGPT Search prometía integrar retroalimentación de los editores y permitirles controlar la presencia de sus contenidos mediante el archivo robots.txt.
Sin embargo, el informe sugiere que, incluso con estas medidas, el sistema frecuentemente atribuye citas a versiones no autorizadas o sindicadas, ignorando las fuentes originales.
Casos como el de The New York Times, que bloquea el acceso del chatbot, e incluso el de la MIT Technology Review, que lo permite, destacan que la mala atribución ocurre independientemente de las preferencias de los editores.
De las 200 consultas analizadas, 153 devolvieron información incorrecta, según el estudio. ChatGPT Search mostró inconsistencias al responder preguntas idénticas y rara vez reconoció sus errores.
Este enfoque, que prioriza respuestas agradables para los usuarios en detrimento de la precisión, podría no solo confundir a los lectores, sino también perjudicar la credibilidad de medios de renombre.
En respuesta, OpenAI afirmó que busca mejorar la precisión de las citas y respetar la autonomía de los editores.
La empresa destacó el uso de herramientas como OAI-SearchBot para permitir a los editores gestionar cómo aparecen sus contenidos en la búsqueda.
A pesar de ello, reconoció los desafíos para resolver problemas específicos de atribución.