Documentos revelan que Google debatió seis formas de dar (o negar) control a los editores sobre el uso de IA

Rene Fraga
4 minutos de lectura

Puntos clave:

  • Documentos del Departamento de Justicia de EE. UU. muestran que Google evaluó seis niveles de control para que los editores pudieran limitar el uso de su contenido en funciones de inteligencia artificial.
  • La compañía habría trazado una “línea roja” para no permitir que los sitios elijan completamente cómo sus datos son usados por IA.
  • Finalmente, Google adoptó una de las opciones consideradas “inestables”, ofreciendo solo controles parciales.

Qué muestran los documentos

Un archivo presentado en el caso antimonopolio del Departamento de Justicia de Estados Unidos contra Google reveló conversaciones internas sobre si los propietarios de sitios web deberían tener algún control sobre el uso de su contenido por parte de las herramientas de inteligencia artificial de la empresa.

El investigador Nate Hake compartió el hallazgo en la red X, afirmando que Google se negó a dar a los editores la posibilidad de decidir si sus textos e información podían ser usados para entrenar o mostrar respuestas en las funciones de IA como AI Overviews (antes conocido como Search Generative Experience).

En las diapositivas internas, la compañía enumeraba seis posibles enfoques, desde no hacer cambios hasta crear opciones avanzadas de exclusión.


Las seis opciones en discusión

Según el documento, las alternativas internas de Google iban desde no modificar nada hasta ofrecer controles cada vez más detallados para los editores. A continuación, un resumen simplificado:

  1. Sin nuevos controles: mantener las configuraciones actuales, permitiendo solo que un sitio se excluya completamente del índice.
  2. Cambio de posicionamiento público: sin agregar controles nuevos, pero aclarando que el uso de fragmentos de texto sería solo para exhibición, no para entrenamiento.
  3. Control por secciones: permitir a los editores marcar partes específicas de su contenido para que no se indexen ni se utilicen en el entrenamiento o la exhibición.
  4. Bloqueo en funciones de respuesta: opción para excluir contenido de respuestas automáticas, manteniéndolo en los resultados clásicos.
  5. Separación entre exhibición y uso en IA: posibilidad de evitar que un contenido aparezca en funciones de IA, aunque siga usándose para entrenar modelos.
  6. Bloqueo total en el entrenamiento de IA: opción para impedir que los datos de un sitio se utilicen para el aprendizaje de sistemas generativos.

Qué hizo realmente Google

Según Barry Schwartz, autor del análisis en Search Engine Roundtable, Google optó finalmente por la segunda alternativa, considerada “inestable”, que ofrece cierto grado de control, pero no completo

La empresa incluso publicó una guía explicando cómo bloquear parte del contenido de las funciones de IA, aunque sin garantizar que ese material quede totalmente fuera del entrenamiento de sus modelos.

Para los medios y editores independientes, este debate toca un tema crucial: quién controla el uso de la información en la era de la inteligencia artificial.

Mientras Google intenta equilibrar la búsqueda tradicional con los nuevos productos de IA, crece la presión por una mayor transparencia y por darle al creador del contenido una verdadera capacidad de elección.

Seguir
Renê Fraga es fundador de Google Discovery y editor en jefe de Eurisko, un ecosistema editorial independiente dedicado a la tecnología, la ciencia y la innovación. Profesional del marketing digital, con posgrado por la ESPM, sigue de cerca a Google desde la década de 2000 y escribe desde hace más de 20 años sobre tecnología, productos digitales e inteligencia artificial. Fundó Google Discovery en 2006, convirtiéndolo en uno de los principales sitios especializados en Google en Brasil, y fue columnista de TechTudo (Globo.com).
No hay comentarios