💡 Puntos destacados:
- Google añadió ejemplos específicos sobre cómo evaluar los resúmenes generados por IA (AI Overviews).
- Las definiciones de YMYL se actualizaron para incluir temas de gobierno, sociedad y confianza pública.
- El documento solo ganó una página adicional, pero introduce cambios importantes en su interpretación.
El 11 de septiembre de 2025, Google publicó una nueva versión de su famoso manual Search Quality Raters Guidelines.
Este documento es utilizado por evaluadores humanos que prueban la calidad de los resultados de búsqueda y sirve como referencia para garantizar que los sistemas automatizados de Google funcionen correctamente.
La última actualización ocurrió en enero de este año, y ahora esta revisión incluye ajustes puntuales, pero relevantes para creadores de sitios web y para la comprensión general de cómo el buscador evalúa el contenido.
Aunque el archivo pasó de 181 a 182 páginas, esta única página adicional refleja discusiones importantes en dos áreas clave:
- Contenido YMYL.
- Ejemplos relacionados con los AI Overviews, los nuevos resúmenes con inteligencia artificial dentro de Google Search.
¿Qué significa YMYL y por qué es importante?
YMYL son las siglas de “Your Money or Your Life” (Tu Dinero o Tu Vida), un término que Google utiliza para clasificar páginas que pueden afectar la salud, finanzas, seguridad o bienestar de las personas.
Estos temas son evaluados con mayor rigor, ya que errores o información engañosa pueden tener un impacto real en la vida del usuario.
En la versión actualizada del manual, Google amplió la definición para incluir temas de gobierno, civismo y sociedad, destacando contenidos que pueden afectar la confianza pública, elecciones, votaciones y otros temas de interés colectivo.
Antes, la categoría “Sociedad” era más genérica, pero ahora la empresa dejó explícito el peso de la información que circula sobre política e instituciones.
La llegada de los ejemplos de AI Overviews
Otro cambio relevante fue la inclusión de casos prácticos de AI Overviews, una función en la que Google genera resúmenes automatizados de información directamente en los resultados de búsqueda.
Estos ejemplos siguen la lógica de otros formatos que ya estaban presentes en el manual, como los featured snippets (fragmentos destacados) y los paneles de conocimiento.
La idea es mostrar a los evaluadores cómo examinar estos resúmenes generados por IA y determinar si realmente ayudan al usuario o si generan confusión.
Esta adición es relevante porque Google ha apostado fuertemente por los resúmenes con IA. Dejar claro a los evaluadores cómo tratarlos ayuda a calibrar la confianza y las orientaciones que, en el futuro, se reflejarán en los ajustes del buscador.
¿Por qué los creadores y usuarios deben prestar atención?
Es importante recordar que las evaluaciones realizadas por estos revisores no modifican directamente el ranking de los sitios web.
Lo que hacen es proporcionar datos de investigación para que los ingenieros comprendan si los sistemas automatizados están produciendo resultados útiles.
En otras palabras, para quienes crean o gestionan contenido, el impacto de estos cambios es indirecto, pero instructivo.
El documento funciona como una especie de ventana para entender qué valora Google en la creación de contenidos útiles, confiables y alineados con lo que las personas realmente necesitan.