Recientemente, GoogleDiscovery.com lanzó oficialmente su archivo llms.txt, y aquí te explicamos en términos simples qué significa esto y por qué puede marcar una diferencia en la visibilidad de tu sitio en herramientas de IA como ChatGPT, Google Gemini, Claude, Perplexity, entre otras.
¿Qué es llms.txt?
llms.txt es un archivo en Markdown ubicado en la raíz de tu dominio (por ejemplo: http://144.202.34.89/llms.txt
) que lista de forma organizada los contenidos más importantes, algo así como un sitemap, pero pensado para modelos de lenguaje (LLMs). Su objetivo es ofrecer un mapa claro del contenido relevante para que las IA lo interpreten con precisión y rapidez.
No reemplaza al robots.txt (que define reglas de acceso ni al sitemap.xml (que solo lista URLs sin contexto). En cambio, funciona como una guía limpia que señala a las IA hacia el contenido esencial.
¿Quién ya está usando llms.txt?
Varias plataformas ya lo adoptaron:
- Mintlify (en miles de sitios de documentación).
- Cursor, Zapier, Vercel, Anthropic y Perplexity.
También hay herramientas en GitHub para generar, validar y simular la ingesta de archivos llms.txt. En WordPress, existen plugins —como Yoast SEO— que lo generan automáticamente.
¿Realmente lo utilizan las IA?
Esa es la gran incógnita. Por ahora:
- John Mueller, de Google, dijo que “ningún sistema de IA actual usa llms.txt” y lo compara con una “etiqueta meta keywords” — es decir, sin relevancia práctica, ya que las IA aún buscan directamente en las páginas.
- Los registros de miles de sitios no muestran actividad de bots como GPTBot o ClaudeBot accediendo específicamente a este archivo.
Conclusión: No hay evidencia concreta de que los modelos de IA usen llms.txt hoy en día.
¿Entonces por qué implementarlo?
Aunque no haya adopción general, hay buenas razones para usarlo:
- Es fácil y aporta sin costo — se trata de un archivo sencillo en Markdown, fácil de mantener.
- Reduce ruido para las IA — evita que algoritmos procesen código, scripts o elementos innecesarios.
- Una apuesta estratégica — si este estándar se consolida, quienes lo adopten primero tendrán ventaja.
Buenas prácticas para crear tu llms.txt
- Incluye de 10 a 50 URLs principales.
- Usa una formato limpio: títulos (
#
,##
), enlaces con descripciones en Markdown. - No abuses con palabras clave ni llenes de spam.
- Actualízalo regularmente para reflejar tu contenido más útil.
- Revisa los registros (logs) para saber quién accede al archivo (bots, humanos, etc.).
¿Cómo podría evolucionar?
- Una API para IA: un futuro
.well-known/mcp.json
podría definir permisos, atribución, licencias y casos de uso. - Capa de monetización: enlazar a sistemas de pago por acceso, límites de uso o acuerdos comerciales.
Así, llms.txt no sería solo una herramienta de descubrimiento, sino una puerta a licencias y modelos de consumo de contenido.
En resumen
- Qué es: un índice en Markdown que resalta el contenido clave para IA.
- Quién lo usa: plataformas dev, documentación y desarrolladores (Mintlify, Anthropic, Cursor, etc.).
- Pero…: no hay pruebas de que lo usen agentes de IA actualmente (según John Mueller y los logs).
- ¿Vale la pena?: sí — es de bajo costo, reduce ruido y puede tener beneficios estratégicos.
En GoogleDiscovery.com, implementamos llms.txt para mostrar de forma proactiva nuestros contenidos destacados a los sistemas de IA, demostrando que nos estamos preparando para esta forma emergente de descubrimiento.
¿Quieres generar el tuyo?
Si usas WordPress, instala un plugin como Yoast SEO o “Website LLMs.txt” y listo, se genera automáticamente.