Principales destacados
- Chatbots populares como ChatGPT, Gemini y Copilot ya citan a Grokipedia en cientos de miles de respuestas
- Aunque su peso aún es reducido, la enciclopedia creada por IA crece de forma constante como fuente referenciada
- Expertos advierten sobre errores factuales, sesgo ideológico y riesgos de desinformación
El uso de Grokipedia como fuente de información por parte de grandes chatbots de inteligencia artificial está aumentando y comienza a generar preocupación entre investigadores y especialistas en desinformación.
Herramientas como ChatGPT, Gemini, Copilot y Perplexity mencionan cada vez con mayor frecuencia la enciclopedia creada por la empresa xAI, de Elon Musk, a pesar de las críticas sobre la fiabilidad de su contenido.
Los datos indican que, aunque Grokipedia todavía está muy lejos de competir con fuentes tradicionales como Wikipedia, su presencia en las respuestas de los modelos de lenguaje crece de manera sostenida, lo que abre el debate sobre los criterios que utilizan estas IAs para seleccionar y validar fuentes.
Los datos muestran un crecimiento silencioso
Un análisis de la empresa de SEO Ahrefs revela que Grokipedia apareció en más de 263.000 respuestas de ChatGPT, dentro de un total de 13,6 millones de prompts analizados.
En conjunto, se citaron cerca de 95.000 páginas diferentes de la enciclopedia. En el mismo período, Wikipedia en inglés fue mencionada en casi 2,9 millones de respuestas, manteniendo una ventaja clara.
Según información publicada por The Verge, Grokipedia ya representa entre el 0,01 y el 0,02 por ciento de las citas diarias de ChatGPT. Aunque la proporción es pequeña, el crecimiento sostenido desde noviembre ha llamado la atención de analistas del sector.
Patrones selectivos y temas muy específicos
Un reporte de The Guardian mostró que el modelo GPT-5.2 citó a Grokipedia en varias ocasiones al responder preguntas de nicho, como temas relacionados con organizaciones políticas iraníes o con el historiador británico Sir Richard Evans.
En cambio, la enciclopedia no fue utilizada como fuente en asuntos sensibles y ampliamente documentados, como el asalto al Capitolio del 6 de enero o la epidemia de VIH/SIDA.
Especialistas explican que los modelos de IA tienden a recurrir a Grokipedia en consultas altamente específicas, donde hay menos material consolidado disponible.
Un comportamiento similar fue observado en otros sistemas, como Claude, de Anthropic, que citó la plataforma en temas que van desde la producción de petróleo hasta cervezas escocesas.
Precisión cuestionada y respuestas de las empresas
Lanzada en octubre de 2025, Grokipedia se diferencia de Wikipedia porque su contenido es generado automáticamente por el chatbot Grok, con una supervisión humana limitada.
Investigaciones de medios como Wired y PolitiFact señalaron errores factuales, referencias inexistentes y contenido con un marcado sesgo ideológico, incluyendo afirmaciones polémicas sobre historia y salud pública.
El profesor Taha Yasseri, del Trinity College Dublin, advierte que la fluidez del texto puede confundirse fácilmente con confiabilidad. Por su parte, la investigadora Nina Jankowicz sostiene que la plataforma suele apoyarse en fuentes que, en el mejor de los casos, son dudosas y, en el peor, engañosas.
Ante las críticas, OpenAI afirmó que ChatGPT obtiene información de una amplia variedad de fuentes públicas y aplica filtros de seguridad para reducir el riesgo de contenido dañino.
Desde xAI, la respuesta fue escueta: la empresa afirmó que los medios tradicionales mienten. Para los expertos, el crecimiento de Grokipedia como fuente citada por la IA refleja uno de los grandes desafíos actuales: garantizar calidad, verificación y responsabilidad en un ecosistema de conocimiento cada vez más automatizado.