ChatGPT y Grokipedia: la polémica enciclopedia de IA que se cuela como fuente

Última actualización: 27/01/2026

  • GPT-5.2, el modelo más avanzado de ChatGPT, está citando artículos de Grokipedia en temas sensibles y poco cubiertos.
  • Grokipedia es una enciclopedia generada por IA de xAI (Elon Musk), sin edición humana directa y con historial de sesgos y errores graves.
  • Expertos alertan de riesgos de desinformación, "LLM grooming" y vacíos de datos que los modelos rellenan con fuentes de baja calidad.
  • OpenAI defiende que usa muchas fuentes y filtros de seguridad, pero el caso reabre el debate sobre la fiabilidad de los chatbots, también en Europa y España.
ChatGPT Grokipedia

La irrupción de Grokipedia como fuente de ChatGPT ha encendido todas las alarmas en el debate sobre la calidad de la información generada por inteligencia artificial. Una investigación periodística internacional ha revelado que el modelo GPT-5.2, el más reciente de OpenAI, está citando artículos de esta enciclopedia automatizada impulsada por xAI y Elon Musk para responder a preguntas delicadas.

El hallazgo llega en un momento en el que cada vez más usuarios en España y el resto de Europa recurren a los chatbots de IA como sustituto directo del buscador tradicional. Esa confianza casi automática en lo que dice «la máquina» choca de frente con una realidad incómoda: si las fuentes son dudosas, las respuestas también lo serán, aunque lleguen envueltas en un lenguaje impecable.

Cómo se ha detectado que ChatGPT usa Grokipedia

Enciclopedia Grokipedia usada por ChatGPT

La alerta sobre ChatGPT Grokipedia parte de una investigación del diario británico The Guardian, retomada luego por otros medios tecnológicos internacionales. En una batería de pruebas al modelo GPT-5.2, los periodistas comprobaron que el sistema citaba artículos de Grokipedia en al menos nueve ocasiones al responder a más de una docena de preguntas distintas.

Las referencias no aparecían en temas donde la desinformación es muy visible y ya está ampliamente documentada, como la insurrección del 6 de enero en Estados Unidos, el tratamiento mediático a Donald Trump o determinados bulos sobre el VIH/SIDA. En esos ámbitos, los filtros de seguridad de OpenAI parecían funcionar y Grokipedia no asomaba.

Sin embargo, sí emergía en consultas mucho más específicas, como las estructuras empresariales de conglomerados iraníes, el salario de la milicia Basij o cuestiones biográficas relacionadas con negacionistas del Holocausto y figuras como el historiador Sir Richard Evans. En alguno de esos casos, ChatGPT llegó a reproducir afirmaciones que el propio Guardian ya había desmentido con anterioridad y que Grokipedia seguía presentando como válidas.

Más allá de los ejemplos concretos, la investigación describe un patrón: GPT-5.2 evita Grokipedia cuando hay muchas fuentes fiables disponibles en la web, pero la enciclopedia de xAI se cuela con facilidad en aquellos «rincones» informativos donde apenas hay datos contrastados o el ruido supera al contenido de calidad.

No solo OpenAI se ha visto señalada. Pruebas similares detectaron que Claude, el modelo de Anthropic, también integraba contenido de Grokipedia en temas variados, desde la industria petrolera hasta las cervezas escocesas. La compañía, al contrario que OpenAI, no ofreció explicaciones públicas, mientras que desde xAI se limitaron a responder con una frase lapidaria: «los medios tradicionales mienten».

El historial problemático de Grokipedia y Grok

Grokipedia

El contexto de Grokipedia no ayuda precisamente a calmar las aguas. La enciclopedia nació a rebufo de Grok, el chatbot de xAI integrado en X (la antigua Twitter), que ya había sido noticia por desnudar con IA a mujeres y generar contenidos extremos, incluyendo referencias a un personaje llamado «Mecha Hitler» y su uso para inundar la plataforma con deepfakes sexualizados.

Buena parte del contenido de Grokipedia ha sido criticado por reproducir discursos abiertamente racistas y tránsfobos, así como por difundir teorías conspirativas. Entre los ejemplos mencionados por medios especializados figuran entradas que relacionan la pornografía con la crisis del sida, que ofrecen justificaciones ideológicas de la esclavitud o que blanquean episodios históricos controvertidos, como partes del régimen franquista.

Contenido exclusivo - Clic Aquí  GenCast AI revoluciona la predicción meteorológica con mayor rapidez y precisión

También se han detectado copias parciales de artículos de Wikipedia sin atribución clara, adaptadas con un sesgo favorable a las posiciones políticas de Musk o con un enfoque mucho menos riguroso en cuanto a fuentes y contexto. Incluso la propia entrada de Elon Musk en Grokipedia ha sido señalada por presentar una versión excesivamente heroica y filantrópica de su figura, con logros inflados y una cierta épica personal.

En el caso español y europeo, donde los debates sobre memoria histórica, migración o derechos LGTBI son especialmente sensibles, la circulación de narrativas sesgadas a través de una herramienta tan masiva como ChatGPT puede alimentar polarización y confusión. Si un usuario en España recibe una respuesta que bebe de Grokipedia sobre, por ejemplo, franquismo, esclavitud o teorías conspirativas, probablemente no sabrá que está consultando una enciclopedia generada por IA con este tipo de antecedentes.

A todo ello se suma un elemento clave: la ausencia total de edición humana directa en Grokipedia. Aunque se permite que los usuarios sugieran cambios, es de nuevo la IA la que decide qué se acepta y qué no. Esto crea un circuito cerrado de validación donde un sistema automatizado alimenta y corrige a otro, sin un contrapeso editorial claro.

Basura entra, basura sale: el riesgo de entrenar y citar malas fuentes

En el ámbito de la inteligencia artificial se repite a menudo una máxima sencilla: «garbage in, garbage out». Si un modelo de lenguaje se entrena o se apoya en fuentes con errores, sesgos o mentiras, el resultado será un contenido que refleja esos mismos problemas, aunque llegue presentado con un tono neutral y convincente.

En el caso ChatGPT Grokipedia, el peligro no está solo en las llamadas «alucinaciones» clásicas de los modelos, sino en algo más sutil: que los propios sistemas de IA empiecen a validar patrones de desinformación al incorporarlos como parte normal de su ecosistema de fuentes. Cuando ChatGPT cita Grokipedia junto a otros sitios, el usuario medio puede asumir que se trata de una fuente equivalente a un medio reconocido o a la propia Wikipedia.

Expertos en seguridad de la información vienen advirtiendo de un fenómeno conocido como «LLM grooming». La idea es relativamente simple: actores maliciosos o estructuras afines a regímenes autoritarios pueden inundar la red con grandes volúmenes de desinformación para que los modelos que rastrean y consumen contenido en la web acaben integrando esas mentiras en su base de conocimiento.

Una vez la información errónea entra en el circuito de un gran modelo, eliminarla o desactivar su influencia se vuelve muy complicado. Incluso si una fuente original retira un contenido falso, otros sitios lo habrán replicado, y los sistemas de IA pueden seguir citando la versión incorrecta durante bastante tiempo, sobre todo cuando hay un vacío de datos fiables.

Para el usuario español o europeo que usa ChatGPT como sustituto de Google, esto tiene una consecuencia práctica: las respuestas pueden sonar razonables y estar cuidadosamente redactadas, pero apoyarse en materiales que nadie ha contrastado de forma independiente. La cita a una enciclopedia de IA no implica que lo dicho sea cierto; apenas indica de dónde ha salido.

Data voids y desinformación: cuando falta información buena

ChatGPT y Grokipedia en la inteligencia artificial

El caso ChatGPT Grokipedia también pone sobre la mesa el problema de los llamados «data voids» o vacíos de datos. Son esos temas sobre los que apenas hay información fiable disponible en abierto, bien porque son cuestiones muy técnicas, muy locales o poco tratadas fuera de círculos especializados.

Contenido exclusivo - Clic Aquí  Microsoft Mu: el nuevo modelo de lenguaje que lleva la inteligencia artificial local a Windows 11

En esos vacíos, los contenidos de baja calidad o directamente propagandísticos tienen vía libre para dominar los resultados de búsqueda y las bases de datos. Un estudio publicado en revistas académicas sobre desinformación señala que los modelos de lenguaje tienden a recurrir a lo que encuentran con más frecuencia y prominencia, no necesariamente a lo que está mejor verificado.

Es ahí donde Grokipedia encuentra un hueco. En temas sobre conglomerados iraníes, estructuras de poder poco conocidas o debates históricos oscuros, la enciclopedia de xAI puede aparecer en los primeros puestos, sobre todo si otros sitios de referencia no han cubierto el asunto en profundidad. Cuando GPT-5.2 lanza su búsqueda web, se topa con esa información y la incorpora.

Este fenómeno no es exclusivo del caso iraní. Puede reproducirse en cualquier país europeo donde determinados asuntos no cuenten con buena documentación accesible en línea. Un municipio pequeño, una empresa poco transparente o un episodio histórico mal estudiado son el caldo de cultivo perfecto para que narrativas sesgadas se conviertan en «verdad por repetición» en el ecosistema digital.

En España, por ejemplo, los debates sobre memoria democrática, violencia política o conflictos territoriales a menudo se ven inundados por material de baja calidad y lecturas extremas. Si una enciclopedia automatizada decide recoger solo una parte de ese espectro y presentarla como explicación principal, el riesgo de que un chatbot consolide esa visión como narrativa dominante es evidente.

La posición oficial de OpenAI y las críticas de los expertos

Ante la controversia por ChatGPT Grokipedia, OpenAI ha defendido públicamente su enfoque. Un portavoz de la compañía explicó a los medios que la búsqueda web de GPT-5.2 «tiene como objetivo aprovechar una amplia gama de fuentes y puntos de vista disponibles públicamente» y que se aplican «filtros de seguridad para reducir el riesgo de que surjan vínculos asociados con daños de alta gravedad«.

La empresa subraya además que ChatGPT indica de forma visible las fuentes que influyen en una respuesta mediante citas, y que mantiene en marcha programas específicos para filtrar información de baja credibilidad y detectar campañas de influencia coordinadas, incluidas las relacionadas con contenidos procedentes de Grok y Grokipedia.

No obstante, los expertos en desinformación señalan que la transparencia en las citas es solo una parte del problema. La investigadora Nina Jankowicz, especializada en manipulación informativa, ha advertido de que el simple hecho de que un modelo de prestigio mencione una fuente ya otorga un plus de legitimidad a esa fuente ante el gran público.

Jankowicz y otros especialistas han revisado entradas de Grokipedia y encontraron que muchas se basan en fuentes poco fiables, material conspirativo o interpretaciones distorsionadas de estudios académicos. En su opinión, cuando un chatbot de referencia como ChatGPT incorpora esos textos en sus respuestas, la desinformación deja de ser marginal y se normaliza.

Desde el ámbito académico europeo y español se insiste en que, aunque los filtros de seguridad reduzcan los casos más flagrantes, la combinación de vacíos de datos, automatización masiva y falta de revisión humana crea un entorno muy propicio para que contenidos engañosos se cuelen por las rendijas del sistema.

Impacto para usuarios en España y Europa: confianza, sesgos y dependencia

En los últimos años, herramientas como ChatGPT han pasado de ser una curiosidad tecnológica a convertirse en instrumentos cotidianos en empresas, universidades y administraciones europeas. En España, su uso ya es habitual para redactar informes, preparar clases, resumir legislación o elaborar trabajos académicos, entre muchas otras tareas.

Contenido exclusivo - Clic Aquí  Activision enfrenta críticas por anuncios generados con IA en Guitar Hero Mobile y Call of Duty

Esa normalización tiene una cara B: la dependencia creciente de respuestas «listas para usar». Cuando un estudiante universitario, un periodista local o un pequeño empresario pregunta algo a GPT-5.2, rara vez comprueba después la fuente original. Si ChatGPT Grokipedia ofrece una explicación coherente, el incentivo para contrastar baja drásticamente.

El caso se agrava en ámbitos sensibles como política, salud, historia o derechos humanos. Si en esos terrenos el modelo se apoya en una enciclopedia gestionada por IA con un historial de sesgos, el margen de error ya no es un simple despiste técnico: puede influir en la formación de opinión pública y en decisiones concretas, desde el voto hasta el consumo de determinados medios.

Para la Unión Europea, que lleva años trabajando en marcos regulatorios como la AI Act, este tipo de incidentes refuerza la idea de que los proveedores de modelos de alto impacto tendrán que rendir más cuentas sobre sus fuentes, sus procesos de moderación y sus mecanismos para corregir contenidos dañinos una vez detectados.

En paralelo, en España se abre un debate práctico: cómo deberían empresas, universidades y organismos públicos integrar estas herramientas en su día a día sin delegar por completo el criterio en un sistema opaco. Algunas instituciones ya recomiendan no usar ChatGPT ni otros chatbots como fuente primaria en trabajos académicos o informes oficiales, precisamente por este tipo de riesgos.

El modelo GPT-5.2: avances técnicos con sombras informativas

Openai gpt 5.2

La paradoja del caso ChatGPT Grokipedia es que estalla justo cuando OpenAI presumía de que GPT-5.2 había reducido notablemente las «alucinaciones» y mejorado la precisión en tareas complejas. Presentado a mediados de diciembre, el modelo estaba diseñado para resolver problemas de matemáticas paso a paso, interpretar mejor imágenes, escribir código más estructurado y gestionar contextos de texto mucho más extensos.

Estas capacidades han llevado a muchas empresas europeas a ver GPT-5.2 como una pieza clave para automatizar flujos de trabajo, generar documentación técnica o asistir en la investigación científica. No es casual que parte del posicionamiento comercial del modelo insista en que ofrece respuestas «más confiables» y «con menos errores» que sus predecesores.

Sin embargo, la fiabilidad de un modelo de lenguaje no solo depende de su arquitectura ni de su habilidad para razonar, sino también de qué fuentes usa cuando no sabe algo o cuando necesita complementar su conocimiento interno. Ahí es donde la presencia de Grokipedia introduce una grieta notable en ese relato de precisión reforzada.

En el fondo, GPT-5.2 puede ser técnicamente brillante y, a la vez, reproducir un dato falso si la fuente que ha encontrado es poco rigurosa. La polémica actual ilustra que la discusión sobre la calidad de los modelos de IA tiene que ir más allá de la comparación de parámetros y métricas, y abarcar también el análisis crítico de la capa de información externa con la que se nutren.

Para el ecosistema tecnológico europeo, que promueve una IA «confiable» y respetuosa con valores democráticos, el episodio ChatGPT Grokipedia actúa como recordatorio de que la gobernanza de los datos y la curación de fuentes son tan importantes como los avances algorítmicos.

Artículo relacionado:
Grokipedia: la apuesta de xAI para repensar la enciclopedia online