
Musk versus Wikipedia
Hace ya unos meses, la icónica página blanca del buscador de Google ofrece el ‘Modo IA’. Google por más de 30 años se había posicionado como el intermediario indispensable del conocimiento en línea. Su algoritmo decidía que listas de enlaces de información se mostraban. Sin embargo, la irrupción y popularización de chatbots como ChatGPT cambió todo. En 18 meses pasamos de listas de ‘enlaces azules para leer’ a preferir ‘la respuesta única de una IA’. Este cambio de paradigma advierte del riesgo de un ‘colapso global del conocimiento humano’ potenciado por la IA Generativa. La preocupación surge al considerar que actualmente los grandes modelos de lenguaje (LLM) se están convirtiendo rápidamente en mediadores casi únicos del saber. El estudio más grande hasta la fecha: ‘How People Use ChatGPT’ (septiembre, 2025), publicado por el National Bureau of Economic Research, muestra que millones de usuarios recurren al chatbot para obtener información, orientación práctica o respuestas inmediatas. Este fenómeno podría ser la manifestación digital de un patrón histórico recurrente: cada vez que una institución, poder o tecnología se erige como mediador exclusivo o dominante del ‘conocimiento legítimo’, se produce una drástica simplificación y homogeneización del saber. Esto incluye la reducción de la diversidad de cánones, lenguas, métodos y formatos aceptados. A corto plazo, esta homogenización puede otorgar estabilidad y control; pero a la larga suele desembocar en estancamiento y colapso, al no existir fuentes alternativas de conocimiento.
Monopolios del saber. A lo largo de la historia, abundan ejemplos de actores que centralizaron la producción y mediación del conocimiento. Cuando un imperio, institución religiosa o partido político logra imponer un control casi absoluto sobre qué se considera verdad o saber legítimo, típicamente reduce la pluralidad de voces y enfoques. Esto ha ocurrido con imperios que impusieron una sola lengua o anulaban conocimientos locales, con religiones que declaraban heréticas las ideas ajenas al dogma, o con regímenes totalitarios que censuraban todo pensamiento disidente. En la novela distópica 1984 (1949), George Orwell, inspirado en regímenes totalitarios, mostraba que el ‘Ministerio de la Verdad’ reescribía continuamente la historia; la ‘neolengua’ reducía el vocabulario para hacer imposible pensar conceptos disidentes. Orwell ilustró en su novela un poder que monopolizaba la información imponiendo una ‘visión única de la realidad’, simplificando la cultura y eventualmente conduciendo a un estancamiento intelectual autodestructivo. Un ejemplo concreto ocurrió en la China de Mao. La Revolución Cultural (1966-1976) llevó al extremo la aniquilación de conocimiento tradicional: se cerraron universidades, se destruyeron libros y se humilló a intelectuales, buscando ‘reiniciar’ la cultura bajo un dogma único. El resultado fue una generación perdida en términos educativos y productivos. China pudo recuperarse solo tras restaurar la educación y permitir mayor pluralidad a partir de los años 1980. La historia y la literatura nos enseñan que la concentración excesiva del conocimiento en una sola fuente de autoridad lleva a la uniformidad y al estancamiento, dejando a la sociedad sin ‘alternativas cognitivas’ para adaptarse o resistir crisis. Cuando eventualmente esa estructura dominante falla, y siempre falla, ya sea por conflictos internos, cambios externos o pérdida de legitimidad, se produce un ‘vacío de conocimiento’ hasta que se restaura la pluralidad.
Simplificación del saber. Una constante en estos procesos es la simplificación masiva del conocimiento humano. Al consolidarse un mediador único, se tiende a reducir la complejidad cultural para hacerlo manejable y controlable. Esto puede tomar varias formas interrelacionadas. El poder monopólico suele imponer su idioma o discurso como el único legítimo. Por ejemplo, la colonización española en América desplazó cientos de lenguas indígenas y sus conocimientos; gran parte de ese saber ancestral se perdió irremediablemente. De igual modo, el latín eclesiástico sustituyó a idiomas locales para el conocimiento escrito en la Europa medieval. Hoy, vemos un paralelo en el ámbito digital. Deepak Varuvel Dennison en su artículo “What AI doesn’t know: we could be creating a global ‘knowledge collapse’” (2025) publicado en The Guardian, explica que los sistemas de IA Generativa actuales se entrenan desproporcionadamente con textos en inglés, los que representan casi la mitad del contenido de la web pública. Idiomas con millones de hablantes como el hindi o el tamil apenas constituyen una fracción minúscula de los datos de entrenamiento. Dennison advierte que cada idioma es portador de visiones del mundo, memorias colectivas y saberes locales únicos desarrollados por siglos; si una IA no aprende de esa diversidad lingüística, su comprensión del mundo será parcial y sesgada. La hegemonía de una lengua sea el latín medieval o el inglés digital, simplifica el canon de conocimiento disponible, dejando fuera cosmovisiones enteras. La IA Generativa actual ‘privilegia las formas dominantes de saber, típicamente occidentales e institucionales, mientras marginaliza alternativas, especialmente las enraizadas en tradiciones orales o prácticas corporales’. John Wihbey, en su artículo “AI and Epistemic Risk for Democracy: A Coming Crisis of Public Knowledge?” (2024), plantea que, si las herramientas de IA Generativa se convierten en el medio predominante para buscar, resumir y presentar información, condensando el conocimiento en respuestas breves y simplificadas, podríamos caer en la dependencia de estos resúmenes y ‘dejar de explorar, descubrir y pensar críticamente’. Una ‘dieta informativa’ saludable para la democracia requiere variedad y riqueza. Cuando todo el conocimiento aceptado comparte las mismas premisas y omite las mismas cosas, cualquier fallo o falsedad en esas premisas afecta a todo el sistema.
Monocultura cognitiva. En sistemas abiertos, la coexistencia de múltiples fuentes y tradiciones de conocimiento genera redundancia creativa. Si una explicación o método resulta insuficiente, hay otros enfoques, quizá minoritarios, que pueden ofrecer soluciones o corregir el rumbo. En cambio, bajo un monopolio del saber, la capacidad de adaptación desaparece. Por ejemplo, tras la caída de Roma, Europa tardó siglos en reconstruir su base de conocimiento, en parte porque el saber había estado concentrado en instituciones imperiales y eclesiásticas que ya no podían sostenerlo. En términos contemporáneos, la IA Generativa perpetúa este patrón. Andrew Peterson en su artículo “AI and the Problem of Knowledge Collapse”(2024), acuñó el término ‘colapso del conocimiento’ para describir ‘un estrechamiento gradual de la información a la que los humanos pueden acceder, junto con una disminución de la conciencia sobre puntos de vista alternativos u obscuros’. A medida que los LLM se entrenan con datos de internet que ya han sido producidos por IA, las ideas dominantes se amplifican y las perspectivas minoritarias o locales se vuelven cada vez menos visibles. Ilia Shumailov en su artículo “AI models collapse when trained on recursively generated data” (2024), demostró que entrenar modelos generativos con ‘datos sintéticos’ causa defectos irreversibles y una pérdida progresiva de información sobre la distribución de datos originales. Con cada ciclo de entrenamiento, los modelos tienden a ser promedios o refritos de lo común. El resultado es una erosión progresiva de la diversidad informativa en la esfera pública, un equivalente digital a la pérdida de biodiversidad. Según Shumailov ‘hoy no está claro cómo evitar el colapso del modelo’. En la misma línea, Wihbey advierte que, la mediación algorítmica podría ‘fosilizar’ el discurso público e impedir la evolución orgánica de la comprensión humana. Ted Chiang, en su artículo “ChatGPT Is a Blurry JPEG of the Web” (2023), afirma que al igual que una imagen digital comprimida con pérdida de resolución, los modelos de lenguaje retienen ‘la apariencia’ de la información original, pero pierden detalles y profundidad. El problema es que la ‘borrosidad’ no es evidente a simple vista; los resultados tienen una apariencia de corrección, pero pueden contener distorsiones significativas. Un ecosistema de información dominado por IA sin pluralismo equivale a una monocultura cognitiva global: altamente eficiente en difusión y agilidad, pero extremadamente vulnerable a errores sistémicos, desinformación masiva o manipulación a gran escala.
Grokipedia versus Wikipedia. El 27 de octubre de 2025, la empresa xAI de Elon Musk lanzó Grokipedia, presentándola como una alternativa ‘superior’ y ‘más neutral’ a la Wikipedia fundada en 2001. Este lanzamiento simboliza un choque de visiones sobre cómo se debe producir y custodiar el conocimiento humano. Wikipedia se consagró como la enciclopedia más vasta de la historia al democratizar radicalmente la creación de contenido. Su cofundador, Jimmy Wales, en una entrevista reciente con El País destacó su impresionante escala: cerca de 60 millones de artículos en 344 idiomas, de los cuales unos 7 millones son en inglés. Actualmente Wikipedia genera más de 26.000 millones de páginas vistas mensuales. Su esencia, sin embargo, no reside en su tamaño, sino en su arquitectura de gobernanza. Como señala Ryan McGrady en “With Grokipedia, Top-Down Control of Knowledge Is New Again” (2025), Wikipedia ‘no depende de la aprobación de ninguna autoridad central: no hay emperador, obispo, inversor ni director general que deba aprobar las ideas expresadas’. Este modelo ‘bottom-up’ (de abajo hacia arriba) permite que una comunidad global de aproximadamente 100.000 editores voluntarios aplique políticas rigurosas, como el punto de vista neutral y la verificabilidad, a través del debate. Lejos de ser un defecto, las discusiones acaloradas son un motor de calidad. El estudio ‘The Wisdom of Polarized Crowds’ (Nature, 2019) confirmó que los artículos con más conflictos de edición suelen ser más completos. En Wikipedia, la neutralidad no es un estado perfecto, sino un proceso de negociación continua. En marcado contraste, Grokipedia encarna un modelo ‘top-down’ (de arriba hacia abajo). Actualmente tiene cerca de 1 millón de artículos solo en inglés, que son generados por la IA Grok, con una intervención humana fuertemente centralizada. Musk justificó su creación alegando que Wikipedia padece de una agenda ‘progre’ o ‘woke’, prometiendo una ‘neutralidad auténtica’. No obstante, la evidencia muestra que ‘la directiva principal e ineludible de Grokipedia es que neutral es aquello que Elon Musk diga que es neutral’. Según el artículo del New York Times “How Elon Musk Is Remaking Grok in His Image” (2025), el propio Musk ajustó personalmente el sesgo del sistema en temas sensibles, alineándolo con sus opiniones. Así, mientras en Wikipedia ninguna persona tiene la última palabra, en Grokipedia el dueño del sistema funge como árbitro final de la verdad. Grokipedia, con su tecnología de vanguardia, resucita la misma jerarquía de las enciclopedias antiguas controladas por emperadores, papas o reyes. Hoy la persona más rica del mundo determina el sesgo final de este sistema. Sin embargo, la ironía más profunda de Grokipedia es su dependencia estructural de la misma entidad que busca desplazar. Tras su lanzamiento, se descubrió que aproximadamente el 82 % de sus artículos iniciales eran resúmenes o copias casi literales de Wikipedia, llegando a incluir la nota de licencia Creative Commons. La Fundación Wikimedia ironizó: ‘Hasta Grokipedia necesita que Wikipedia exista’.
Lejos de ser un ‘salto evolutivo’, Grokipedia revela una relación parasitaria con el ecosistema de conocimiento abierto: se nutre del contenido generado por la inteligencia colectiva humana, lo reprocesa mediante un algoritmo y lo presenta bajo un régimen de control centralizado. El estudio “What did Elon change? A comprehensive analysis of Grokipedia” (2025) de la Universidad de Cornell encontró que la plataforma cita fuentes de ‘muy baja credibilidad’, como el sitio neonazi Stormfront o el portal de conspiraciones Infowars, en miles de ocasiones. Además, prioriza fuentes primarias y no filtradas, como publicaciones de la red X/Twitter, creando un circuito de ‘autocita’ donde los tuits de Musk se convierten en material de referencia. Estas prácticas, unidas a la tendencia de los modelos de lenguaje a ‘alucinar’, han hecho que la fiabilidad de Grokipedia sea seriamente cuestionada.
Frente a este desafío, la comunidad de Wikipedia ha reafirmado sus principios. Desarrolló una ‘alergia a la IA’. La Fundación Wikimedia suspendió un experimento con resúmenes generados por IA ante la oposición de los editores, quienes argumentaron que comprometería la integridad humana y verificable del conocimiento. Wikipedia, con todos sus defectos y conflictos, encarna la creencia en que el conocimiento es un bien común que se fortalece con la diversidad y la discusión colectiva. Grokipedia promete que la IA Generativa puede acelerar enormemente la creación y actualización de textos, pero también que, cuando está bajo control central y alineada con las opiniones de su propietario, reproduce sus sesgos.
Conclusiones. La posibilidad de un colapso global del conocimiento humano en la era de la IA Generativa no es mera fantasía apocalíptica, sino un riesgo con paralelos claros en la historia. Cada vez que la humanidad ha confiado su saber a una sola entidad mediadora, sea un imperio, una iglesia, un partido o ahora una tecnología, ha pagado un precio: la pérdida de diversidad cognitiva, seguida por la vulnerabilidad ante el error y el cambio. El patrón se repite porque responde a una tentación constante: simplificar el mundo haciéndolo monolingüe, monotemático, predecible. Pero esa aparente solidez uniforme es en realidad fragilidad. Sin redundancia cognitiva una falla del sistema puede ser catastrófica.
La IA Generativa nos presenta un dilema semejante, amplificado por la escala global y la velocidad. Si permitimos que unas cuantas megacorporaciones tecnológicas y sus algoritmos monopolicen y filtren el flujo del conocimiento humano, corremos el riesgo de entrar en un nuevo oscurantismo digital. Ese canal podrá entregar información rápida y cómoda, pero ser solo un simulacro borroso del saber original. Además, un monopolio algorítmico del conocimiento podría congelar la evolución de ideas, reforzando ideologías e invisibilizando avances contrarios al poder dominante. Una ciudadanía informada requiere exposición a diversidad de fuentes, debate y pensamiento crítico, no respuestas homogéneas predigeridas.
La humanidad ha salido de anteriores ‘colapsos del saber’ restaurando la pluralidad: recuperando textos olvidados, adoptando nuevos idiomas o reviviendo los propios, permitiendo que florezcan múltiples centros de producción de conocimiento. Hoy, eso implica mantener y fortalecer un ecosistema informativo heterogéneo, donde la IA pueda ser una herramienta valiosa, pero no el único árbitro de la verdad. En última instancia, el conocimiento humano es demasiado valioso para dejárselo en las manos exclusivas de un solo mediador, sea este de carne y hueso o de silicio. Nuestra historia humana es un testimonio de la importancia de la diversidad y la redundancia. Múltiples escuelas filosóficas, múltiples comunidades científicas, múltiples culturas dialogando. La era de la IA no tiene por qué ser diferente. Podemos y debemos aprovechar la IA como catalizador de descubrimientos, pero guiada por la sabiduría colectiva de la humanidad. En palabras de Dennison:
Tal vez la inteligencia que más necesitamos sea la capacidad de ver más allá de las jerarquías que determinan qué conocimiento cuenta. Sin esa base, independientemente de los cientos de miles de millones que invirtamos en el desarrollo de la superinteligencia, seguiremos borrando sistemas de conocimiento que tardaron generaciones en desarrollarse.