
La ilusión de pensar
La publicación reciente del artículo de Apple: The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity (4 de junio de 2025), ha generado un amplio debate, críticas y réplicas en la comunidad de inteligencia artificial. El estudio se preguntó directamente si los modelos de lenguaje grandes (LLMs) y los modelos de razonamiento grandes (LRMs), que muestran paso a paso su ‘proceso de pensamiento’, realmente realizan un razonamiento significativo o simplemente lo simulan. Los investigadores identificaron un ‘límite de escalabilidad’, donde el esfuerzo de razonamiento de los modelos aumenta con la complejidad del problema hasta un punto, luego declina, incluso con recursos computacionales suficientes. Además, los modelos fallan en usar algoritmos explícitos y razonan de manera inconsistente en problemas complejos. Estos resultados sugieren que los LLM/LRM en realidad no razonan, sino que siguen patrones aprendidos que colapsan al enfrentar desafíos nuevos. Esto sustenta el título del artículo de Apple: ‘La ilusión de pensar’. A pesar de que los LRMs generan textos que suenan a razonamiento lógico, en muchos casos no es más que una ilusión lingüística. Cornelia Walther en su artículo Intelligence Illusion: What Apple’s AI Study Reveals About Reasoning, publicado en Forbes afirma que estos sistemas no razonan, simplemente generan respuestas estadísticamente probables a partir de conjuntos de datos masivos. Concluye: ‘la elocuencia no es inteligencia, y la imitación no es comprensión’. En sus palabras:
Cuando confundimos fluidez con comprensión, nos arriesgamos a tomar decisiones críticas basadas en procesos de razonamiento fundamentalmente defectuosos. El peligro no es solo tecnológico, sino epistemológico.
Estos hallazgos, confirman lo que investigadores destacados como Yann LeCun, ganador del Premio Turing, profesor de la Universidad de Nueva York y científico jefe de IA en Meta, llevan años argumentando. LeCun, reconocido como uno de los ‘padres de la IA’, es un pionero en el aprendizaje profundo, especialmente en redes neuronales convolucionales logrando hitos relevantes al identificar dígitos escritos a mano. LeCun inicialmente otorgó al lenguaje un papel estructurante. Entrenaba máquinas con grandes conjuntos de ejemplos etiquetados por humanos. Las categorías y descripciones lingüísticas servían de guía para que la máquina ordenase su representación del mundo. Sin embargo, en los últimos años, LeCun ha expresado su escepticismo hacia los modelos de lenguaje grandes (LLM/LRM) como base para lograr una Inteligencia Artificial General. En el artículo AI And The Limits Of Language, que escribió en conjunto con el filósofo Jacob Browning, afirma:
Un sistema de inteligencia artificial entrenado solo con palabras y oraciones jamás se aproximará a la comprensión humana.
LeCun argumenta que los modelos actuales centrados únicamente en lenguaje presentan limitaciones fundamentales. De hecho, ha sido crítico sobre el término ‘Inteligencia Artificial General’, sugiriendo ‘Inteligencia Avanzada de Máquina’. Si bien los grandes modelos tipo GPT han demostrado capacidades sorprendentes para generar texto, LeCun subraya que carecen de entendimiento genuino y sentido común, precisamente porque solo han consumido texto. En la entrevista para Time: Meta’s AI Chief Yann LeCun on AGI, Open-Source, and AI Risk, ilustró el problema con una comparación cuantitativa. Un niño de 4 años, solo con sus experiencias visuales en el mundo real, ha absorbido del orden de 1015 bytes de información, lo que es 50 veces más información que todo el texto con el que se entrena un modelo lingüístico grande. ‘La gran mayoría del conocimiento humano no se expresa en texto’, sino que se adquiere antes del lenguaje y fuera de él, mediante la experiencia física y perceptual del mundo. Eso es lo que llamamos sentido común, y ‘los LLM no lo tienen, porque no tienen acceso a ello’. Para LeCun el lenguaje es una fuente limitada de inteligencia, pues deja fuera todo ese conocimiento tácito que obtenemos interactuando con la realidad. Señala:
El lenguaje no agota el conocimiento; al contrario, es solo un tipo de representación altamente específico y profundamente limitado.
Hay una gran diferencia entre leer la partitura de una pieza musical y escucharla, y otra aún mayor entre escucharla y saber interpretarla. La partitura no transmite la experiencia sonora; y la experiencia sonora no equivale a poder tocarla. De modo análogo, una descripción textual jamás captará completamente la realidad que vivimos ni las destrezas que poseemos. LeCun también ha criticado la idea de que simplemente escalando el tamaño de los LLMs éstos ‘entenderán’ el mundo. El problema no es de tamaño ni potencia de cómputo, sino estructural. La comprensión profunda requiere anclar el lenguaje a la realidad extralingüística. Por ello, LeCun aboga por nuevas arquitecturas que combinen visión, acciones y lenguaje, de modo que la IA disponga de múltiples ‘canales’ de pensamiento. Hasta que eso suceda, los LLMs mostrarán destellos impresionantes, pero tropezarán con tareas que requieren algo más que palabras encadenadas. Gabriel Snyder en el artículo Yann LeCun, Pioneer of AI, Thinks Today’s LLM’s Are Nearly Obsolete, publicado en Newsweek, comenta que la extraña paradoja de los LLMs es que han dominado las habilidades de orden superior del lenguaje sin aprender ninguna de las habilidades humanas fundacionales. Damos demasiada importancia al lenguaje como sustrato de la inteligencia. Cita a LeCun:
Tenemos sistemas lingüísticos que pueden aprobar el examen de abogacía, resolver ecuaciones, calcular integrales, pero ¿Dónde está nuestro robot para el hogar? ¿Dónde hay un robot que sea tan hábil como un gato en el mundo físico? No creemos que las tareas que un gato puede realizar sean inteligentes, pero en realidad sí lo son.
LeCun explica que la evidencia de la biología y la IA demuestra que hay formas de inteligencia no lingüística muy poderosas. Especies como los pulpos o los gatos muestran comportamientos inteligentes sin poseer lenguaje en el sentido humano. Afirma: ‘un perro tiene más sentido común sobre el mundo físico que cualquier sistema de IA actual’. LeCun sintetiza cuatro pilares esenciales del comportamiento inteligente, ya sea en animales o humanos:
- Comprensión del Mundo Físico: Un sistema inteligente puede predecir cómo el mundo físico responde a las acciones, por ejemplo, saber que un objeto cae si se suelta.
- Memoria Persistente: Se trata de la capacidad de almacenar y recordar información a largo plazo, así como los humanos y animales recuerdan hechos o experiencias.
- Capacidad de Razonamiento: Implica usar lógica e inferencia para sacar conclusiones de la información disponible, abarcando razonamientos deductivo, inductivo y abductivo.
· Planificación Jerárquica de Acciones: Es la capacidad de planificar descomponiendo tareas complejas en pasos más simples, facilitando la ejecución de secuencias de acciones efectivas.
El actual enfoque de la IA ha demostrado que fiar la capacidad de razonamiento a secuencias lingüísticas puede ser frágil. Para comprender por qué estos hallazgos son importantes, conviene aclarar: ¿qué entendemos por pensamiento? Aquí es donde las ideas de Ludwig Wittgenstein resultan ilustrativas. Considerado uno de los filósofos más influyentes del siglo XX, Wittgenstein tuvo una evolución notable en sus ideas sobre el lenguaje. En sus inicios, plasmados en el Tractatus Logico-Philosophicus (1921), afirmaba que lenguaje, pensamiento y realidad comparten la misma estructura lógica. Para él, pensar era esencialmente formular proposiciones con sentido lógico: ‘Un pensamiento es una proposición con sentido’. Todas las posibilidades del pensamiento quedaban contenidas en el lenguaje lógico: ‘La totalidad de las proposiciones es el lenguaje’. Esta postura implicaba que el lenguaje delineaba los límites de lo pensable y de lo real: ‘Los límites de mi lenguaje son los límites de mi mundo’. Wittgenstein creía entonces que el lenguaje estructuraba el pensamiento y reflejaba la estructura del mundo. El Wittgenstein temprano asignó al lenguaje un papel estructurante y limitante de la cognición: el pensamiento racional debía ajustarse a lo que puede ser dicho en lenguaje lógico, y el propio mundo se concebía dentro de esos límites lingüísticos. Afirmaba:
De lo que no se puede hablar, hay que callar.
Sin embargo, después de la primera guerra mundial, donó su enorme herencia, se alejó de la filosofía académica y trabajó como profesor rural en Austria y luego como jardinero en un monasterio. Tras esta larga pausa, retomó sus investigaciones en Cambridge en la década de 1930 y, como él mismo admitió, reconoció ‘graves errores’ en las tesis de su primer libro. Este reconocimiento se expresó en su obra Investigaciones Filosóficas (publicado póstumamente en 1953), en que presentó una concepción radicalmente distinta del lenguaje. En esta obra abandonó la idea de que el significado se fundamenta en una correspondencia lógica con la realidad y en su lugar, propuso que ‘el significado de una palabra reside en su uso dentro de un contexto de actividad humana’. Escribió:
El significado de una palabra es su uso en el lenguaje.
Esta frase refleja el giro pragmático y contextual de Wittgenstein. Ya no describía el lenguaje como una estructura rígida de representación lógica universal, sino como una multiplicidad de ‘juegos de lenguaje’ entendidos como diferentes formas de usar palabras en diversas actividades y formas de vida. En una cita célebre de esta obra advirtió: ‘La filosofía es una batalla contra el embrujamiento de nuestra inteligencia por medio del lenguaje’. Wittgenstein transitó de una visión estructural y formal del lenguaje en el pensamiento, a una visión pragmática y contextual, donde el lenguaje es parte de la actividad inteligente pero no su fundamento único. Para el segundo Wittgenstein, las palabras son ‘familias de significados’. Así el hablante y el oyente deben compartir parte de un contexto para poder comunicarse. La obra de Wittgenstein ofrece dos lecciones relevantes:
- Hay un límite inherente en intentar abarcar toda la realidad con palabras: algo siempre se escapa, lo incognoscible, lo místico, o simplemente lo complejo e indescriptible.
- El lenguaje mal entendido puede hacernos creer que pensamos cuando en realidad solo estamos jugando con palabras.
Ambas advertencias se aplican tanto a humanos como a máquinas: un LLM que ‘cree’ resolver un problema con solo texto puede extraviarse, igual que una persona que debate un concepto mal definido. Wittgenstein advirtió a tener cuidado con ‘el embrujo del lenguaje’, a no confundir la estructura lingüística con la estructura del mundo o del razonamiento válido. Nick Enfield, profesor de lingüística en la Universidad de Sydney, en su libro Lenguaje versus realidad (2024) escribe:
La forma en que describimos las cosas afecta cómo las vemos. Pero peor aún, las palabras, al dirigir la atención, pueden actuar como interruptores de la mente, limitando una comprensión más amplia de una situación.
La historia del conocimiento humano es, de hecho, la historia de cómo ampliamos nuestro ‘lenguaje’ mental. Cada nuevo símbolo matemático, cada notación química, cada partitura, cada modelo computacional son extensiones de lenguaje que nos han permitido pensar cosas antes imposibles. La actual revolución de la inteligencia artificial nos enfrenta a la pregunta: ¿Qué significa ‘pensar’ y qué papel tiene el lenguaje allí? Las limitaciones del lenguaje identificadas son advertencias. Señalan dónde innovar. Al reconocer la ilusión del razonamiento lingüístico podemos superarlo, combinando la claridad de las palabras con la riqueza de las demás formas de comprensión. Wittgenstein como LeCun, descubrieron que hay más en el pensamiento inteligente que palabras y estructuras lingüísticas. Este reconocimiento nos lleva a una concepción más amplia y conectada con la realidad. Cuando la tecnología del lenguaje automático avanza a pasos agigantados, estas lecciones nos invitan a no confundir la fluidez de palabras con la profundidad de la comprensión. Los LLMs son máquinas estadísticas, no entidades pensantes. Escribe LeCun:
No debemos confundir la comprensión superficial que poseen los LLM con la comprensión profunda que los humanos adquieren al observar el espectáculo del mundo, explorarlo, experimentar en él e interactuar con la cultura y otras personas. El lenguaje puede ser un componente útil que amplía nuestra comprensión del mundo, pero no agota la inteligencia.
El pensamiento y la inteligencia incluyen al lenguaje, pero también lo trascienden. Integrar esta comprensión ayudará a desarrollar IA más capaces y a la vez a reflexionar con mayor claridad sobre nosotros mismos: animales lingüísticos, sí, pero cuyo entendimiento del mundo se arraiga, en última instancia, en la experiencia y la interacción con la realidad. Las palabras importan, pero no bastan. El comportamiento inteligente requiere aunar la comprensión del mundo físico, tener una memoria persistente, capacidad de razonamiento y planificar acciones jerárquicamente. Un gato tiene estas cuatro capacidades, los LLM no. En palabras de LeCun:
He dicho varias veces que sería feliz si, para cuando me jubile, tengamos sistemas que sean tan inteligentes como un gato. Y la jubilación viene rápido, por cierto, así que no tengo mucho tiempo.