{"id":1354,"date":"2025-06-23T11:17:06","date_gmt":"2025-06-23T14:17:06","guid":{"rendered":"https:\/\/www.imagen.cl\/blog\/?p=1354"},"modified":"2025-06-23T11:17:06","modified_gmt":"2025-06-23T14:17:06","slug":"la-ilusion-de-pensar","status":"publish","type":"post","link":"http:\/\/www.imagen.cl\/blog\/index.php\/2025\/06\/23\/la-ilusion-de-pensar\/","title":{"rendered":"La ilusi\u00f3n de pensar"},"content":{"rendered":"\n<p>La publicaci\u00f3n reciente del art\u00edculo de Apple:&nbsp;<strong>The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity<\/strong>&nbsp;(4 de junio de 2025), ha generado un amplio debate, cr\u00edticas y r\u00e9plicas en la comunidad de inteligencia artificial. El estudio se pregunt\u00f3 directamente si los modelos de lenguaje grandes (LLMs) y los modelos de razonamiento grandes (LRMs), que muestran paso a paso su&nbsp;<strong>\u2018proceso de pensamiento\u2019<\/strong>, realmente&nbsp;<strong>realizan un razonamiento significativo o simplemente lo simulan<\/strong>. Los investigadores identificaron un&nbsp;<strong>\u2018l\u00edmite de escalabilidad\u2019<\/strong>, donde el esfuerzo de razonamiento de los modelos aumenta con la complejidad del problema hasta un punto, luego declina, incluso con recursos computacionales suficientes. Adem\u00e1s,&nbsp;<strong>los modelos fallan en usar algoritmos expl\u00edcitos y razonan de manera inconsistente en problemas complejos.&nbsp;<\/strong>Estos resultados sugieren que los LLM\/LRM en realidad no razonan, sino que siguen patrones aprendidos que colapsan al enfrentar desaf\u00edos nuevos. Esto sustenta el t\u00edtulo del art\u00edculo de Apple:&nbsp;<strong>\u2018La ilusi\u00f3n de pensar\u2019<\/strong>. A pesar de que los LRMs generan textos que&nbsp;<em>suenan<\/em>&nbsp;a razonamiento l\u00f3gico, en muchos casos no es m\u00e1s que una&nbsp;<strong>ilusi\u00f3n ling\u00fc\u00edstica<\/strong>. Cornelia Walther en su art\u00edculo&nbsp;<strong>Intelligence Illusion: What Apple\u2019s AI Study Reveals About Reasoning<\/strong>, publicado en&nbsp;<strong>Forbes<\/strong>&nbsp;afirma que estos sistemas no razonan, simplemente generan respuestas&nbsp;<em>estad\u00edsticamente<\/em>&nbsp;probables a partir de conjuntos de datos masivos. Concluye:&nbsp;<strong>\u2018la elocuencia no es inteligencia, y la imitaci\u00f3n no es comprensi\u00f3n\u2019<\/strong>. En sus palabras:<\/p>\n\n\n\n<p><strong>Cuando confundimos fluidez con comprensi\u00f3n<\/strong>, nos arriesgamos a tomar decisiones cr\u00edticas basadas en procesos de razonamiento fundamentalmente defectuosos.&nbsp;<strong>El peligro no es solo tecnol\u00f3gico, sino epistemol\u00f3gico.<\/strong><\/p>\n\n\n\n<p>Estos hallazgos, confirman lo que investigadores destacados como Yann LeCun, ganador del Premio Turing, profesor de la Universidad de Nueva York y cient\u00edfico jefe de IA en Meta, llevan a\u00f1os argumentando. LeCun, reconocido como uno de los&nbsp;<strong>\u2018padres de la IA\u2019<\/strong>, es un pionero en el&nbsp;<strong>aprendizaje profundo<\/strong>, especialmente en redes neuronales convolucionales logrando hitos relevantes al identificar d\u00edgitos escritos a mano.&nbsp;<strong>LeCun inicialmente otorg\u00f3 al lenguaje un papel estructurante.<\/strong>&nbsp;Entrenaba m\u00e1quinas con grandes conjuntos de ejemplos etiquetados por humanos.&nbsp;<strong>Las categor\u00edas y descripciones ling\u00fc\u00edsticas serv\u00edan de gu\u00eda para que la m\u00e1quina ordenase su representaci\u00f3n del mundo.&nbsp;<\/strong>Sin embargo, en los \u00faltimos a\u00f1os, LeCun ha expresado su escepticismo hacia los modelos de lenguaje grandes (LLM\/LRM) como base para lograr una&nbsp;<strong>Inteligencia Artificial General.<\/strong>&nbsp;En el art\u00edculo&nbsp;<strong>AI And The Limits Of Language<\/strong>, que escribi\u00f3 en conjunto con el fil\u00f3sofo Jacob Browning, afirma:<\/p>\n\n\n\n<p><strong>Un sistema de inteligencia artificial entrenado solo con palabras y oraciones jam\u00e1s&nbsp;<\/strong>se aproximar\u00e1 a la comprensi\u00f3n humana.<\/p>\n\n\n\n<p>LeCun argumenta que los modelos actuales centrados \u00fanicamente en lenguaje presentan&nbsp;<em>limitaciones fundamentales<\/em>. De hecho, ha sido cr\u00edtico sobre el t\u00e9rmino&nbsp;<strong>\u2018Inteligencia Artificial General\u2019<\/strong>, sugiriendo&nbsp;<strong>\u2018Inteligencia Avanzada de M\u00e1quina\u2019<\/strong>. Si bien los grandes modelos tipo GPT han demostrado capacidades sorprendentes para generar texto, LeCun subraya que&nbsp;<strong>carecen de entendimiento genuino y sentido com\u00fan,<\/strong>&nbsp;<strong>precisamente porque solo han consumido texto.<\/strong>&nbsp;En la entrevista para&nbsp;<strong>Time:<\/strong>&nbsp;<strong>Meta\u2019s AI Chief Yann LeCun on AGI, Open-Source, and AI Risk<\/strong>, ilustr\u00f3 el problema con una comparaci\u00f3n cuantitativa. Un ni\u00f1o de 4 a\u00f1os, solo con sus experiencias visuales en el mundo real, ha absorbido del orden de 10<sup>15<\/sup>&nbsp;bytes de informaci\u00f3n, lo que es&nbsp;<strong>50 veces m\u00e1s informaci\u00f3n<\/strong>&nbsp;que todo el texto con el que se entrena un modelo ling\u00fc\u00edstico grande.&nbsp;<strong>\u2018La gran mayor\u00eda del conocimiento humano no se expresa en texto\u2019<\/strong>, sino que se adquiere antes del lenguaje y fuera de \u00e9l, mediante la experiencia f\u00edsica y perceptual del mundo. Eso es lo que llamamos sentido com\u00fan, y&nbsp;<strong>\u2018los LLM no lo tienen, porque no tienen acceso a ello\u2019<\/strong>. Para LeCun el lenguaje es una&nbsp;<em>fuente limitada de inteligencia<\/em>, pues deja fuera todo ese&nbsp;<strong>conocimiento t\u00e1cito&nbsp;<\/strong>que obtenemos interactuando con la realidad. Se\u00f1ala:<\/p>\n\n\n\n<p><strong>El lenguaje no agota el conocimiento<\/strong>; al contrario,&nbsp;<strong>es solo un tipo de representaci\u00f3n<\/strong>&nbsp;altamente espec\u00edfico y&nbsp;<strong>profundamente limitado.<\/strong><\/p>\n\n\n\n<p><strong>Hay una gran diferencia entre leer la partitura de una pieza musical y escucharla, y otra a\u00fan mayor entre escucharla y saber interpretarla.&nbsp;<\/strong>La partitura no transmite la experiencia sonora; y la experiencia sonora no equivale a poder tocarla. De modo an\u00e1logo,&nbsp;<strong>una descripci\u00f3n textual jam\u00e1s captar\u00e1 completamente la realidad que vivimos ni las destrezas que poseemos.<\/strong>&nbsp;LeCun tambi\u00e9n ha criticado la idea de que simplemente escalando el tama\u00f1o de los LLMs \u00e9stos&nbsp;<strong>\u2018entender\u00e1n\u2019<\/strong>&nbsp;el mundo.&nbsp;<strong>El problema no es de tama\u00f1o ni potencia de c\u00f3mputo, sino estructural.<\/strong>&nbsp;La comprensi\u00f3n profunda requiere anclar el lenguaje a la realidad extraling\u00fc\u00edstica. Por ello, LeCun aboga por&nbsp;<strong>nuevas arquitecturas<\/strong>&nbsp;que combinen visi\u00f3n, acciones y lenguaje, de modo que la IA disponga de m\u00faltiples&nbsp;<strong>\u2018canales\u2019<\/strong>&nbsp;de pensamiento. Hasta que eso suceda, los LLMs mostrar\u00e1n destellos impresionantes, pero tropezar\u00e1n con tareas que requieren algo m\u00e1s que palabras encadenadas. Gabriel Snyder en el art\u00edculo&nbsp;<strong>Yann LeCun, Pioneer of AI, Thinks Today&#8217;s LLM&#8217;s Are Nearly Obsolete<\/strong>, publicado en&nbsp;<strong>Newsweek<\/strong>, comenta que la extra\u00f1a paradoja de los LLMs es que&nbsp;<strong>han dominado las habilidades de orden superior del lenguaje sin aprender ninguna de las habilidades humanas fundacionales.<\/strong>&nbsp;Damos demasiada importancia al lenguaje como sustrato de la inteligencia. Cita a LeCun:<\/p>\n\n\n\n<p>Tenemos sistemas ling\u00fc\u00edsticos que pueden aprobar el examen de abogac\u00eda, resolver ecuaciones, calcular integrales, pero&nbsp;<strong>\u00bfD\u00f3nde est\u00e1 nuestro robot para el hogar? \u00bfD\u00f3nde hay un robot que sea tan h\u00e1bil como un gato en el mundo f\u00edsico?<\/strong>&nbsp;No creemos que las tareas que un gato puede realizar sean inteligentes, pero en realidad s\u00ed lo son.<\/p>\n\n\n\n<p>LeCun explica que&nbsp;<strong>la evidencia de la biolog\u00eda y la IA demuestra que hay formas de inteligencia no ling\u00fc\u00edstica muy poderosas.<\/strong>&nbsp;Especies como los pulpos o los gatos muestran&nbsp;<strong>comportamientos inteligentes sin poseer lenguaje<\/strong>&nbsp;en el sentido humano. Afirma:&nbsp;<strong>\u2018un perro tiene m\u00e1s sentido com\u00fan sobre el mundo f\u00edsico que cualquier sistema de IA actual\u2019<\/strong>. LeCun sintetiza&nbsp;<strong>cuatro pilares esenciales del comportamiento inteligente<\/strong>, ya sea en animales o humanos:<\/p>\n\n\n\n<ul>\n<li><strong>Comprensi\u00f3n del Mundo F\u00edsico:<\/strong>&nbsp;Un sistema inteligente puede predecir c\u00f3mo el mundo f\u00edsico responde a las acciones, por ejemplo, saber que un objeto cae si se suelta.<\/li>\n\n\n\n<li><strong>Memoria Persistente:<\/strong>&nbsp;Se trata de la capacidad de almacenar y recordar informaci\u00f3n a largo plazo, as\u00ed como los humanos y animales recuerdan hechos o experiencias.<\/li>\n\n\n\n<li><strong>Capacidad de Razonamiento:<\/strong>&nbsp;Implica usar l\u00f3gica e inferencia para sacar conclusiones de la informaci\u00f3n disponible, abarcando razonamientos deductivo, inductivo y abductivo.<\/li>\n<\/ul>\n\n\n\n<p>\u00b7&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<strong>Planificaci\u00f3n Jer\u00e1rquica de Acciones:<\/strong>&nbsp;Es la capacidad de planificar descomponiendo tareas complejas en pasos m\u00e1s simples, facilitando la ejecuci\u00f3n de secuencias de acciones efectivas.<\/p>\n\n\n\n<p><strong>El actual enfoque de la IA ha demostrado que fiar la capacidad de razonamiento a secuencias ling\u00fc\u00edsticas puede ser fr\u00e1gil.<\/strong>&nbsp;Para comprender por qu\u00e9 estos hallazgos son importantes, conviene aclarar:&nbsp;<strong>\u00bfqu\u00e9 entendemos por&nbsp;<em>pensamiento<\/em>?<\/strong>&nbsp;Aqu\u00ed es donde las ideas de Ludwig Wittgenstein resultan ilustrativas. Considerado uno de los fil\u00f3sofos m\u00e1s influyentes del siglo XX, Wittgenstein tuvo una evoluci\u00f3n notable en sus ideas sobre el lenguaje. En sus inicios, plasmados en el&nbsp;<strong><em>Tractatus Logico-Philosophicus<\/em><\/strong>&nbsp;(1921), afirmaba que lenguaje, pensamiento y realidad comparten la misma estructura l\u00f3gica. Para \u00e9l, pensar era esencialmente formular proposiciones con sentido l\u00f3gico:&nbsp;<strong>\u2018Un pensamiento es una proposici\u00f3n con sentido\u2019<\/strong>. Todas las posibilidades del pensamiento quedaban contenidas en el lenguaje l\u00f3gico:&nbsp;<strong>\u2018La totalidad de las proposiciones es el lenguaje\u2019<\/strong>. Esta postura implicaba que el lenguaje delineaba los l\u00edmites de lo pensable y de lo real:&nbsp;<strong>\u2018Los l\u00edmites de mi lenguaje son los l\u00edmites de mi mundo\u2019<\/strong>. Wittgenstein cre\u00eda entonces que&nbsp;<strong>el lenguaje estructuraba el pensamiento y reflejaba la estructura del mundo.<\/strong>&nbsp;El Wittgenstein temprano asign\u00f3 al lenguaje un papel estructurante y limitante de la cognici\u00f3n: el pensamiento racional deb\u00eda ajustarse a lo que puede ser dicho en lenguaje l\u00f3gico, y&nbsp;<strong>el propio mundo se conceb\u00eda dentro de esos l\u00edmites ling\u00fc\u00edsticos.<\/strong>&nbsp;Afirmaba:<\/p>\n\n\n\n<p><strong>De lo que no se puede hablar, hay que callar.<\/strong><\/p>\n\n\n\n<p>Sin embargo, despu\u00e9s de la primera guerra mundial, don\u00f3 su enorme herencia, se alej\u00f3 de la filosof\u00eda acad\u00e9mica y trabaj\u00f3 como profesor rural en Austria y luego como jardinero en un monasterio. Tras esta larga pausa, retom\u00f3 sus investigaciones en Cambridge en la d\u00e9cada de 1930 y, como \u00e9l mismo admiti\u00f3, reconoci\u00f3&nbsp;<strong>\u2018graves errores\u2019<\/strong>&nbsp;en las tesis de su primer libro. Este reconocimiento se expres\u00f3 en su obra&nbsp;<strong><em>Investigaciones Filos\u00f3ficas<\/em><\/strong>&nbsp;(publicado p\u00f3stumamente en 1953), en que present\u00f3 una concepci\u00f3n radicalmente distinta del lenguaje. En esta obra abandon\u00f3 la idea de que el significado se fundamenta en una correspondencia l\u00f3gica con la realidad y en su lugar, propuso que&nbsp;<strong>\u2018el significado de una palabra reside en su uso dentro de un contexto de actividad humana\u2019<\/strong>. Escribi\u00f3:<\/p>\n\n\n\n<p><strong>El significado de una palabra es su uso en el lenguaje.<\/strong><\/p>\n\n\n\n<p>Esta frase refleja el&nbsp;<strong>giro pragm\u00e1tico y contextual<\/strong>&nbsp;de Wittgenstein. Ya no describ\u00eda el lenguaje como una estructura r\u00edgida de representaci\u00f3n l\u00f3gica universal, sino como una multiplicidad de&nbsp;<strong>\u2018juegos de lenguaje\u2019<\/strong>&nbsp;entendidos como diferentes formas de usar palabras en diversas actividades y formas de vida. En una cita c\u00e9lebre de esta obra advirti\u00f3:&nbsp;<strong>\u2018La filosof\u00eda es una batalla contra el embrujamiento de nuestra inteligencia por medio del lenguaje\u2019<\/strong>. Wittgenstein transit\u00f3 de una visi\u00f3n estructural y formal del lenguaje en el pensamiento, a una visi\u00f3n pragm\u00e1tica y contextual, donde&nbsp;<strong>el lenguaje es parte de la actividad inteligente pero no su fundamento \u00fanico.<\/strong>&nbsp;Para el segundo Wittgenstein, las palabras son&nbsp;<strong>\u2018familias de significados\u2019<\/strong>. As\u00ed el hablante y el oyente deben compartir parte de un contexto para poder comunicarse. La obra de Wittgenstein ofrece dos lecciones relevantes:<\/p>\n\n\n\n<ul>\n<li><strong>Hay un l\u00edmite inherente en intentar abarcar toda la realidad con palabras<\/strong>: algo siempre se escapa, lo incognoscible, lo m\u00edstico, o simplemente lo complejo e indescriptible.<\/li>\n\n\n\n<li><strong>El lenguaje mal entendido puede hacernos creer que pensamos cuando en realidad solo estamos jugando con palabras.<\/strong><\/li>\n<\/ul>\n\n\n\n<p>Ambas advertencias se aplican tanto a humanos como a m\u00e1quinas: un LLM que&nbsp;<strong>\u2018cree\u2019<\/strong>&nbsp;resolver un problema con solo texto puede extraviarse, igual que una persona que debate un concepto mal definido. Wittgenstein advirti\u00f3 a tener cuidado con&nbsp;<strong>\u2018el embrujo del lenguaje\u2019<\/strong>, a no confundir la estructura ling\u00fc\u00edstica con la estructura del mundo o del razonamiento v\u00e1lido. Nick Enfield, profesor de ling\u00fc\u00edstica en la Universidad de Sydney, en su libro&nbsp;<strong><em>Lenguaje versus realidad<\/em><\/strong>&nbsp;(2024) escribe:<\/p>\n\n\n\n<p><strong>La forma en que describimos las cosas afecta c\u00f3mo las vemos.<\/strong>&nbsp;Pero peor a\u00fan,&nbsp;<strong>las palabras, al dirigir la atenci\u00f3n<\/strong>, pueden actuar como interruptores de la mente,&nbsp;<strong>limitando una comprensi\u00f3n m\u00e1s amplia de una situaci\u00f3n.<\/strong><\/p>\n\n\n\n<p>La historia del conocimiento humano es, de hecho, la historia de c\u00f3mo ampliamos nuestro&nbsp;<strong>\u2018lenguaje\u2019<\/strong>&nbsp;mental. Cada nuevo s\u00edmbolo matem\u00e1tico, cada notaci\u00f3n qu\u00edmica, cada partitura, cada modelo computacional son extensiones de lenguaje que nos han permitido pensar cosas antes imposibles. La actual revoluci\u00f3n de la inteligencia artificial nos enfrenta a la pregunta:&nbsp;<strong>\u00bfQu\u00e9 significa \u2018pensar\u2019 y qu\u00e9 papel tiene el lenguaje all\u00ed?<\/strong>&nbsp;Las limitaciones del lenguaje identificadas son advertencias. Se\u00f1alan d\u00f3nde innovar. Al reconocer la ilusi\u00f3n del razonamiento ling\u00fc\u00edstico podemos superarlo,&nbsp;<strong>combinando la claridad de las palabras con la riqueza de las dem\u00e1s formas de comprensi\u00f3n<\/strong>. Wittgenstein como LeCun, descubrieron que&nbsp;<strong>hay m\u00e1s en el pensamiento inteligente que palabras y estructuras ling\u00fc\u00edsticas.<\/strong>&nbsp;Este reconocimiento nos lleva a una concepci\u00f3n m\u00e1s amplia y conectada con la realidad. Cuando la tecnolog\u00eda del lenguaje autom\u00e1tico avanza a pasos agigantados, estas lecciones nos invitan a&nbsp;<strong>no confundir la fluidez de palabras con la profundidad de la comprensi\u00f3n.<\/strong>&nbsp;Los LLMs son m\u00e1quinas estad\u00edsticas, no entidades pensantes. Escribe LeCun:<\/p>\n\n\n\n<p><strong>No debemos confundir la comprensi\u00f3n superficial que poseen los LLM con la comprensi\u00f3n profunda que los humanos adquieren al observar el espect\u00e1culo del mundo<\/strong>, explorarlo, experimentar en \u00e9l e interactuar con la cultura y otras personas.&nbsp;<strong>El lenguaje puede ser un componente \u00fatil que ampl\u00eda nuestra comprensi\u00f3n del mundo, pero no agota la inteligencia.<\/strong><\/p>\n\n\n\n<p><strong>El pensamiento y la inteligencia incluyen al lenguaje, pero tambi\u00e9n lo trascienden.<\/strong>&nbsp;Integrar esta comprensi\u00f3n ayudar\u00e1 a desarrollar IA m\u00e1s capaces y a la vez a reflexionar con mayor claridad sobre nosotros mismos: animales ling\u00fc\u00edsticos, s\u00ed, pero cuyo entendimiento del mundo se arraiga, en \u00faltima instancia, en la experiencia y la interacci\u00f3n con la realidad.&nbsp;<strong>Las palabras importan, pero no bastan.<\/strong>&nbsp;El comportamiento inteligente requiere aunar&nbsp;<strong>la comprensi\u00f3n del mundo f\u00edsico, tener una memoria persistente, capacidad de razonamiento y planificar acciones jer\u00e1rquicamente.<\/strong>&nbsp;Un gato tiene estas cuatro capacidades, los LLM no. En palabras de LeCun:<\/p>\n\n\n\n<p><strong>He dicho varias veces que ser\u00eda feliz si, para cuando me jubile, tengamos sistemas que sean tan inteligentes como un gato.<\/strong>&nbsp;Y la jubilaci\u00f3n viene r\u00e1pido, por cierto, as\u00ed que no tengo mucho tiempo.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La publicaci\u00f3n reciente del art\u00edculo de Apple:&nbsp;The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity&nbsp;(4 de junio de 2025), ha generado un amplio debate, cr\u00edticas y r\u00e9plicas en la comunidad de inteligencia artificial. El estudio se pregunt\u00f3 directamente si los modelos de lenguaje grandes (LLMs) y los modelos de razonamiento grandes [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":1355,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[329,158,109,127,28,409,332,52,160,58,138,155,156,45,31,19,84,492,85,76,59,483,51],"tags":[],"_links":{"self":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts\/1354"}],"collection":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/comments?post=1354"}],"version-history":[{"count":1,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts\/1354\/revisions"}],"predecessor-version":[{"id":1356,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts\/1354\/revisions\/1356"}],"wp:featuredmedia":[{"embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/media\/1355"}],"wp:attachment":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/media?parent=1354"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/categories?post=1354"},{"taxonomy":"post_tag","embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/tags?post=1354"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}