{"id":1566,"date":"2026-05-04T17:33:35","date_gmt":"2026-05-04T20:33:35","guid":{"rendered":"https:\/\/www.imagen.cl\/blog\/?p=1566"},"modified":"2026-05-04T17:33:35","modified_gmt":"2026-05-04T20:33:35","slug":"no-es-computo-es-filosofia","status":"publish","type":"post","link":"http:\/\/www.imagen.cl\/blog\/index.php\/2026\/05\/04\/no-es-computo-es-filosofia\/","title":{"rendered":"No es c\u00f3mputo, es filosof\u00eda"},"content":{"rendered":"\n<p>En septiembre de 2025, en Berl\u00edn, Sam Altman de OpenAI y el f\u00edsico de Oxford David Deutsch conocido como el padre de la&nbsp;<strong>computaci\u00f3n cu\u00e1ntica<\/strong>, sostuvieron una conversaci\u00f3n sobre&nbsp;<strong>Inteligencia Artificial General (IAG).<\/strong>&nbsp;Deutsch coment\u00f3 que en su momento pens\u00f3 que ninguna computadora podr\u00eda mantener una conversaci\u00f3n fluida sin ser una IA general.&nbsp;<strong>&#8220;ChatGPT me demostr\u00f3 que estaba equivocado. No es una IAG y puede conversar&#8221;.&nbsp;<\/strong>Deutsch estableci\u00f3 una&nbsp;<strong>clara distinci\u00f3n entre el \u201cloro estoc\u00e1stico\u201d y la inteligencia real<\/strong>. Para ilustrar la diferencia, us\u00f3 la figura de Einstein. No se necesita ser Einstein para ser inteligente, pero s\u00ed se necesita el mismo tipo de proceso.&nbsp;<strong>\u201cSabemos que Einstein cre\u00f3 la relatividad porque conocemos su historia, qu\u00e9 problemas estaba abordando y por qu\u00e9\u201d<\/strong>. No se trat\u00f3 simplemente de combinar ideas existentes, sino de&nbsp;<strong>generar una conjetura<\/strong>&nbsp;radicalmente nueva:&nbsp;<strong>la curvatura del espacio-tiempo, que no estaba latente en los datos disponibles.<\/strong>&nbsp;Einstein&nbsp;<strong>no interpol\u00f3<\/strong>&nbsp;entre la f\u00edsica de Newton y los resultados experimentales;&nbsp;<strong>cre\u00f3<\/strong>&nbsp;un marco explicativo que redefini\u00f3 los t\u00e9rminos mismos del problema. Deutsch propuso as\u00ed un nuevo criterio para la IAG: una inteligencia artificial merecer\u00e1 el calificativo de&nbsp;<strong>\u201cgeneral\u201d<\/strong>&nbsp;cuando resuelva un problema con verdadera&nbsp;<strong>perspicacia explicativa<\/strong>. No basta con responder correctamente; debe poder&nbsp;<strong>\u201ccontar la historia de sus elecciones e intuiciones\u201d<\/strong>, narrando por qu\u00e9 eligi\u00f3 ese camino y no otro. Altman entonces plante\u00f3 una hip\u00f3tesis: si un modelo futuro como ChatGPT-8&nbsp;<strong>&#8220;descubriera la gravedad cu\u00e1ntica y pudiera contar su historia, \u00bfser\u00eda eso suficiente para convencerlos?&#8221;<\/strong>.&nbsp;<strong>&#8220;Creo que s\u00ed&#8221;<\/strong>, respondi\u00f3 Deutsch. Fue una declaraci\u00f3n de principios epistemol\u00f3gicos:&nbsp;<strong>la inteligencia no consiste en producir respuestas correctas, sino en &#8220;ver un problema, inventar una soluci\u00f3n y probarla cr\u00edticamente&#8221; creando conocimiento explicativo nuevo.<\/strong>&nbsp;Es decir, teor\u00edas sobre el mundo que no est\u00e1n contenidas en los datos de entrenamiento. Deutsch y Altman, definieron una<strong>&nbsp;\u201cprueba\u201d para la IAG.<\/strong><\/p>\n\n\n\n<p>En febrero de 2026, cuatro acad\u00e9micos de la Universidad de California: el fil\u00f3sofo Eddy Chen, el inform\u00e1tico Mikhail Belkin, el ling\u00fcista Leon Bergen y el fil\u00f3sofo David Danks, publicaron en&nbsp;<strong><em>Nature<\/em><\/strong>&nbsp;una de las defensas m\u00e1s rigurosas que ha recibido la tesis de que&nbsp;<strong>los grandes modelos de lenguaje (LLM) actuales constituyen ya una forma de IAG<\/strong>.<\/p>\n\n\n\n<p>Sin embargo, pocas semanas antes, Yann LeCun, uno de los&nbsp;<strong>\u2018padres de la IA\u2019<\/strong>, hab\u00eda llamado a esa misma idea&nbsp;<strong>\u201c<em>complete bullshit<\/em>\u201d<\/strong>. Y en febrero de 2025, en la&nbsp;<strong>\u00c9cole Polytechnique<\/strong>, Michael Jordan, profesor de la Universidad de California, considerado durante a\u00f1os el cient\u00edfico computacional m\u00e1s influyente del mundo afirm\u00f3:&nbsp;<strong>\u201cEsta cosa de la super-IAG que puede responder cualquier pregunta, que lo sabe todo\u2026 es un disparate\u201d.<\/strong><\/p>\n\n\n\n<p><strong>La disputa ya no es t\u00e9cnica: es epistemol\u00f3gica, pol\u00edtica y econ\u00f3mica,<\/strong>&nbsp;sostenida por figuras de&nbsp;<strong>empresas y laboratorios<\/strong>&nbsp;que manejan presupuestos millonarios. Est\u00e1 en juego&nbsp;<strong>qui\u00e9n tiene la autoridad para definir qu\u00e9 cuenta como inteligencia, cu\u00e1ndo se ha alcanzado y si debemos perseguir su llegada o prepararnos para sus consecuencias.&nbsp;<\/strong>Un paisaje de contradicciones que exige repensar el problema desde sus cimientos.<\/p>\n\n\n\n<p><strong>\u00bfLa IAG ya est\u00e1 aqu\u00ed?&nbsp;<\/strong>El comentario de&nbsp;<strong><em>Nature<\/em><\/strong>&nbsp;no es ingenuo. Sus autores sostienen que&nbsp;<strong>la generalidad humana, no es la omnisciencia; ning\u00fan individuo es Einstein, Bach y Cervantes a la vez<\/strong>. Si lo que pedimos a la IAG es una capacidad razonable de operar en m\u00faltiples dominios con cierta profundidad,&nbsp;<strong>entonces los LLM ya satisfacen el criterio.&nbsp;<\/strong>Que&nbsp;<strong>\u201calucinan\u201d<\/strong>; los humanos tambi\u00e9n incurren en falsas memorias y sesgos sin que por ello se les niegue inteligencia. Que&nbsp;<strong>\u201ccarecen de cuerpo\u201d<\/strong>; Stephen Hawking interactu\u00f3 con el mundo por texto y voz sint\u00e9tica y nadie le neg\u00f3 por eso inteligencia general. La evidencia operacional es contundente: en marzo de 2025, los cient\u00edficos cognitivos Cameron Jones y Benjamin Bergen, del Laboratorio de Lenguaje y Cognici\u00f3n de la Universidad de California, publicaron un estudio en el que GPT-4.5 cuando se le instruy\u00f3 comportarse como una&nbsp;<strong>\u201cpersona\u201d<\/strong>, fue identificado como humano en el 73\u202f% de los casos, una tasa significativamente superior a la de los participantes humanos reales, que solo convencieron a los jueces en el 63\u202f% de las ocasiones. Sin ese&nbsp;<strong><em>prompt<\/em><\/strong>&nbsp;de&nbsp;<strong>\u201cpersona\u201d<\/strong>, el mismo modelo apenas alcanz\u00f3 un 36\u202f% de acierto. Este experimento constituye la primera evidencia emp\u00edrica de que un sistema artificial es capaz de&nbsp;<strong>superar un test de Turing est\u00e1ndar.<\/strong>&nbsp;Pero esta tesis elude el problema central:&nbsp;<strong>\u00bfpueden los LLM mantener un razonamiento coherente en el tiempo?<\/strong>&nbsp;La distinci\u00f3n fundamental no es entre acertar o equivocarse en una pregunta, sino entre&nbsp;<strong>simular comprensi\u00f3n<\/strong>&nbsp;y&nbsp;<strong>generar comprensi\u00f3n nueva<\/strong>.<\/p>\n\n\n\n<p><strong>La trampa del escalado.&nbsp;<\/strong>Tras el lanzamiento de GPT-5, Gary Marcus, profesor en la Universidad de Nueva York declar\u00f3 en X:&nbsp;<strong>\u201cMi trabajo aqu\u00ed est\u00e1 realmente terminado. Nadie con integridad intelectual puede seguir creyendo que el mero escalado nos llevar\u00e1 a la IAG\u201d<\/strong>. El equipo de&nbsp;<strong>Procesamiento de Lenguaje Natural<\/strong>&nbsp;de Stanford lleg\u00f3 a la misma conclusi\u00f3n:&nbsp;<strong>\u201cla estrategia de 2023 de OpenAI, Anthropic, etc. [\u2026] ya no funciona\u201d<\/strong>. Investigaciones publicadas a finales de 2025 identificaron cinco limitaciones estructurales:&nbsp;<strong>alucinaciones, compresi\u00f3n de contexto, degradaci\u00f3n del razonamiento, fragilidad en la recuperaci\u00f3n de informaci\u00f3n y desalineaci\u00f3n multimodal<\/strong>, que no se resuelven a\u00f1adiendo m\u00e1s par\u00e1metros. Jordan, en la conferencia&nbsp;<strong><em>AI, Science and Society<\/em>&nbsp;de Hi! PARIS<\/strong>, declar\u00f3:<\/p>\n\n\n\n<p><strong>Lo que Sam Altman o Elon Musk tienen en mente es tomar, gratis, todo el conocimiento producido por la humanidad<\/strong>&nbsp;para crear esta cosa de la super-IAG, gastando miles de millones y billones de d\u00f3lares en el proceso, y salvar a la humanidad. Esto es un disparate.<\/p>\n\n\n\n<p>Para Jordan, los LLM son&nbsp;<strong>\u201cmuchos peque\u00f1os expertos\u201d<\/strong>&nbsp;capaces de responder preguntas espec\u00edficas, pero no&nbsp;<strong>\u201centidades inteligentes\u201d.<\/strong>&nbsp;El problema, sostiene, no es de escala sino de naturaleza:&nbsp;<strong>\u201cno pueden saberlo todo, porque lo que est\u00e1 en mi mente ahora es el contexto de lo que voy a hacer hoy. Eso no lo pueden saber\u201d<\/strong>.<\/p>\n\n\n\n<p>Yann LeCun, qui\u00e9n dej\u00f3 su cargo como cient\u00edfico jefe de IA en Meta para fundar&nbsp;<strong>AMI (Advanced Machine Intelligence Labs)<\/strong>&nbsp;radicaliz\u00f3 la cr\u00edtica. En diciembre de 2025 se\u00f1al\u00f3:&nbsp;<strong>\u201cEl camino a la superinteligencia: simplemente entrenar m\u00e1s LLM, entrenar con m\u00e1s datos sint\u00e9ticos, contratar a miles de personas para ense\u00f1ar al sistema en post-entrenamiento, inventar nuevos ajustes de aprendizaje por refuerzo, creo que es una completa basura. Sencillamente nunca va a funcionar\u201d.<\/strong>&nbsp;Y a\u00f1adi\u00f3:&nbsp;<strong>\u201cTienes a toda esa gente parloteando sobre la IAG \u2026 Es completamente delirante\u201d.<\/strong>&nbsp;LeCun abandon\u00f3 Meta tras desacuerdos estrat\u00e9gicos sobre la direcci\u00f3n de la IA apostando por&nbsp;<strong><em>modelos de mundo<\/em><\/strong>en lugar de generar tokens. Su nuevo emprendimiento, que en marzo de 2026 cerr\u00f3 una ronda de financiaci\u00f3n de 1.030 millones de d\u00f3lares, desarrolla la arquitectura&nbsp;<strong>JEPA (<em>Joint Embedding Predictive Architecture<\/em>)<\/strong>, dise\u00f1ada para aprender representaciones abstractas del mundo f\u00edsico a partir de datos sensoriales, no de texto.<\/p>\n\n\n\n<p><strong>Apuestas multimillonarias.&nbsp;<\/strong>El 20 de enero de 2026, en una sesi\u00f3n denominada&nbsp;<strong><em>El d\u00eda despu\u00e9s de la IAG<\/em><\/strong>, Demis Hassabis CEO de&nbsp;<strong>Google DeepMind<\/strong>&nbsp;y Dario Amodei cofundador de&nbsp;<strong>Anthropic<\/strong>&nbsp;coincidieron en el escenario del Foro de Davos. Amodei fue el m\u00e1s radical de los optimistas. Predijo que la IA reemplazar\u00eda el trabajo de todos los desarrolladores de software&nbsp;<strong>\u201cen uno o dos a\u00f1os\u201d<\/strong>&nbsp;y alcanzar\u00eda&nbsp;<strong>\u201cnivel-Nobel\u201d<\/strong>&nbsp;en investigaci\u00f3n cient\u00edfica multidisciplinaria en 2026-2027. Su argumento:&nbsp;<strong>\u201cTengo ingenieros en Anthropic que dicen que ya no escriben c\u00f3digo. Dejan que el modelo lo escriba, lo editan, hacen cosas alrededor\u201d<\/strong>. La IA escribe IA. Si el ciclo se cierra, dice Amodei, llegar\u00e1 una&nbsp;<strong>\u201cexplosi\u00f3n milagrosa y extremadamente r\u00e1pida\u201d<\/strong>. Fortune corrobor\u00f3 que ingenieros de Anthropic y OpenAI afirman que la IA ya escribe el 100\u202f% de su c\u00f3digo.<\/p>\n\n\n\n<p>Por su parte, Hassabis, ganador del Nobel de Qu\u00edmica 2024, afirm\u00f3 que, aunque los sistemas actuales no est\u00e1n&nbsp;<strong><em>\u201cni cerca\u201d<\/em><\/strong>&nbsp;de la inteligencia humana, existe una probabilidad del 50 % de alcanzar la IAG en esta d\u00e9cada.&nbsp;<strong>\u201cQuiz\u00e1s necesitemos uno o dos avances m\u00e1s antes de llegar a la IAG\u201d<\/strong>, como la capacidad de aprender con pocos ejemplos, el aprendizaje continuo, la memoria a largo plazo y la planificaci\u00f3n.<\/p>\n\n\n\n<p>LeCun, ausente del escenario, pero omnipresente en el debate, recibi\u00f3 una respuesta directa de Hassabis en X tras llamar&nbsp;<strong>\u201csinsentido\u201d<\/strong>&nbsp;a la noci\u00f3n misma de inteligencia general:&nbsp;<strong>LeCun<\/strong>&nbsp;<strong>\u201cest\u00e1 confundiendo inteligencia general con inteligencia universal [\u2026] Los cerebros son los fen\u00f3menos m\u00e1s exquisitos y complejos que conocemos en el universo, y son de hecho extremadamente generales\u201d<\/strong>. Elon Musk respondi\u00f3 simplemente:&nbsp;<strong>\u201cDemis tiene raz\u00f3n\u201d<\/strong>.<\/p>\n\n\n\n<p>Anthropic apuesta por escalar y cerrar el ciclo de&nbsp;<strong>\u201cauto-codificaci\u00f3n\u201d<\/strong>; DeepMind apuesta por escalar y alg\u00fan descubrimiento adicional; LeCun apuesta por reemplazar el paradigma. Tres compa\u00f1\u00edas con miles de millones invertidos, tres tesis incompatibles, un solo futuro.<\/p>\n\n\n\n<p><strong>La frontera t\u00e1cita.&nbsp;<\/strong>El argumento de Jordan:&nbsp;<strong>\u201cno pueden saber lo que est\u00e1 en mi mente ahora\u201d<\/strong>, es una idea formulada en&nbsp;<strong><em>The Tacit Dimension<\/em><\/strong>&nbsp;(1966), por el qu\u00edmico-fil\u00f3sofo Michael Polanyi:&nbsp;<strong>\u201c<em>sabemos m\u00e1s de lo que podemos decir<\/em>\u201d<\/strong>. La paradoja de Polanyi distingue entre&nbsp;<strong>conocimiento expl\u00edcito<\/strong>&nbsp;(codificable en normas, manuales, c\u00f3digo) y&nbsp;<strong>conocimiento t\u00e1cito<\/strong>&nbsp;(encarnado, experiencial, contextual, no articulable). Un pianista virtuoso no puede transmitir verbalmente lo que sus dedos saben; un m\u00e9dico experimentado&nbsp;<strong>\u201chuele\u201d<\/strong>&nbsp;un diagn\u00f3stico antes de poder justificarlo.<\/p>\n\n\n\n<p>Durante d\u00e9cadas, esta paradoja explic\u00f3 por qu\u00e9 la IA simb\u00f3lica, la de los sistemas expertos, fracasaba en tareas que cualquier ni\u00f1o dominaba: reconocer una cara o andar en bicicleta. El aprendizaje profundo invirti\u00f3 la situaci\u00f3n:&nbsp;<strong>las redes neuronales aprenden t\u00e1citamente de datos sin que nadie articule las reglas.<\/strong>&nbsp;Subbarao Kambhampati en&nbsp;<strong><em>Explainable Human-AI Interaction<\/em><\/strong>&nbsp;(2022) lo llam\u00f3&nbsp;<strong>\u201cla venganza de Polanyi\u201d:<\/strong>&nbsp;<strong>la IA pas\u00f3 de ejecutar conocimiento expl\u00edcito a&nbsp;<em>aprender<\/em>&nbsp;conocimiento t\u00e1cito.<\/strong><\/p>\n\n\n\n<p>Sin embargo, hay una diferencia sustancial. El conocimiento t\u00e1cito humano es&nbsp;<strong>encarnado, social y temporal<\/strong>: surge de un cuerpo que envejece, de relaciones afectivas, de una historia personal irrepetible y de la urgencia de la mortalidad. Los LLM aprenden patrones t\u00e1citos de textos, que es conocimiento humano expl\u00edcito, pero no tienen acceso al sustrato del que ese texto emerge. Como argumenta Jordan:&nbsp;<strong>\u201cvivimos en un mundo de incertidumbre, y eso es lo que nos hace humanos\u201d<\/strong>.<\/p>\n\n\n\n<p>De hecho, estudios recientes estiman que s\u00f3lo el 20-30 % del conocimiento de una organizaci\u00f3n est\u00e1 documentado; el 70-80 % restante es t\u00e1cito, encarnado en las personas. Si Amodei tiene raz\u00f3n en que sus ingenieros&nbsp;<strong>\u201cya no escriben c\u00f3digo\u201d<\/strong>, la pregunta de Polanyi ser\u00eda:&nbsp;<strong>\u00bfqu\u00e9 saben esos ingenieros que el modelo necesita para no producir basura?<\/strong>&nbsp;La respuesta sigue siendo:&nbsp;<strong>el contexto, el gusto, la intuici\u00f3n de qu\u00e9 pregunta hacer.<\/strong>&nbsp;El ciclo de auto-codificaci\u00f3n que Amodei imagina depende, parad\u00f3jicamente, de un ciclo externo de juicio humano t\u00e1cito.<\/p>\n\n\n\n<p>Los modelos actuales pueden aprobar ex\u00e1menes de medicina, pero no saben qu\u00e9 se siente al comunicar un diagn\u00f3stico devastador. Pueden escribir poes\u00eda, pero nunca han experimentado la nostalgia. Aunque dot\u00e1ramos a los sistemas de IA de cuerpos rob\u00f3ticos y sensores, la pregunta persiste:&nbsp;<strong>\u00bfpuede la experiencia fenomenol\u00f3gica, el \u201c<em>qualia\u201d,&nbsp;<\/em>ser reducido a computaci\u00f3n?<\/strong>&nbsp;Mientras esta pregunta permanezca abierta, la brecha entre conocimiento expl\u00edcito y t\u00e1cito seguir\u00e1 siendo uno de los l\u00edmites m\u00e1s dif\u00edciles de franquear en el camino hacia una IAG.<\/p>\n\n\n\n<p><strong>La creatividad como umbral.&nbsp;<\/strong>Deutsch ofrece la cr\u00edtica m\u00e1s profunda y, a la vez, la m\u00e1s optimista. En su ensayo&nbsp;<strong>Creative Blocks<\/strong>&nbsp;(2012), propuso tres tesis radicales.<\/p>\n\n\n\n<p><strong>Primera:<\/strong>&nbsp;las leyes de la f\u00edsica no proh\u00edben la IAG, luego es posible.&nbsp;<strong>\u201cCualquier cosa no espec\u00edficamente prohibida por las leyes de la f\u00edsica puede suceder\u201d.<\/strong>&nbsp;Deutsch sostiene que el cerebro es una m\u00e1quina de Turing aproximada y que, en principio, su funcionalidad puede replicarse en silicio.<\/p>\n\n\n\n<p><strong>Segunda:<\/strong>&nbsp;<strong>\u201cel campo de la \u2018inteligencia artificial general\u2019, no ha hecho progreso alguno durante toda su existencia de seis d\u00e9cadas\u201d<\/strong>. Seg\u00fan Deutsch,&nbsp;<strong>los LLM son haza\u00f1as de ingenier\u00eda, no progreso conceptual.<\/strong><\/p>\n\n\n\n<p><strong>Tercera:<\/strong>&nbsp;la barrera&nbsp;<strong>no es de c\u00f3mputo sino de filosof\u00eda<\/strong>. La IAG requiere lo que Deutsch llama,&nbsp;<strong>conocimiento explicativo<\/strong>: la capacidad de generar conjeturas audaces, criticarlas, refutarlas y sustituirlas por mejores. La inteligencia humana no es predicci\u00f3n ni interpolaci\u00f3n, sino creaci\u00f3n de explicaciones&nbsp;<em>dif\u00edciles de variar<\/em>. Una buena explicaci\u00f3n, en los t\u00e9rminos de Deutsch, es aquella que&nbsp;<strong>\u201cexpone una estructura profunda, unifica fen\u00f3menos dispares y deja poco margen para ajustes&nbsp;<em>ad hoc<\/em>\u201d<\/strong>; una mala explicaci\u00f3n es f\u00e1cil de variar sin perder su capacidad descriptiva aparente.<\/p>\n\n\n\n<p>Seg\u00fan Deutsch, la IAG ser\u00e1&nbsp;<strong>desobediente<\/strong>, porque la creatividad implica romper marcos previos.&nbsp;<strong>Un sistema entrenado para complacer al usuario satisface, por dise\u00f1o, el opuesto de este criterio.<\/strong>&nbsp;La creatividad, el conocimiento y la explicaci\u00f3n son, en su formulaci\u00f3n,&nbsp;<strong>\u201cfundamentalmente imposibles de definir, porque una vez que los defines, los confinas en un sistema formal\u201d<\/strong>.<\/p>\n\n\n\n<p>No es que el escalado no baste; es que est\u00e1 orientado en la direcci\u00f3n equivocada. Multiplicar par\u00e1metros refina la imitaci\u00f3n; no produce el salto que Karl Popper llam\u00f3&nbsp;<strong>\u201cconjetura audaz\u201d<\/strong>.&nbsp;<strong>Bajo este prisma, GPT-4.5 superando el test de Turing no es evidencia de IAG, sino de que el test de Turing nunca midi\u00f3 lo que pretend\u00eda medir.<\/strong><\/p>\n\n\n\n<p>No obstante, esta posici\u00f3n no est\u00e1 exenta de controversia. Algunos investigadores, como los del equipo de Kambhampati, se\u00f1alan que los LLM est\u00e1n&nbsp;<strong>\u201cen v\u00edas de revertir lo que parec\u00eda un cambio inexorable de la IA hacia tareas de conocimiento t\u00e1cito\u201d<\/strong>, precisamente porque su&nbsp;<strong>\u201comnisciencia aproximada\u201d<\/strong>&nbsp;les permite acceder a patrones que nunca fueron codificados expl\u00edcitamente. La cuesti\u00f3n de si esta capacidad constituye un&nbsp;<strong>embri\u00f3n de creatividad explicativa<\/strong>&nbsp;o&nbsp;<strong>simplemente una forma sofisticada de interpolaci\u00f3n<\/strong>&nbsp;sigue abierta.<\/p>\n\n\n\n<p><strong>Redefiniendo el tablero.&nbsp;<\/strong>Cuando el debate parec\u00eda atrapado entre quienes afirman que los LLM ya son IAG, quienes lo niegan por razones filos\u00f3ficas y quienes simplemente piden m\u00e1s c\u00f3mputo, LeCun dio un golpe de tim\u00f3n. En marzo de 2026, junto a Judah Goldfeder, Philippe Wyder y Ravid Shwartz-Ziv, public\u00f3&nbsp;<strong><em>AI Must Embrace Specialization via Superhuman Adaptable Intelligence<\/em><\/strong>. El art\u00edculo critica que&nbsp;<strong>\u201cel concepto de IAG es un mito y un lastre\u201d&nbsp;<\/strong>y propone una meta alternativa que desplaza por completo los t\u00e9rminos de la discusi\u00f3n.<\/p>\n\n\n\n<p>LeCun argumenta que la inteligencia humana no es general:&nbsp;<strong>somos el producto de una evoluci\u00f3n que nos especializ\u00f3 para sobrevivir en un entorno concreto.<\/strong>&nbsp;Incluso los prodigios humanos como el jugador de ajedrez Magnus Carlsen son intelectualmente limitados, ya que cualquier motor de ajedrez moderno lo supera. Carece de sentido, pues, medir la inteligencia de una m\u00e1quina por su capacidad de imitar nuestras limitaciones. Si la IAG se define como la resoluci\u00f3n de cualquier problema (inteligencia universal), choca con el teorema del&nbsp;<strong><em>no free lunch<\/em><\/strong>, que niega la existencia de un algoritmo \u00f3ptimo para todo. Si se restringe a&nbsp;<strong>\u201cigualar o superar las capacidades humanas\u201d<\/strong>, es redundante e inconsistente:&nbsp;<strong>la IA ya lo hace en innumerables dominios, y la comparaci\u00f3n con un est\u00e1ndar tan vago conduce a definiciones internamente contradictorias.<\/strong><\/p>\n\n\n\n<p>La alternativa que propone LeCun la llama&nbsp;<strong>Inteligencia Adaptable Sobrehumana (SAI, por sus siglas en ingl\u00e9s)<\/strong>. No es un sistema que lo sepa todo, sino uno que puede&nbsp;<strong>aprender a superar a los humanos en cualquier tarea que nos importe y llenar los vac\u00edos de habilidad donde somos incapaces<\/strong>. Este enfoque rompe con dos pilares del pensamiento dominante. Primero, sustituye la obsesi\u00f3n por la generalidad por la especializaci\u00f3n masiva:&nbsp;<strong>\u201cla IA que pliega prote\u00ednas no deber\u00eda ser la misma que dobla la ropa\u201d<\/strong>. Segundo, desplaza el criterio de \u00e9xito de la amplitud de habilidades a la&nbsp;<strong>velocidad de adaptaci\u00f3n<\/strong>. Lo relevante no es cu\u00e1ntas tareas domina un modelo, sino con qu\u00e9 rapidez y eficiencia puede alcanzar un rendimiento sobrehumano en una tarea nueva, incluyendo aquellas para las que no fue dise\u00f1ado originalmente.<\/p>\n\n\n\n<p>Frente a los escaladores como OpenAI y Anthropic, LeCun afirma que persiguen un fantasma conceptualmente equivocado. La IAG, bajo cualquier definici\u00f3n operativa, es un objetivo mal planteado. Frente a los fil\u00f3sofos como Deutsch, que exigen creatividad explicativa, LeCun afirma que esa referencia es profundamente antropoc\u00e9ntrica. Aspirar a que una m\u00e1quina narre su&nbsp;<strong>\u201chistoria de intuiciones\u201d<\/strong>&nbsp;al modo humano ser\u00eda imponer una limitaci\u00f3n biol\u00f3gica a una inteligencia que podr\u00eda operar de forma radicalmente distinta. Incluso la desobediencia creativa que Deutsch defiende quedar\u00eda subsumida simplemente como una trayectoria de adaptaci\u00f3n, no como un rasgo esencial.<\/p>\n\n\n\n<p>La propuesta tiene atractivo pragm\u00e1tico, pero no est\u00e1 exenta de r\u00e9plica. El fil\u00f3sofo computacional Ben Goertzel quien contribuy\u00f3 a popularizar el t\u00e9rmino IAG, respondi\u00f3, tambi\u00e9n en marzo de 2026, que la SAI no es una alternativa a la IAG sino un caso particular:&nbsp;<strong>la forma que toma la IAG cuando uno restringe el dominio de tareas a las que importan econ\u00f3micamente.<\/strong>&nbsp;La distinci\u00f3n entre&nbsp;<strong>&#8220;inteligencia universal&#8221;<\/strong>&nbsp;e&nbsp;<strong>&#8220;inteligencia adaptable sobrehumana&#8221;<\/strong>&nbsp;es real, pero no constituye un cambio de paradigma sino una reasignaci\u00f3n de prioridades.&nbsp;<strong>Si el enfoque de LeCun es exitoso, la industria habr\u00e1 optado por la utilidad; pero la pregunta de Deutsch seguir\u00eda pendiente.<\/strong><\/p>\n\n\n\n<p><strong>Tres confusiones y una nueva meta.&nbsp;<\/strong>Podemos agrupar las posturas en tres confusiones:<\/p>\n\n\n\n<ul>\n<li><strong>Confusi\u00f3n 1: generalidad vs. universalidad.<\/strong>&nbsp;Hassabis tiene raz\u00f3n al criticar a LeCun:&nbsp;<strong>ning\u00fan humano es universal<\/strong>. Pero Deutsch matiza: la generalidad humana no es amplitud de dominios, sino la capacidad de crear nuevos. LeCun, sin embargo, da un paso m\u00e1s: incluso esa creatividad no es una meta absoluta, sino un producto evolutivo que se puede imitar y superar mediante una adaptabilidad especializada.<\/li>\n\n\n\n<li><strong>Confusi\u00f3n 2: predicci\u00f3n vs. comprensi\u00f3n.<\/strong>&nbsp;Los LLM son motores predictivos, pero la comprensi\u00f3n exige explicaciones que vayan m\u00e1s all\u00e1 de lo existente. LeCun comparte esta cr\u00edtica a los LLM, pero rechaza que la&nbsp;<strong>\u201ccomprensi\u00f3n\u201d<\/strong>&nbsp;deba ser la referencia, seg\u00fan su enfoque, lo esencial es la capacidad de adaptarse y resolver problemas, no de verbalizar narrativas explicativas al modo humano.<\/li>\n\n\n\n<li><strong>Confusi\u00f3n 3: escala vs. arquitectura.<\/strong>&nbsp;Marcus y LeCun coinciden en que escalar modelos no basta. Marcus quiere h\u00edbridos neurosimb\u00f3licos; LeCun, modelos de mundo. Deutsch sospecha que ambos evaden la pregunta:&nbsp;<strong>\u00bfc\u00f3mo se programa la creatividad explicativa?<\/strong>&nbsp;Pero LeCun responde impl\u00edcitamente: no se programa la creatividad al estilo humano; se programa un sistema que puede aprender a superarnos en cualquier tarea que definamos, incluida la ciencia.<\/li>\n<\/ul>\n\n\n\n<p><strong>Y, sin embargo, se mueve.&nbsp;<\/strong>El debate no se resolver\u00e1 por consenso, sino por demostraci\u00f3n emp\u00edrica o por agotamiento de capital.&nbsp;<strong>Mientras tanto, la humanidad debe seguir operando bajo incertidumbre radical,<\/strong>&nbsp;con consecuencias que ya se sienten. Gastamos enormes recursos discutiendo si la IAG est\u00e1 cerca, mientras&nbsp;<strong>inteligencias sobrehumanas especializadas llevan a\u00f1os en silencio, haci\u00e9ndose cargo cada vez de m\u00e1s tareas.<\/strong>&nbsp;<strong>AlphaFold<\/strong>&nbsp;ya super\u00f3 a cualquier bi\u00f3logo estructural en su dominio, y nadie lo llam\u00f3 IAG.<strong>&nbsp;\u00bfCu\u00e1nto del trabajo humano, es una urgencia macroecon\u00f3mica?<\/strong><\/p>\n\n\n\n<p>Si los LLM no son IAG, el discurso apocal\u00edptico sobreestima el riesgo existencial y subestima el trivial:&nbsp;<strong>desinformaci\u00f3n, automatizaci\u00f3n injusta, p\u00e9rdida de agencia cognitiva.<\/strong>&nbsp;Y si lo son, hemos cruzado un umbral moral sin debate p\u00fablico. Uno de los s\u00edntomas m\u00e1s reveladores de esta discusi\u00f3n es su&nbsp;<strong>homogeneidad y sesgo de g\u00e9nero<\/strong>. Ocurre, casi siempre,&nbsp;<strong>entre hombres que dirigen empresas multimillonarias o departamentos universitarios de \u00e9lite.<\/strong>&nbsp;Falta, sobre todo, la perspectiva del Sur Global. Para Chile, M\u00e9xico, Colombia o la India, las preguntas no son cu\u00e1ndo llegar\u00e1 una entidad m\u00edtica que lo sepa todo, sino c\u00f3mo evitar la dependencia extrema de modelos entrenados en otros idiomas, contextos culturales y prioridades regulatorias que no fueron definidas democr\u00e1ticamente. Falta tambi\u00e9n el costo material que el debate suele tratar como un rumor inc\u00f3modo. Cada nuevo&nbsp;<em>cluster<\/em>&nbsp;de GPU consume cantidades industriales de agua y electricidad, y depende de cadenas de suministro fr\u00e1giles.<\/p>\n\n\n\n<p>Quiz\u00e1 la lecci\u00f3n m\u00e1s relevante venga de Jordan, citando indirectamente a S\u00f3crates:&nbsp;<strong>\u201cno tenemos una visi\u00f3n de qu\u00e9 queremos hacer con esta tecnolog\u00eda\u201d<\/strong>. Esa carencia no se resuelve afinando un test que quiz\u00e1 nadie pase limpiamente, sino deliberando en escuelas, parlamentos, sindicatos y asociaciones cient\u00edficas, sobre qu\u00e9 humanidad queremos preservar mientras las m\u00e1quinas aprenden a hacer cada vez m\u00e1s cosas mejor que nosotros. El umbral de la IAG, tal como se discute hoy, es en buena medida una proyecci\u00f3n de nuestras esperanzas y miedos, un dispositivo ret\u00f3rico que cada actor define seg\u00fan su conveniencia.&nbsp;<strong>La estupidez natural humana sigue siendo m\u00e1s peligrosa que la inteligencia artificial.&nbsp;<\/strong>Y la \u00fanica manera de no ser v\u00edctimas de ella es hacer aquello que ning\u00fan modelo puede hacer por nosotros:&nbsp;<strong>pensar despacio sobre lo que estamos haciendo deprisa, y preguntarnos, antes de perseguir el umbral, si acaso estamos ante el umbral correcto.<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>En septiembre de 2025, en Berl\u00edn, Sam Altman de OpenAI y el f\u00edsico de Oxford David Deutsch conocido como el padre de la&nbsp;computaci\u00f3n cu\u00e1ntica, sostuvieron una conversaci\u00f3n sobre&nbsp;Inteligencia Artificial General (IAG).&nbsp;Deutsch coment\u00f3 que en su momento pens\u00f3 que ninguna computadora podr\u00eda mantener una conversaci\u00f3n fluida sin ser una IA general.&nbsp;&#8220;ChatGPT me demostr\u00f3 que estaba equivocado. No es una IAG y [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":1567,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[572,158,109,48,332,551,64,52,153,58,570,98,31,522,523,571,319,486,304,76,59,53,51,144],"tags":[],"_links":{"self":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts\/1566"}],"collection":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/comments?post=1566"}],"version-history":[{"count":1,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts\/1566\/revisions"}],"predecessor-version":[{"id":1568,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts\/1566\/revisions\/1568"}],"wp:featuredmedia":[{"embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/media\/1567"}],"wp:attachment":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/media?parent=1566"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/categories?post=1566"},{"taxonomy":"post_tag","embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/tags?post=1566"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}