AGI

No es cómputo, es filosofía

En septiembre de 2025, en Berlín, Sam Altman de OpenAI y el físico de Oxford David Deutsch conocido como el padre de la computación cuántica, sostuvieron una conversación sobre Inteligencia Artificial General (IAG). Deutsch comentó que en su momento pensó que ninguna computadora podría mantener una conversación fluida sin ser una IA general. “ChatGPT me demostró que estaba equivocado. No es una IAG y puede conversar”. Deutsch estableció una clara distinción entre el “loro estocástico” y la inteligencia real. Para ilustrar la diferencia, usó la figura de Einstein. No se necesita ser Einstein para ser inteligente, pero sí se necesita el mismo tipo de proceso. “Sabemos que Einstein creó la relatividad porque conocemos su historia, qué problemas estaba abordando y por qué”. No se trató simplemente de combinar ideas existentes, sino de generar una conjetura radicalmente nueva: la curvatura del espacio-tiempo, que no estaba latente en los datos disponibles. Einstein no interpoló entre la física de Newton y los resultados experimentales; creó un marco explicativo que redefinió los términos mismos del problema. Deutsch propuso así un nuevo criterio para la IAG: una inteligencia artificial merecerá el calificativo de “general” cuando resuelva un problema con verdadera perspicacia explicativa. No basta con responder correctamente; debe poder “contar la historia de sus elecciones e intuiciones”, narrando por qué eligió ese camino y no otro. Altman entonces planteó una hipótesis: si un modelo futuro como ChatGPT-8 “descubriera la gravedad cuántica y pudiera contar su historia, ¿sería eso suficiente para convencerlos?”“Creo que sí”, respondió Deutsch. Fue una declaración de principios epistemológicos: la inteligencia no consiste en producir respuestas correctas, sino en “ver un problema, inventar una solución y probarla críticamente” creando conocimiento explicativo nuevo. Es decir, teorías sobre el mundo que no están contenidas en los datos de entrenamiento. Deutsch y Altman, definieron una “prueba” para la IAG.

En febrero de 2026, cuatro académicos de la Universidad de California: el filósofo Eddy Chen, el informático Mikhail Belkin, el lingüista Leon Bergen y el filósofo David Danks, publicaron en Nature una de las defensas más rigurosas que ha recibido la tesis de que los grandes modelos de lenguaje (LLM) actuales constituyen ya una forma de IAG.

Sin embargo, pocas semanas antes, Yann LeCun, uno de los ‘padres de la IA’, había llamado a esa misma idea complete bullshit. Y en febrero de 2025, en la École Polytechnique, Michael Jordan, profesor de la Universidad de California, considerado durante años el científico computacional más influyente del mundo afirmó: “Esta cosa de la super-IAG que puede responder cualquier pregunta, que lo sabe todo… es un disparate”.

La disputa ya no es técnica: es epistemológica, política y económica, sostenida por figuras de empresas y laboratorios que manejan presupuestos millonarios. Está en juego quién tiene la autoridad para definir qué cuenta como inteligencia, cuándo se ha alcanzado y si debemos perseguir su llegada o prepararnos para sus consecuencias. Un paisaje de contradicciones que exige repensar el problema desde sus cimientos.

¿La IAG ya está aquí? El comentario de Nature no es ingenuo. Sus autores sostienen que la generalidad humana, no es la omnisciencia; ningún individuo es Einstein, Bach y Cervantes a la vez. Si lo que pedimos a la IAG es una capacidad razonable de operar en múltiples dominios con cierta profundidad, entonces los LLM ya satisfacen el criterio. Que “alucinan”; los humanos también incurren en falsas memorias y sesgos sin que por ello se les niegue inteligencia. Que “carecen de cuerpo”; Stephen Hawking interactuó con el mundo por texto y voz sintética y nadie le negó por eso inteligencia general. La evidencia operacional es contundente: en marzo de 2025, los científicos cognitivos Cameron Jones y Benjamin Bergen, del Laboratorio de Lenguaje y Cognición de la Universidad de California, publicaron un estudio en el que GPT-4.5 cuando se le instruyó comportarse como una “persona”, fue identificado como humano en el 73 % de los casos, una tasa significativamente superior a la de los participantes humanos reales, que solo convencieron a los jueces en el 63 % de las ocasiones. Sin ese prompt de “persona”, el mismo modelo apenas alcanzó un 36 % de acierto. Este experimento constituye la primera evidencia empírica de que un sistema artificial es capaz de superar un test de Turing estándar. Pero esta tesis elude el problema central: ¿pueden los LLM mantener un razonamiento coherente en el tiempo? La distinción fundamental no es entre acertar o equivocarse en una pregunta, sino entre simular comprensión y generar comprensión nueva.

La trampa del escalado. Tras el lanzamiento de GPT-5, Gary Marcus, profesor en la Universidad de Nueva York declaró en X: “Mi trabajo aquí está realmente terminado. Nadie con integridad intelectual puede seguir creyendo que el mero escalado nos llevará a la IAG”. El equipo de Procesamiento de Lenguaje Natural de Stanford llegó a la misma conclusión: “la estrategia de 2023 de OpenAI, Anthropic, etc. […] ya no funciona”. Investigaciones publicadas a finales de 2025 identificaron cinco limitaciones estructurales: alucinaciones, compresión de contexto, degradación del razonamiento, fragilidad en la recuperación de información y desalineación multimodal, que no se resuelven añadiendo más parámetros. Jordan, en la conferencia AI, Science and Society de Hi! PARIS, declaró:

Lo que Sam Altman o Elon Musk tienen en mente es tomar, gratis, todo el conocimiento producido por la humanidad para crear esta cosa de la super-IAG, gastando miles de millones y billones de dólares en el proceso, y salvar a la humanidad. Esto es un disparate.

Para Jordan, los LLM son “muchos pequeños expertos” capaces de responder preguntas específicas, pero no “entidades inteligentes”. El problema, sostiene, no es de escala sino de naturaleza: “no pueden saberlo todo, porque lo que está en mi mente ahora es el contexto de lo que voy a hacer hoy. Eso no lo pueden saber”.

Yann LeCun, quién dejó su cargo como científico jefe de IA en Meta para fundar AMI (Advanced Machine Intelligence Labs) radicalizó la crítica. En diciembre de 2025 señaló: “El camino a la superinteligencia: simplemente entrenar más LLM, entrenar con más datos sintéticos, contratar a miles de personas para enseñar al sistema en post-entrenamiento, inventar nuevos ajustes de aprendizaje por refuerzo, creo que es una completa basura. Sencillamente nunca va a funcionar”. Y añadió: “Tienes a toda esa gente parloteando sobre la IAG … Es completamente delirante”. LeCun abandonó Meta tras desacuerdos estratégicos sobre la dirección de la IA apostando por modelos de mundoen lugar de generar tokens. Su nuevo emprendimiento, que en marzo de 2026 cerró una ronda de financiación de 1.030 millones de dólares, desarrolla la arquitectura JEPA (Joint Embedding Predictive Architecture), diseñada para aprender representaciones abstractas del mundo físico a partir de datos sensoriales, no de texto.

Apuestas multimillonarias. El 20 de enero de 2026, en una sesión denominada El día después de la IAG, Demis Hassabis CEO de Google DeepMind y Dario Amodei cofundador de Anthropic coincidieron en el escenario del Foro de Davos. Amodei fue el más radical de los optimistas. Predijo que la IA reemplazaría el trabajo de todos los desarrolladores de software “en uno o dos años” y alcanzaría “nivel-Nobel” en investigación científica multidisciplinaria en 2026-2027. Su argumento: “Tengo ingenieros en Anthropic que dicen que ya no escriben código. Dejan que el modelo lo escriba, lo editan, hacen cosas alrededor”. La IA escribe IA. Si el ciclo se cierra, dice Amodei, llegará una “explosión milagrosa y extremadamente rápida”. Fortune corroboró que ingenieros de Anthropic y OpenAI afirman que la IA ya escribe el 100 % de su código.

Por su parte, Hassabis, ganador del Nobel de Química 2024, afirmó que, aunque los sistemas actuales no están “ni cerca” de la inteligencia humana, existe una probabilidad del 50 % de alcanzar la IAG en esta década. “Quizás necesitemos uno o dos avances más antes de llegar a la IAG”, como la capacidad de aprender con pocos ejemplos, el aprendizaje continuo, la memoria a largo plazo y la planificación.

LeCun, ausente del escenario, pero omnipresente en el debate, recibió una respuesta directa de Hassabis en X tras llamar “sinsentido” a la noción misma de inteligencia general: LeCun “está confundiendo inteligencia general con inteligencia universal […] Los cerebros son los fenómenos más exquisitos y complejos que conocemos en el universo, y son de hecho extremadamente generales”. Elon Musk respondió simplemente: “Demis tiene razón”.

Anthropic apuesta por escalar y cerrar el ciclo de “auto-codificación”; DeepMind apuesta por escalar y algún descubrimiento adicional; LeCun apuesta por reemplazar el paradigma. Tres compañías con miles de millones invertidos, tres tesis incompatibles, un solo futuro.

La frontera tácita. El argumento de Jordan: “no pueden saber lo que está en mi mente ahora”, es una idea formulada en The Tacit Dimension (1966), por el químico-filósofo Michael Polanyi: sabemos más de lo que podemos decir. La paradoja de Polanyi distingue entre conocimiento explícito (codificable en normas, manuales, código) y conocimiento tácito (encarnado, experiencial, contextual, no articulable). Un pianista virtuoso no puede transmitir verbalmente lo que sus dedos saben; un médico experimentado “huele” un diagnóstico antes de poder justificarlo.

Durante décadas, esta paradoja explicó por qué la IA simbólica, la de los sistemas expertos, fracasaba en tareas que cualquier niño dominaba: reconocer una cara o andar en bicicleta. El aprendizaje profundo invirtió la situación: las redes neuronales aprenden tácitamente de datos sin que nadie articule las reglas. Subbarao Kambhampati en Explainable Human-AI Interaction (2022) lo llamó “la venganza de Polanyi”: la IA pasó de ejecutar conocimiento explícito a aprender conocimiento tácito.

Sin embargo, hay una diferencia sustancial. El conocimiento tácito humano es encarnado, social y temporal: surge de un cuerpo que envejece, de relaciones afectivas, de una historia personal irrepetible y de la urgencia de la mortalidad. Los LLM aprenden patrones tácitos de textos, que es conocimiento humano explícito, pero no tienen acceso al sustrato del que ese texto emerge. Como argumenta Jordan: “vivimos en un mundo de incertidumbre, y eso es lo que nos hace humanos”.

De hecho, estudios recientes estiman que sólo el 20-30 % del conocimiento de una organización está documentado; el 70-80 % restante es tácito, encarnado en las personas. Si Amodei tiene razón en que sus ingenieros “ya no escriben código”, la pregunta de Polanyi sería: ¿qué saben esos ingenieros que el modelo necesita para no producir basura? La respuesta sigue siendo: el contexto, el gusto, la intuición de qué pregunta hacer. El ciclo de auto-codificación que Amodei imagina depende, paradójicamente, de un ciclo externo de juicio humano tácito.

Los modelos actuales pueden aprobar exámenes de medicina, pero no saben qué se siente al comunicar un diagnóstico devastador. Pueden escribir poesía, pero nunca han experimentado la nostalgia. Aunque dotáramos a los sistemas de IA de cuerpos robóticos y sensores, la pregunta persiste: ¿puede la experiencia fenomenológica, el “qualia”, ser reducido a computación? Mientras esta pregunta permanezca abierta, la brecha entre conocimiento explícito y tácito seguirá siendo uno de los límites más difíciles de franquear en el camino hacia una IAG.

La creatividad como umbral. Deutsch ofrece la crítica más profunda y, a la vez, la más optimista. En su ensayo Creative Blocks (2012), propuso tres tesis radicales.

Primera: las leyes de la física no prohíben la IAG, luego es posible. “Cualquier cosa no específicamente prohibida por las leyes de la física puede suceder”. Deutsch sostiene que el cerebro es una máquina de Turing aproximada y que, en principio, su funcionalidad puede replicarse en silicio.

Segunda: “el campo de la ‘inteligencia artificial general’, no ha hecho progreso alguno durante toda su existencia de seis décadas”. Según Deutsch, los LLM son hazañas de ingeniería, no progreso conceptual.

Tercera: la barrera no es de cómputo sino de filosofía. La IAG requiere lo que Deutsch llama, conocimiento explicativo: la capacidad de generar conjeturas audaces, criticarlas, refutarlas y sustituirlas por mejores. La inteligencia humana no es predicción ni interpolación, sino creación de explicaciones difíciles de variar. Una buena explicación, en los términos de Deutsch, es aquella que “expone una estructura profunda, unifica fenómenos dispares y deja poco margen para ajustes ad hoc; una mala explicación es fácil de variar sin perder su capacidad descriptiva aparente.

Según Deutsch, la IAG será desobediente, porque la creatividad implica romper marcos previos. Un sistema entrenado para complacer al usuario satisface, por diseño, el opuesto de este criterio. La creatividad, el conocimiento y la explicación son, en su formulación, “fundamentalmente imposibles de definir, porque una vez que los defines, los confinas en un sistema formal”.

No es que el escalado no baste; es que está orientado en la dirección equivocada. Multiplicar parámetros refina la imitación; no produce el salto que Karl Popper llamó “conjetura audaz”Bajo este prisma, GPT-4.5 superando el test de Turing no es evidencia de IAG, sino de que el test de Turing nunca midió lo que pretendía medir.

No obstante, esta posición no está exenta de controversia. Algunos investigadores, como los del equipo de Kambhampati, señalan que los LLM están “en vías de revertir lo que parecía un cambio inexorable de la IA hacia tareas de conocimiento tácito”, precisamente porque su “omnisciencia aproximada” les permite acceder a patrones que nunca fueron codificados explícitamente. La cuestión de si esta capacidad constituye un embrión de creatividad explicativa o simplemente una forma sofisticada de interpolación sigue abierta.

Redefiniendo el tablero. Cuando el debate parecía atrapado entre quienes afirman que los LLM ya son IAG, quienes lo niegan por razones filosóficas y quienes simplemente piden más cómputo, LeCun dio un golpe de timón. En marzo de 2026, junto a Judah Goldfeder, Philippe Wyder y Ravid Shwartz-Ziv, publicó AI Must Embrace Specialization via Superhuman Adaptable Intelligence. El artículo critica que “el concepto de IAG es un mito y un lastre” y propone una meta alternativa que desplaza por completo los términos de la discusión.

LeCun argumenta que la inteligencia humana no es general: somos el producto de una evolución que nos especializó para sobrevivir en un entorno concreto. Incluso los prodigios humanos como el jugador de ajedrez Magnus Carlsen son intelectualmente limitados, ya que cualquier motor de ajedrez moderno lo supera. Carece de sentido, pues, medir la inteligencia de una máquina por su capacidad de imitar nuestras limitaciones. Si la IAG se define como la resolución de cualquier problema (inteligencia universal), choca con el teorema del no free lunch, que niega la existencia de un algoritmo óptimo para todo. Si se restringe a “igualar o superar las capacidades humanas”, es redundante e inconsistente: la IA ya lo hace en innumerables dominios, y la comparación con un estándar tan vago conduce a definiciones internamente contradictorias.

La alternativa que propone LeCun la llama Inteligencia Adaptable Sobrehumana (SAI, por sus siglas en inglés). No es un sistema que lo sepa todo, sino uno que puede aprender a superar a los humanos en cualquier tarea que nos importe y llenar los vacíos de habilidad donde somos incapaces. Este enfoque rompe con dos pilares del pensamiento dominante. Primero, sustituye la obsesión por la generalidad por la especialización masiva: “la IA que pliega proteínas no debería ser la misma que dobla la ropa”. Segundo, desplaza el criterio de éxito de la amplitud de habilidades a la velocidad de adaptación. Lo relevante no es cuántas tareas domina un modelo, sino con qué rapidez y eficiencia puede alcanzar un rendimiento sobrehumano en una tarea nueva, incluyendo aquellas para las que no fue diseñado originalmente.

Frente a los escaladores como OpenAI y Anthropic, LeCun afirma que persiguen un fantasma conceptualmente equivocado. La IAG, bajo cualquier definición operativa, es un objetivo mal planteado. Frente a los filósofos como Deutsch, que exigen creatividad explicativa, LeCun afirma que esa referencia es profundamente antropocéntrica. Aspirar a que una máquina narre su “historia de intuiciones” al modo humano sería imponer una limitación biológica a una inteligencia que podría operar de forma radicalmente distinta. Incluso la desobediencia creativa que Deutsch defiende quedaría subsumida simplemente como una trayectoria de adaptación, no como un rasgo esencial.

La propuesta tiene atractivo pragmático, pero no está exenta de réplica. El filósofo computacional Ben Goertzel quien contribuyó a popularizar el término IAG, respondió, también en marzo de 2026, que la SAI no es una alternativa a la IAG sino un caso particular: la forma que toma la IAG cuando uno restringe el dominio de tareas a las que importan económicamente. La distinción entre “inteligencia universal” e “inteligencia adaptable sobrehumana” es real, pero no constituye un cambio de paradigma sino una reasignación de prioridades. Si el enfoque de LeCun es exitoso, la industria habrá optado por la utilidad; pero la pregunta de Deutsch seguiría pendiente.

Tres confusiones y una nueva meta. Podemos agrupar las posturas en tres confusiones:

  • Confusión 1: generalidad vs. universalidad. Hassabis tiene razón al criticar a LeCun: ningún humano es universal. Pero Deutsch matiza: la generalidad humana no es amplitud de dominios, sino la capacidad de crear nuevos. LeCun, sin embargo, da un paso más: incluso esa creatividad no es una meta absoluta, sino un producto evolutivo que se puede imitar y superar mediante una adaptabilidad especializada.
  • Confusión 2: predicción vs. comprensión. Los LLM son motores predictivos, pero la comprensión exige explicaciones que vayan más allá de lo existente. LeCun comparte esta crítica a los LLM, pero rechaza que la “comprensión” deba ser la referencia, según su enfoque, lo esencial es la capacidad de adaptarse y resolver problemas, no de verbalizar narrativas explicativas al modo humano.
  • Confusión 3: escala vs. arquitectura. Marcus y LeCun coinciden en que escalar modelos no basta. Marcus quiere híbridos neurosimbólicos; LeCun, modelos de mundo. Deutsch sospecha que ambos evaden la pregunta: ¿cómo se programa la creatividad explicativa? Pero LeCun responde implícitamente: no se programa la creatividad al estilo humano; se programa un sistema que puede aprender a superarnos en cualquier tarea que definamos, incluida la ciencia.

Y, sin embargo, se mueve. El debate no se resolverá por consenso, sino por demostración empírica o por agotamiento de capital. Mientras tanto, la humanidad debe seguir operando bajo incertidumbre radical, con consecuencias que ya se sienten. Gastamos enormes recursos discutiendo si la IAG está cerca, mientras inteligencias sobrehumanas especializadas llevan años en silencio, haciéndose cargo cada vez de más tareas. AlphaFold ya superó a cualquier biólogo estructural en su dominio, y nadie lo llamó IAG. ¿Cuánto del trabajo humano, es una urgencia macroeconómica?

Si los LLM no son IAG, el discurso apocalíptico sobreestima el riesgo existencial y subestima el trivial: desinformación, automatización injusta, pérdida de agencia cognitiva. Y si lo son, hemos cruzado un umbral moral sin debate público. Uno de los síntomas más reveladores de esta discusión es su homogeneidad y sesgo de género. Ocurre, casi siempre, entre hombres que dirigen empresas multimillonarias o departamentos universitarios de élite. Falta, sobre todo, la perspectiva del Sur Global. Para Chile, México, Colombia o la India, las preguntas no son cuándo llegará una entidad mítica que lo sepa todo, sino cómo evitar la dependencia extrema de modelos entrenados en otros idiomas, contextos culturales y prioridades regulatorias que no fueron definidas democráticamente. Falta también el costo material que el debate suele tratar como un rumor incómodo. Cada nuevo cluster de GPU consume cantidades industriales de agua y electricidad, y depende de cadenas de suministro frágiles.

Quizá la lección más relevante venga de Jordan, citando indirectamente a Sócrates: “no tenemos una visión de qué queremos hacer con esta tecnología”. Esa carencia no se resuelve afinando un test que quizá nadie pase limpiamente, sino deliberando en escuelas, parlamentos, sindicatos y asociaciones científicas, sobre qué humanidad queremos preservar mientras las máquinas aprenden a hacer cada vez más cosas mejor que nosotros. El umbral de la IAG, tal como se discute hoy, es en buena medida una proyección de nuestras esperanzas y miedos, un dispositivo retórico que cada actor define según su conveniencia. La estupidez natural humana sigue siendo más peligrosa que la inteligencia artificial. Y la única manera de no ser víctimas de ella es hacer aquello que ningún modelo puede hacer por nosotros: pensar despacio sobre lo que estamos haciendo deprisa, y preguntarnos, antes de perseguir el umbral, si acaso estamos ante el umbral correcto.

Agregar un comentario

Su dirección de correo no se hará público. Los campos requeridos están marcados *