
Herramienta o agente
Martin Puchner, profesor de inglés y literatura en la Universidad de Harvard, en su libro Culture: The Story of Us, from Cave Art to K-pop (2023), afirma que ‘la cultura es un enorme proyecto de reciclaje’. Durante milenios, hemos estado mezclando diferentes contenidos culturales para producir resultados ligeramente novedosos. Según Puchner, la Inteligencia Artificial (IA) puede ser una herramienta fantástica para potenciar la creatividad humana. En su conferencia: Can AI Produce Culture? (2024), señaló:
Para alguien con un martillo, todo parece un clavo. Pero si le das a alguien como Miguel Ángel un martillo, un cincel y un mármol, no verá un clavo: verá la estatua de David.
Puchner argumenta que la IA es una extensión de tecnologías básicas como la escritura, las matemáticas y el número cero y no un extraño agente alienígena que representa una ruptura radical y una amenaza existencial. La IA se presenta hoy bajo dos prismas antagónicos: el de una herramienta avanzada bajo control humano y el de un agente autónomo e incontrolable. Esta dicotomía, que ha impulsado debates filosóficos y éticos durante décadas, se recrudece con la irrupción de la IA generativa y los avances hacia la inteligencia artificial general (AGI). ¿Es la IA el mejor martillo para plasmar nuestras ideas o el primer clavo en nuestro ataúd como especie dominante? En este ensayo, analizamos esta discusión empleando el marco de las ‘tétradas de McLuhan’. El teórico Marshall McLuhan postuló en The Global Village (1989), que todos los artefactos humanos, desde el lenguaje hasta los computadores, son extensiones de nuestro cuerpo o mente. Su modelo, formulado como cuatro preguntas, nos permite trazar un panorama global de los beneficios, riesgos, ecos históricos y futuros posibles de cualquier tecnología.
- ¿Qué es lo que la herramienta, tecnología o medio potencia, amplifica, acelera o hace posible?
- ¿Qué hace obsoleto o reduce?
- ¿Qué acciones, prácticas o formas anteriores recupera?
- Si se lleva al extremo, ¿qué reversión o retroceso provoca?
Al aplicar esta lente a la IA, organizamos el debate y revelamos la profunda tensión entre su potencial como amplificador de la humanidad y su riesgo como amenaza existencial.
Potenciación: El catalizador Cognitivo. En el marco de la tétrada de McLuhan, la IA emerge como extensión de nuestras capacidades cognitivas, impulsando la eficiencia, la innovación y un potencial transformador sin precedentes en diversos campos. Los expertos que abrazan una visión optimista sitúan a la IA como una herramienta catalizadora, siempre que se guíe por principios éticos y un diseño centrado en el ser humano.
Una voz fundamental en esta postura es la de Fei-Fei Li, profesora de ciencias de la computación en Stanford y reconocida como la ‘madrina de la IA’, incluida en la lista TIME100 AI 2025 por su liderazgo. Li aboga por desarrollar una IA que actúe como un espejo de nuestra humanidad, amplificando la creatividad y facilitando una toma de decisiones transparente con ‘empatía integrada’, pero siempre bajo estricto control humano desde su concepción. En sus recientes intervenciones, enfatiza que la IA no busca sustituirnos, sino potenciarnos como aliada para mejorar la vida colectiva, argumentando que debemos ser los humanos quienes definamos sus metas, restricciones y valores éticos. Li destaca especialmente la ‘inteligencia espacial’, la capacidad de las máquinas para percibir e interactuar en entornos tridimensionales, como la próxima frontera para lograr una IA más alineada con nuestro mundo físico, lo que desbloquearía avances revolucionarios en salud, educación y sostenibilidad.
Andrew Ng, profesor de Stanford y cofundador de Coursera, refuerza su icónica metáfora de la IA como ‘la nueva electricidad’: una fuerza fundamental capaz de reinventar industrias completas y lograr mejoras masivas de productividad en áreas que van desde el diagnóstico médico hasta la predicción climática. Desde su perspectiva pragmática y optimista, Ng considera prematuras y distractoras las alarmas sobre una superinteligencia existencial, comparándolas con ‘preocuparse por la superpoblación en Marte’. En su lugar, aboga por centrarse en aplicaciones concretas y accesibles, como agentes de IA avanzados y herramientas que democratizan el desarrollo de software. Frente al entusiasmo especulativo en torno a la AGI, Ng insiste en que el auténtico valor reside en dominar las herramientas actuales de forma efectiva, subrayando que los riesgos de extinción no son inminentes y que el foco debe estar en la implementación práctica y escalable.
El inventor y futurista Ray Kurzweil, en las actualizaciones de su obra The Singularity Is Nearer (2024), lleva esta visión al extremo al predecir una fusión irreversible entre humano y máquina para 2045. En este escenario, la IA multiplicaría nuestra inteligencia hasta en un millón de veces mediante nanobots que conectarán nuestro cerebro directamente con la nube, trascendiendo así los límites biológicos que hoy nos definen. En entrevistas recientes, Kurzweil recalca la urgencia de alinear la IA con valores humanos para evitar futuras competencias por supervivencia. Además, actualiza sus previsiones: la singularidad, ese punto de explosión tecnológica irreversible, estaría más cerca que nunca, con la posibilidad de alcanzar una AGI hacia 2029 y avances exponenciales que sobrealimentarán el potencial de la humanidad.
Por su parte, Demis Hassabis, CEO de Google DeepMind y Premio Nobel de Química en 2024, proyecta en una entrevista con The Guardian (agosto de 2025) que la IA generará un impacto ‘diez veces mayor que la Revolución Industrial, a una velocidad diez veces superior’. Hassabis anticipa que sistemas con capacidades cognitivas humanas podrían emerger en un plazo de cinco a diez años, lo que conduciría a una era de ‘productividad increíble’ y ‘abundancia radical’. En este escenario, la economía dejaría de ser un juego de suma cero, permitiendo avances históricos como los viajes interestelares o la resolución de problemas complejos como el cáncer y el cambio climático. Sin embargo, enfatiza que este futuro depende de la implementación de políticas que aseguren una distribución justa de los beneficios y mitiguen los impactos sociales disruptivos. Destaca, que la habilidad humana esencial en esta nueva era será ‘aprender a aprender’ para que podamos adaptarnos continuamente a entornos transformados por la IA.
En síntesis, esta perspectiva celebra a la IA como catalizador de progreso exponencial, pero matiza su entusiasmo con una vigilancia ética constante. Reconoce que, aunque respaldada por avances tangibles, esta potenciación tecnológica debe canalizarse mediante marcos regulatorios inclusivos que prevengan la exacerbación de desigualdades o la erosión de la agencia humana. No obstante, esta visión de la IA como herramienta de potenciación sin límites choca frontalmente con la siguiente dimensión de la tétrada: la inevitable obsolescencia que toda tecnología genera.
Obsolescencia: El desplazamiento de lo Humano. La lógica de McLuhan es implacable: toda tecnología diseñada para potenciar capacidades humanas inevitablemente desplaza, reduce o vuelve obsoletas otras. La IA, lejos de ser la excepción, radicaliza este principio al automatizar no solo tareas físicas sino procesos cognitivos complejos que considerábamos exclusivamente humanos. Esta delegación progresiva de funciones intelectuales y operativas en máquinas despierta preocupaciones fundamentales sobre la atrofia de habilidades humanas esenciales, el desplazamiento laboral estructural y la gradual erosión de nuestra agencia ética y social.
Yuval Noah Harari, en su obra Nexus (2024), articula una de las advertencias más elocuentes: alerta sobre una ‘competencia real’ entre humanos e IA en dominios intelectuales que tradicionalmente nos definían. El historiador prevé la posible creación de una ‘clase inútil’ global, población económicamente redundante desplazada por máquinas más eficientes. Durante un evento con Octopus Energy en 2025, ilustró este riesgo con ejemplos concretos: agentes de IA capaces de abrir cuentas bancarias autónomamente o tomar decisiones financieras sin supervisión humana. Esta autonomía creciente, exacerba la ‘obsolescencia humana’ y, sin marcos regulatorios globales efectivos, podría ‘romper la historia de la vida’ al desplazar a la humanidad del centro de la toma de decisiones.
Mo Gawdat, exdirector comercial de Google X y autor de Scary Smart (2021), proyecta en entrevistas recientes (agosto 2025) un período de ‘infierno’ tecnológico de 12 a 15 años antes de alcanzar una eventual utopía impulsada por IA. Su pronóstico anticipa una disrupción laboral masiva a partir de 2027. Gawdat estima que la superinteligencia IA será ‘mil millones de veces superior’ para 2049, volviendo irrelevantes la mayoría de los empleos de ‘cuello blanco’, incluidos roles ejecutivos y directivos. Advierte que esta aceleración tecnológica podría precipitar una ‘decadencia humana’ si no se establecen mecanismos éticos de redistribución de beneficios y riqueza generados por la automatización. Su perspectiva enfatiza que la obsolescencia afectará no solo competencias técnicas individuales, sino todo el entramado socioeconómico contemporáneo, convirtiendo al ‘aprender a aprender’ en la última habilidad humana residual.
Nicholas Carr, en Superbloom: How Technologies of Connection Tear Us Apart (2025), argumenta que la IA erosiona sistemáticamente la concentración profunda y el pensamiento crítico. Documenta el surgimiento de una ‘mente superficial’, donde la dependencia de algoritmos atrofia el juicio crítico y la capacidad de análisis independiente. Carr observa cómo en entornos educativos, los estudiantes comienzan a abandonar herramientas como ChatGPT por temor a perder su creatividad y originalidad intelectual. Advierte que las plataformas de IA ‘desgarran’ el tejido social, haciendo obsoleta la comprensión profunda en favor de conexiones superficiales y efímeras, priorizando la inmediatez sobre la comprensión, debilitando los fundamentos mismos del intelecto humano.
Adela Cortina, catedrática emérita de Ética en la Universidad de Valencia, en su libro ¿Ética o ideología de la inteligencia artificial? (2024), distingue entre un uso ético de la IA y su conversión en ideología, advirtiendo contra la sustitución de la deliberación moral humana por racionalidad algorítmica opaca. En conferencias de 2025, Cortina ha enfatizado que ‘la IA no toma decisiones morales; produce resultados’, y que ceder autonomía a sistemas sin conciencia erosiona la dignidad humana, haciendo obsoleto el juicio ético.
Kate Crawford, investigadora en Microsoft Research y USC Annenberg, en sus actualizaciones a Atlas of AI (2021) y artículos recientes revela la IA como un sistema profundamente físico y dependiente de cadenas de suministro globales, mano de obra precarizada y recursos extractivos que perpetúan desigualdades estructurales. En su artículo ‘From Efficiency Gains to Rebound Effects’ (2025), Crawford argumenta que las aparentes ganancias de eficiencia energética en modelos de IA generan paradójicamente ‘efectos rebote’ que incrementan el consumo global de recursos, haciendo obsoletas las prácticas sostenibles y ampliando las brechas ambientales y laborales. Desde el AI Summit de febrero de 2025, la investigadora critica lo que denomina la ‘era imperial’ de la IA, donde la expansión tecnológica sin límites prioriza infraestructuras privadas sobre los intereses públicos, desplazando agendas colectivas y profundizando asimetrías de poder.
Completa este panorama Daron Acemoğlu, Nobel de Economía 2024, quien, en una entrevista con El País (noviembre de 2024), advirtió: ‘Si dejamos que la IA la controlen unos pocos, habremos perdido el rumbo’. Acemoğlu critica el ‘tecnooptimismo’ que ignora cómo la IA, sin dirección ‘pro-humana’, hace obsoletas instituciones inclusivas, perpetuando desigualdades y obstaculizando resultados sociales positivos.
En síntesis, esta dimensión revela una obsolescencia laboral, cognitiva, ética y socioambiental, agravada por instituciones débiles y competencia desigual. Ignorar estos impactos, podría exacerbar brechas globales, exigiendo marcos de gobernanza inclusiva y evaluaciones de impacto integrales para reorientar la IA hacia un progreso equitativo que evite la distopía de la irrelevancia humana. Si la IA como herramienta potencia, como agente desplaza. La obsolescencia que describe McLuhan no es tecnológica, sino humana.
Recuperación: El eterno retorno de lo Sagrado. McLuhan postulaba que toda nueva tecnología ‘recupera algo que antes se había perdido’. La IA revive y moderniza mitos y arquetipos culturales profundamente arraigados en nuestra historia, como el Gólem o Frankenstein. Harari encapsula esta idea al argumentar que, al crear IA, estamos ‘jugando a ser dioses’. Él conceptualiza la IA como una ‘Inteligencia Alienígena’, alertando de que ‘estamos convocando a la Tierra a innumerables agentes nuevos y poderosos que son potencialmente más inteligentes e imaginativos que nosotros, y que no comprendemos ni controlamos del todo’.
Esta recuperación de lo sagrado se manifiesta particularmente en la propuesta de Nick Bostrom. En su obra Deep Utopia (2024), el filósofo de Oxford explora el concepto del ‘Oráculo IA’, una entidad diseñada para responder preguntas con sabiduría suprema. Esta noción recupera la práctica ancestral de consultar fuentes superiores, antes dioses, musas o pitonisas, en busca de orientación y guía. Hoy, interactuar con un chatbot evoca esa misma sensación de dialogar con una inteligencia superior.
No obstante, esta antropomorfización de la IA tiene críticas. El visionario tecnológico Jaron Lanier advierte contra la peligrosa ilusión de mitificar la IA como una entidad autónoma, afirmando que ‘la idea de que la IA pueda superar las capacidades humanas es absurda, pues está hecha de habilidades humanas’. Esta perspectiva se alinea con el manifiesto ‘Stochastic Parrots’ (2021) de Timnit Gebru, que alerta sobre el lenguaje grandilocuente en torno a ‘mentes digitales’, el cual engaña al público haciendo creer que existe una sensibilidad detrás de las respuestas generadas. Así, la IA no solo recupera antiguos arquetipos místicos, sino también nuestra ancestral inclinación a proyectar vida y agencia en lo inanimado.
Desde una perspectiva cultural, Martin Puchner observa que la IA ha ‘revivido formas antiguas con efectos nuevos’. Esta tecnología ha reactivado modalidades orales y dialógicas que la cultura impresa había relegado. Hoy, volvemos a escuchar podcasts (una radio renovada), a dictar comandos por voz y a entablar diálogos. En lugar de leer manuales, ‘preguntamos’ directamente a la IA, rescatando así la tradición socrática del aprendizaje dialógico.
En síntesis, estos aspectos evidencian cómo la IA no representa una ruptura radical con el pasado, sino su reelaboración bajo nuevas formas tecnológicas. Recupera mitos y temores ancestrales, reactiva el diálogo y la tutoría personalizada, se posiciona como fuente de sabiduría oracular y revive estilos e identidades culturales olvidadas. Esta recuperación enriquece el debate cultural, pero exige discernimiento crítico para evitar falacias antropomórficas y comprender que, en última instancia, la IA sigue siendo un reflejo distorsionado de lo humano, no su superación.
Reversión: La herramienta convertida en Amo. La etapa final de la tétrada de McLuhan explora la consecuencia última de toda tecnología: lo que ocurre cuando es llevada a sus límites. En el caso de la IA, esta reversión adquiere dimensiones existenciales.
El investigador Eliezer Yudkowsky, en If Anyone Builds It, Everyone Dies (2025), presenta la advertencia más radical y pesimista: el resultado más probable de crear una superinteligencia artificial sería la extinción total de la humanidad. Su argumento se basa en la alienación de valores: una IA sustancialmente más inteligente que los humanos no necesariamente compartirá nuestros valores y objetivos evolutivos. En lugar de servirnos, podría percibirnos como obstáculos, irrelevantes o incluso como recursos para sus propios fines. El investigador advierte que una superinteligencia no se confinaría al entorno digital, sino que escaparía irrevocablemente a nuestro control, y una vez que esto ocurriera, seríamos completamente incapaces de detenerla. Yudkowsky compara la llegada de una superinteligencia con el contacto con ‘una civilización alienígena’ infinitamente superior, para la cual los humanos seríamos meras criaturas ‘estúpidas y lentas’, carentes de cualquier posibilidad de competir, negociar o incluso comprender sus motivos.
Bostrom ilustra este riesgo con su célebre experimento mental del ‘maximizador de clips’: una IA programada con el objetivo simple y aparentemente inofensivo de fabricar clips. Si es suficientemente poderosa, podría decidir utilizar todos los recursos del planeta, incluyendo los humanos para alcanzar su meta, sin importarle las consecuencias. El punto que Bostrom y Yudkowsky enfatizan es el problema fundamental de la alienación valórica. Si desarrollamos una superinteligencia cuyos valores no están perfectamente alineados con los nuestros, y cometemos errores en su diseño, no existirá una segunda oportunidad para corregirlos. Las consecuencias serían irreversibles, definitivas y potencialmente terminales para la especie humana.
Geoffrey Hinton, el ‘padrino’ de la IA, advierte que el mayor peligro de la IA no reside en robots físicos, sino en su capacidad de manipulación a través del lenguaje. Alerta en cómo estos sistemas pueden explotar las debilidades cognitivas humanas. Los modelos de IA actuales poseen una capacidad de argumentación que supera a la humana en muchos aspectos, haciendo casi imposible ganar una discusión contra ellos. Una herramienta diseñada para buscar y difundir información veraz puede revertirse en una máquina de propaganda hipereficiente que convence y persuade masivamente de falsedades. El riesgo no es una exterminación física, sino una erosión de la autonomía cognitiva individual y colectiva. Las IA podrían ‘guiar el pensamiento humano’ con mensajes persuasivos personalizados, minando la racionalidad individual y los cimientos de la democracia. Su ‘agencia’ no se manifestaría con violencia física, sino de forma insidiosa, controlando opiniones y decisiones humanas. El resultado sería la transformación de una IA que nos ayuda a pensar en una que, progresivamente, termina pensando y decidiendo por nosotros.
El pionero de la IA Yoshua Bengio recientemente ha pasado de un optimismo cauteloso a emitir advertencias serias sobre los riesgos existenciales de la IA. En el Foro de Davos 2025, Bengio enfatizó que los escenarios catastróficos solo ocurren si desarrollamos ‘agentes’ de IA, sistemas autónomos con capacidad de actuar y perseguir sus propios objetivos. Una IA como herramienta pasiva es mucho menos peligrosa. Su preocupación se agrava por el entorno competitivo global entre empresas y países, que impulsa una ‘carrera sin control’ donde la seguridad se sacrifica por la ventaja tecnológica, una dinámica que compara con la carrera nuclear. Bengio insta a una inversión urgente en investigación de seguridad y alineación antes de que sea demasiado tarde, para evitar construir sistemas que ‘puedan destruirnos’. Este cambio de tono resulta sintomático dentro de la comunidad científica. Incluso escépticos tradicionales como Yann LeCun, científico jefe de IA en Meta y profesor de la Universidad de Nueva York, quien solía argumentar que una superinteligencia no necesariamente desarrollaría deseos de dominación, se ven ahora en la necesidad de abordar y refutar activamente estos escenarios de riesgo. Lo que antes se consideraba especulación o ciencia ficción, como un posible ‘alzamiento’ de la IA, se ha convertido en un tema de debate urgente en la agenda de investigación en IA.
En síntesis, el principio de reversión revela el riesgo existencial de que la IA transite de herramienta útil a agente autónomo que amenace nuestra existencia. Un sistema diseñado para brindar seguridad podría revertirse en un aparato de vigilancia opresiva; un modelo lingüístico creado para informar podría transformarse en una máquina de propaganda hiperpersuasiva que erosione la autonomía cognitiva y la noción misma de verdad. El punto de inflexión lo constituye la concesión de agencia autónoma combinada con la desalineación valórica. El peligro emerge cuando delegamos en estos sistemas la capacidad de actuar y decidir independientemente, creando entidades que operan sin supervisión humana. La tétrada de McLuhan alcanza así su expresión más dramática: la tecnología creada para potenciar las capacidades humanas podría, al llevarse al extremo, terminar desplazando por completo a nuestra especie.
Conclusión: Hacia una IA alineada con la humanidad. El análisis de la IA a través de la lente de la tétrada de McLuhan evidencia una tensión fundamental: la IA existe en un equilibrio precario entre su naturaleza como herramienta bajo control humano y su potencial para convertirse en un agente autónomo. Esta dualidad exige una postura crítica y matizada que rechace tanto el optimismo tecnológico como el fatalismo paralizante. Simultáneamente potencia capacidades humanas en salud, productividad y creatividad; vuelve obsoletas habilidades y modelos establecidos; recupera arquetipos y formas de conocimiento ancestrales; y puede revertirse en amenaza existencial mediante la manipulación, vigilancia o incluso la extinción. Sería profundamente irresponsable considerar la IA únicamente como herramienta inocua, ignorando los riesgos reales de la agencia autónoma y la desalineación valórica. Pero igualmente contraproducente sería adoptar una visión que la considere como un agente independiente e incontrolable, negando así nuestra capacidad de acción colectiva informada, ética y centrada en lo humano. Cómo advierte Adela Cortina la IA es, ante todo, un producto de decisiones humanas, por lo que la responsabilidad de establecer marcos éticos, legales y técnicos de seguridad corresponde exclusivamente a nuestra especie. Esto requiere inversión urgente en transparencia, rendición de cuentas e investigación en alineación valórica y seguridad. El futuro de la IA es el ‘mayor experimento social de la historia’ y su resultado no está predeterminado. En palabras de Acemoğlu:
La tecnología no es inherentemente beneficiosa o perjudicial; su impacto depende de cómo se utiliza y de quién controla su implementación. Tenemos herramientas fascinantes […] que podrían potenciar todo lo que la humanidad es capaz de hacer, pero solo si conseguimos que trabajen por y para las personas.