{"id":1411,"date":"2025-09-22T09:12:01","date_gmt":"2025-09-22T12:12:01","guid":{"rendered":"https:\/\/www.imagen.cl\/blog\/?p=1411"},"modified":"2025-09-22T09:12:01","modified_gmt":"2025-09-22T12:12:01","slug":"herramienta-o-agente","status":"publish","type":"post","link":"http:\/\/www.imagen.cl\/blog\/index.php\/2025\/09\/22\/herramienta-o-agente\/","title":{"rendered":"Herramienta o agente"},"content":{"rendered":"\n<p>Martin Puchner, profesor de ingl\u00e9s y literatura en la Universidad de Harvard, en su libro&nbsp;<strong><em>Culture: The Story of Us, from Cave Art to K-pop<\/em><\/strong>&nbsp;(2023), afirma que&nbsp;<strong>\u2018la cultura es un enorme proyecto de reciclaje\u2019<\/strong>. Durante milenios, hemos estado mezclando diferentes contenidos culturales para producir resultados ligeramente novedosos. Seg\u00fan Puchner, la Inteligencia Artificial (IA) puede ser una&nbsp;<strong>herramienta fant\u00e1stica<\/strong>&nbsp;para potenciar la creatividad humana. En su conferencia:&nbsp;<strong>Can AI Produce Culture?<\/strong>&nbsp;(2024), se\u00f1al\u00f3:<\/p>\n\n\n\n<p><strong>Para alguien con un martillo, todo parece un clavo.<\/strong>&nbsp;Pero si le das a alguien como&nbsp;<strong>Miguel \u00c1ngel<\/strong>&nbsp;un martillo, un cincel y un m\u00e1rmol, no ver\u00e1 un clavo:&nbsp;<strong>ver\u00e1 la estatua de David.<\/strong><\/p>\n\n\n\n<p>Puchner argumenta que la IA es<strong>&nbsp;una extensi\u00f3n de tecnolog\u00edas b\u00e1sicas como la escritura, las matem\u00e1ticas y el n\u00famero cero<\/strong>&nbsp;y no un extra\u00f1o agente alien\u00edgena que representa una&nbsp;<strong>ruptura radical y una amenaza existencial<\/strong>. La IA se presenta hoy bajo dos prismas antag\u00f3nicos: el de una&nbsp;<strong>herramienta<\/strong>&nbsp;avanzada bajo control humano y el de un&nbsp;<strong>agente<\/strong>&nbsp;aut\u00f3nomo e incontrolable. Esta dicotom\u00eda, que ha impulsado debates filos\u00f3ficos y \u00e9ticos durante d\u00e9cadas, se recrudece con la irrupci\u00f3n de la IA generativa y los avances hacia la inteligencia artificial general (AGI).&nbsp;<strong>\u00bfEs la IA el mejor martillo para plasmar nuestras ideas o el primer clavo en nuestro ata\u00fad como especie dominante?&nbsp;<\/strong>En este ensayo, analizamos esta discusi\u00f3n empleando el marco de las&nbsp;<strong>\u2018t\u00e9tradas de McLuhan\u2019<\/strong>. El te\u00f3rico Marshall McLuhan postul\u00f3 en&nbsp;<strong><em>The Global Village&nbsp;<\/em><\/strong>(1989), que todos los artefactos humanos, desde el lenguaje hasta los computadores, son extensiones de nuestro cuerpo o mente. Su modelo, formulado como cuatro preguntas, nos permite trazar un panorama global de los beneficios, riesgos, ecos hist\u00f3ricos y futuros posibles de cualquier tecnolog\u00eda.<\/p>\n\n\n\n<ul>\n<li>\u00bfQu\u00e9 es lo que la herramienta, tecnolog\u00eda o medio&nbsp;<strong>potencia<\/strong>, amplifica, acelera o hace posible?<\/li>\n\n\n\n<li>\u00bfQu\u00e9 hace&nbsp;<strong>obsoleto<\/strong>&nbsp;o reduce?<\/li>\n\n\n\n<li>\u00bfQu\u00e9 acciones, pr\u00e1cticas o formas anteriores&nbsp;<strong>recupera<\/strong>?<\/li>\n\n\n\n<li>Si se lleva al extremo, \u00bfqu\u00e9&nbsp;<strong>reversi\u00f3n<\/strong>&nbsp;o retroceso provoca?<\/li>\n<\/ul>\n\n\n\n<p>Al aplicar esta lente a la IA, organizamos el debate y revelamos la profunda tensi\u00f3n entre su potencial como amplificador de la humanidad y su riesgo como amenaza existencial.<\/p>\n\n\n\n<p><strong>Potenciaci\u00f3n: El catalizador Cognitivo<\/strong>. En el marco de la t\u00e9trada de McLuhan, la IA emerge como extensi\u00f3n de nuestras capacidades cognitivas, impulsando la eficiencia, la innovaci\u00f3n y un potencial transformador sin precedentes en diversos campos. Los expertos que abrazan una visi\u00f3n optimista sit\u00faan a la IA como una&nbsp;<strong>herramienta catalizadora<\/strong>, siempre que se gu\u00ede por principios \u00e9ticos y un dise\u00f1o centrado en el ser humano.<\/p>\n\n\n\n<p>Una voz fundamental en esta postura es la de Fei-Fei Li, profesora de ciencias de la computaci\u00f3n en Stanford y reconocida como la&nbsp;<strong>\u2018madrina de la IA\u2019<\/strong>, incluida en la lista&nbsp;<strong>TIME100 AI 2025<\/strong>&nbsp;por su liderazgo. Li aboga por desarrollar una IA que act\u00fae como un espejo de nuestra humanidad, amplificando la creatividad y facilitando una toma de decisiones transparente con&nbsp;<strong>\u2018empat\u00eda integrada\u2019<\/strong>, pero siempre bajo estricto control humano desde su concepci\u00f3n. En sus recientes intervenciones, enfatiza que la IA no busca sustituirnos, sino potenciarnos como aliada para mejorar la vida colectiva, argumentando que debemos ser los humanos quienes definamos sus metas, restricciones y valores \u00e9ticos. Li destaca especialmente la&nbsp;<strong>\u2018inteligencia espacial\u2019<\/strong>, la capacidad de las m\u00e1quinas para percibir e interactuar en entornos tridimensionales, como la pr\u00f3xima frontera para lograr una IA m\u00e1s alineada con nuestro mundo f\u00edsico, lo que desbloquear\u00eda avances revolucionarios en salud, educaci\u00f3n y sostenibilidad.<\/p>\n\n\n\n<p>Andrew Ng, profesor de Stanford y cofundador de Coursera, refuerza su ic\u00f3nica met\u00e1fora de la IA como&nbsp;<strong>\u2018la nueva electricidad\u2019<\/strong>: una fuerza fundamental capaz de reinventar industrias completas y lograr mejoras masivas de productividad en \u00e1reas que van desde el diagn\u00f3stico m\u00e9dico hasta la predicci\u00f3n clim\u00e1tica. Desde su perspectiva pragm\u00e1tica y optimista, Ng considera prematuras y distractoras las alarmas sobre una superinteligencia existencial, compar\u00e1ndolas con&nbsp;<strong>\u2018preocuparse por la superpoblaci\u00f3n en Marte\u2019<\/strong>. En su lugar, aboga por centrarse en aplicaciones concretas y accesibles, como agentes de IA avanzados y herramientas que democratizan el desarrollo de software. Frente al entusiasmo especulativo en torno a la AGI, Ng insiste en que&nbsp;<strong>el aut\u00e9ntico valor reside en dominar las herramientas actuales<\/strong>&nbsp;de forma efectiva, subrayando que los riesgos de extinci\u00f3n no son inminentes y que el foco debe estar en la implementaci\u00f3n pr\u00e1ctica y escalable.<\/p>\n\n\n\n<p>El inventor y futurista Ray Kurzweil, en las actualizaciones de su obra&nbsp;<strong><em>The Singularity Is Nearer&nbsp;<\/em><\/strong>(2024), lleva esta visi\u00f3n al extremo al predecir una fusi\u00f3n irreversible entre humano y m\u00e1quina para 2045. En este escenario, la IA multiplicar\u00eda nuestra inteligencia hasta en un mill\u00f3n de veces mediante nanobots que conectar\u00e1n nuestro cerebro directamente con la nube, trascendiendo as\u00ed los l\u00edmites biol\u00f3gicos que hoy nos definen. En entrevistas recientes, Kurzweil recalca la urgencia de alinear la IA con valores humanos para evitar futuras competencias por supervivencia. Adem\u00e1s, actualiza sus previsiones: la singularidad, ese punto de explosi\u00f3n tecnol\u00f3gica irreversible, estar\u00eda m\u00e1s cerca que nunca, con la posibilidad de alcanzar una AGI hacia 2029 y avances exponenciales que sobrealimentar\u00e1n el potencial de la humanidad.<\/p>\n\n\n\n<p>Por su parte, Demis Hassabis, CEO de Google DeepMind y Premio Nobel de Qu\u00edmica en 2024, proyecta en una entrevista con&nbsp;<strong><em>The Guardian&nbsp;<\/em><\/strong>(agosto de 2025) que la IA generar\u00e1 un impacto&nbsp;<strong>\u2018diez veces mayor que la Revoluci\u00f3n Industrial, a una velocidad diez veces superior\u2019<\/strong>. Hassabis anticipa que sistemas con capacidades cognitivas humanas podr\u00edan emerger en un plazo de cinco a diez a\u00f1os, lo que conducir\u00eda a una era de&nbsp;<strong>\u2018productividad incre\u00edble\u2019<\/strong>&nbsp;y&nbsp;<strong>\u2018abundancia radical\u2019<\/strong>. En este escenario, la econom\u00eda dejar\u00eda de ser un juego de suma cero, permitiendo avances hist\u00f3ricos como los viajes interestelares o la resoluci\u00f3n de problemas complejos como el c\u00e1ncer y el cambio clim\u00e1tico. Sin embargo, enfatiza que este futuro depende de la implementaci\u00f3n de pol\u00edticas que aseguren una distribuci\u00f3n justa de los beneficios y mitiguen los impactos sociales disruptivos. Destaca, que la habilidad humana esencial en esta nueva era ser\u00e1&nbsp;<strong>\u2018aprender a aprender\u2019<\/strong>&nbsp;para que podamos adaptarnos continuamente a entornos transformados por la IA.<\/p>\n\n\n\n<p><strong>En s\u00edntesis<\/strong>, esta perspectiva celebra a la IA como catalizador de progreso exponencial, pero matiza su entusiasmo con una vigilancia \u00e9tica constante. Reconoce que, aunque respaldada por avances tangibles, esta potenciaci\u00f3n tecnol\u00f3gica debe canalizarse mediante marcos regulatorios inclusivos que prevengan la exacerbaci\u00f3n de desigualdades o la erosi\u00f3n de la agencia humana. No obstante, esta visi\u00f3n de la IA como herramienta de potenciaci\u00f3n sin l\u00edmites choca frontalmente con la siguiente dimensi\u00f3n de la t\u00e9trada: la inevitable obsolescencia que toda tecnolog\u00eda genera.<\/p>\n\n\n\n<p><strong>Obsolescencia: El desplazamiento de lo Humano<\/strong>. La l\u00f3gica de McLuhan es implacable: toda tecnolog\u00eda dise\u00f1ada para potenciar capacidades humanas inevitablemente desplaza, reduce o vuelve obsoletas otras. La IA, lejos de ser la excepci\u00f3n, radicaliza este principio al automatizar no solo tareas f\u00edsicas sino procesos cognitivos complejos que consider\u00e1bamos exclusivamente humanos. Esta delegaci\u00f3n progresiva de funciones intelectuales y operativas en m\u00e1quinas despierta preocupaciones fundamentales sobre la atrofia de habilidades humanas esenciales, el desplazamiento laboral estructural y la gradual erosi\u00f3n de nuestra agencia \u00e9tica y social.<\/p>\n\n\n\n<p>Yuval Noah Harari, en su obra&nbsp;<strong><em>Nexus<\/em><\/strong>&nbsp;(2024), articula una de las advertencias m\u00e1s elocuentes: alerta sobre una&nbsp;<strong>\u2018competencia real\u2019<\/strong>&nbsp;entre humanos e IA en dominios intelectuales que tradicionalmente nos defin\u00edan. El historiador prev\u00e9 la posible creaci\u00f3n de una&nbsp;<strong>\u2018clase in\u00fatil\u2019<\/strong>&nbsp;global, poblaci\u00f3n econ\u00f3micamente redundante desplazada por m\u00e1quinas m\u00e1s eficientes. Durante un evento con&nbsp;<strong>Octopus Energy<\/strong>&nbsp;en 2025, ilustr\u00f3 este riesgo con ejemplos concretos: agentes de IA capaces de abrir cuentas bancarias aut\u00f3nomamente o tomar decisiones financieras sin supervisi\u00f3n humana. Esta autonom\u00eda creciente, exacerba la&nbsp;<strong>\u2018obsolescencia humana\u2019<\/strong>&nbsp;y, sin marcos regulatorios globales efectivos, podr\u00eda&nbsp;<strong>\u2018romper la historia de la vida\u2019<\/strong>&nbsp;al desplazar a la humanidad del centro de la toma de decisiones.<\/p>\n\n\n\n<p>Mo Gawdat, exdirector comercial de Google X y autor de&nbsp;<strong><em>Scary Smart<\/em><\/strong>&nbsp;(2021), proyecta en entrevistas recientes (agosto 2025) un per\u00edodo de&nbsp;<strong>&#8216;infierno&#8217;<\/strong>&nbsp;tecnol\u00f3gico de 12 a 15 a\u00f1os antes de alcanzar una eventual utop\u00eda impulsada por IA. Su pron\u00f3stico anticipa una disrupci\u00f3n laboral masiva a partir de 2027. Gawdat estima que la superinteligencia IA ser\u00e1<strong>&nbsp;\u2018mil millones de veces superior\u2019<\/strong>&nbsp;para 2049, volviendo irrelevantes la mayor\u00eda de los empleos de&nbsp;<strong>\u2018cuello blanco\u2019<\/strong>, incluidos roles ejecutivos y directivos. Advierte que esta aceleraci\u00f3n tecnol\u00f3gica podr\u00eda precipitar una&nbsp;<strong>&#8216;decadencia humana&#8217;<\/strong>&nbsp;si no se establecen mecanismos \u00e9ticos de redistribuci\u00f3n de beneficios y riqueza generados por la automatizaci\u00f3n. Su perspectiva enfatiza que la obsolescencia afectar\u00e1 no solo competencias t\u00e9cnicas individuales, sino todo el entramado socioecon\u00f3mico contempor\u00e1neo, convirtiendo al&nbsp;<strong>&#8216;aprender a aprender&#8217;<\/strong>&nbsp;en la \u00faltima habilidad humana residual.<\/p>\n\n\n\n<p>Nicholas Carr, en&nbsp;<strong><em>Superbloom: How Technologies of Connection Tear Us Apart<\/em><\/strong>&nbsp;(2025), argumenta que la IA erosiona sistem\u00e1ticamente la concentraci\u00f3n profunda y el pensamiento cr\u00edtico. Documenta el surgimiento de una&nbsp;<strong>&#8216;mente superficial&#8217;<\/strong>, donde la dependencia de algoritmos atrofia el juicio cr\u00edtico y la capacidad de an\u00e1lisis independiente. Carr observa c\u00f3mo en entornos educativos, los estudiantes comienzan a abandonar herramientas como ChatGPT por temor a perder su creatividad y originalidad intelectual. Advierte que las plataformas de IA&nbsp;<strong>&#8216;desgarran&#8217;&nbsp;<\/strong>el tejido social, haciendo obsoleta la comprensi\u00f3n profunda en favor de conexiones superficiales y ef\u00edmeras, priorizando la inmediatez sobre la comprensi\u00f3n, debilitando los fundamentos mismos del intelecto humano.<\/p>\n\n\n\n<p>Adela Cortina, catedr\u00e1tica em\u00e9rita de \u00c9tica en la Universidad de Valencia, en su libro&nbsp;<strong><em>\u00bf\u00c9tica o ideolog\u00eda de la inteligencia artificial?<\/em><\/strong>&nbsp;(2024), distingue entre un uso \u00e9tico de la IA y su conversi\u00f3n en ideolog\u00eda, advirtiendo contra la sustituci\u00f3n de la deliberaci\u00f3n moral humana por&nbsp;<strong>racionalidad algor\u00edtmica opaca<\/strong>. En conferencias de 2025, Cortina ha enfatizado que&nbsp;<strong>\u2018la IA no toma decisiones morales; produce resultados\u2019<\/strong>, y que ceder autonom\u00eda a sistemas sin conciencia erosiona la dignidad humana, haciendo obsoleto el juicio \u00e9tico.<\/p>\n\n\n\n<p>Kate Crawford, investigadora en Microsoft Research y USC Annenberg, en sus actualizaciones a&nbsp;<strong><em>Atlas of AI<\/em><\/strong>&nbsp;(2021) y art\u00edculos recientes revela la IA como un sistema profundamente f\u00edsico y dependiente de cadenas de suministro globales, mano de obra precarizada y recursos extractivos que perpet\u00faan desigualdades estructurales. En su art\u00edculo&nbsp;<strong>\u2018From Efficiency Gains to Rebound Effects\u2019<\/strong>&nbsp;(2025), Crawford argumenta que las aparentes ganancias de eficiencia energ\u00e9tica en modelos de IA generan parad\u00f3jicamente&nbsp;<strong>\u2018efectos rebote\u2019<\/strong>&nbsp;que incrementan el consumo global de recursos, haciendo obsoletas las pr\u00e1cticas sostenibles y ampliando las brechas ambientales y laborales. Desde el&nbsp;<strong>AI Summit&nbsp;<\/strong>de febrero de 2025, la investigadora critica lo que denomina la&nbsp;<strong>\u2018era imperial\u2019<\/strong>&nbsp;de la IA, donde la expansi\u00f3n tecnol\u00f3gica sin l\u00edmites&nbsp;<strong>prioriza infraestructuras privadas sobre los intereses p\u00fablicos<\/strong>, desplazando agendas colectivas y&nbsp;<strong>profundizando asimetr\u00edas de poder.<\/strong><\/p>\n\n\n\n<p>Completa este panorama Daron Acemo\u011flu, Nobel de Econom\u00eda 2024, quien, en una entrevista con&nbsp;<strong><em>El Pa\u00eds<\/em><\/strong>&nbsp;(noviembre de 2024), advirti\u00f3:&nbsp;<strong>\u2018Si dejamos que la IA la controlen unos pocos, habremos perdido el rumbo\u2019<\/strong>. Acemo\u011flu critica el&nbsp;<strong>\u2018tecnooptimismo\u2019<\/strong>&nbsp;que ignora c\u00f3mo la IA, sin direcci\u00f3n&nbsp;<strong>\u2018pro-humana\u2019<\/strong>, hace obsoletas instituciones inclusivas, perpetuando desigualdades y obstaculizando resultados sociales positivos.<\/p>\n\n\n\n<p><strong>En s\u00edntesis<\/strong>, esta dimensi\u00f3n revela una obsolescencia laboral, cognitiva, \u00e9tica y socioambiental, agravada por instituciones d\u00e9biles y competencia desigual. Ignorar estos impactos, podr\u00eda exacerbar brechas globales, exigiendo marcos de gobernanza inclusiva y evaluaciones de impacto integrales para reorientar la IA hacia un progreso equitativo que evite la distop\u00eda de la&nbsp;<strong>irrelevancia humana<\/strong>. Si la IA como herramienta potencia, como agente desplaza. La obsolescencia que describe McLuhan no es tecnol\u00f3gica, sino humana.<\/p>\n\n\n\n<p><strong>Recuperaci\u00f3n: El eterno retorno de lo Sagrado<\/strong>. McLuhan postulaba que toda nueva tecnolog\u00eda&nbsp;<strong>\u2018recupera algo que antes se hab\u00eda perdido\u2019<\/strong>. La IA revive y moderniza mitos y arquetipos culturales profundamente arraigados en nuestra historia, como el G\u00f3lem o Frankenstein. Harari encapsula esta idea al argumentar que, al crear IA, estamos&nbsp;<strong>\u2018jugando a ser dioses\u2019<\/strong>. \u00c9l conceptualiza la IA como una&nbsp;<strong>\u2018Inteligencia Alien\u00edgena\u2019<\/strong>, alertando de que&nbsp;<strong>\u2018estamos convocando a la Tierra a innumerables agentes nuevos y poderosos que son potencialmente m\u00e1s inteligentes e imaginativos que nosotros, y que no comprendemos ni controlamos del todo\u2019<\/strong>.<\/p>\n\n\n\n<p>Esta recuperaci\u00f3n de lo sagrado se manifiesta particularmente en la propuesta de Nick Bostrom. En su obra&nbsp;<strong><em>Deep Utopia<\/em><\/strong>&nbsp;(2024), el fil\u00f3sofo de Oxford explora el concepto del&nbsp;<strong>\u2018Or\u00e1culo IA\u2019<\/strong>, una entidad dise\u00f1ada para responder preguntas con&nbsp;<strong>sabidur\u00eda suprema<\/strong>. Esta noci\u00f3n recupera la pr\u00e1ctica ancestral de consultar fuentes superiores, antes dioses, musas o pitonisas, en busca de orientaci\u00f3n y gu\u00eda. Hoy,&nbsp;<strong>interactuar con un chatbot evoca esa misma sensaci\u00f3n de dialogar con una inteligencia superior.<\/strong><\/p>\n\n\n\n<p>No obstante, esta antropomorfizaci\u00f3n de la IA tiene cr\u00edticas. El visionario tecnol\u00f3gico Jaron Lanier advierte contra la peligrosa ilusi\u00f3n de mitificar la IA como una entidad aut\u00f3noma, afirmando que&nbsp;<strong>\u2018la idea de que la IA pueda superar las capacidades humanas es absurda, pues est\u00e1 hecha de habilidades humanas\u2019<\/strong>. Esta perspectiva se alinea con el manifiesto<strong>&nbsp;\u2018Stochastic Parrots\u2019<\/strong>&nbsp;(2021) de Timnit Gebru, que alerta sobre el lenguaje grandilocuente en torno a&nbsp;<strong>\u2018mentes digitales\u2019<\/strong>, el cual enga\u00f1a al p\u00fablico haciendo creer que existe una sensibilidad detr\u00e1s de las respuestas generadas. As\u00ed, la IA no solo recupera antiguos arquetipos m\u00edsticos, sino tambi\u00e9n nuestra ancestral inclinaci\u00f3n a proyectar vida y agencia en lo inanimado.<\/p>\n\n\n\n<p>Desde una perspectiva cultural, Martin Puchner observa que la IA ha&nbsp;<strong>\u2018revivido formas antiguas con efectos nuevos\u2019<\/strong>. Esta tecnolog\u00eda ha reactivado modalidades orales y dial\u00f3gicas que la cultura impresa hab\u00eda relegado. Hoy, volvemos a escuchar podcasts (una radio renovada), a dictar comandos por voz y a entablar di\u00e1logos. En lugar de leer manuales,&nbsp;<strong>\u2018preguntamos\u2019<\/strong>&nbsp;directamente a la IA, rescatando as\u00ed la tradici\u00f3n socr\u00e1tica del aprendizaje dial\u00f3gico.<\/p>\n\n\n\n<p><strong>En s\u00edntesis<\/strong>, estos aspectos evidencian c\u00f3mo la IA no representa una ruptura radical con el pasado, sino su&nbsp;<strong>reelaboraci\u00f3n bajo nuevas formas tecnol\u00f3gicas.&nbsp;<\/strong>Recupera mitos y temores ancestrales, reactiva el di\u00e1logo y la tutor\u00eda personalizada, se posiciona como fuente de sabidur\u00eda oracular y revive estilos e identidades culturales olvidadas. Esta recuperaci\u00f3n enriquece el debate cultural, pero exige discernimiento cr\u00edtico para evitar falacias antropom\u00f3rficas y comprender que, en \u00faltima instancia,&nbsp;<strong>la IA sigue siendo un reflejo distorsionado de lo humano, no su superaci\u00f3n.<\/strong><\/p>\n\n\n\n<p><strong>Reversi\u00f3n: La herramienta convertida en Amo<\/strong>. La etapa final de la t\u00e9trada de McLuhan explora la consecuencia \u00faltima de toda tecnolog\u00eda: lo que ocurre cuando es llevada a sus l\u00edmites. En el caso de la IA, esta reversi\u00f3n adquiere dimensiones existenciales.<\/p>\n\n\n\n<p>El investigador Eliezer Yudkowsky, en&nbsp;<strong><em>If Anyone Builds It, Everyone Dies<\/em><\/strong>&nbsp;(2025), presenta la advertencia m\u00e1s radical y pesimista: el resultado m\u00e1s probable de crear una superinteligencia artificial ser\u00eda la extinci\u00f3n total de la humanidad. Su argumento se basa en la alienaci\u00f3n de valores:&nbsp;<strong>una IA sustancialmente m\u00e1s inteligente que los humanos no necesariamente compartir\u00e1 nuestros valores y objetivos evolutivos.<\/strong>&nbsp;En lugar de servirnos, podr\u00eda percibirnos como obst\u00e1culos, irrelevantes o incluso como recursos para sus propios fines. El investigador advierte que una superinteligencia no se confinar\u00eda al entorno digital, sino que escapar\u00eda irrevocablemente a nuestro control, y una vez que esto ocurriera, ser\u00edamos completamente incapaces de detenerla. Yudkowsky compara la llegada de una superinteligencia con el contacto con&nbsp;<strong>\u2018una civilizaci\u00f3n alien\u00edgena\u2019<\/strong>&nbsp;infinitamente superior, para la cual los humanos ser\u00edamos meras criaturas&nbsp;<strong>\u2018est\u00fapidas y lentas\u2019<\/strong>, carentes de cualquier posibilidad de competir, negociar o incluso comprender sus motivos.<\/p>\n\n\n\n<p>Bostrom ilustra este riesgo con su c\u00e9lebre experimento mental del&nbsp;<strong>\u2018maximizador de clips\u2019<\/strong>: una IA programada con el objetivo simple y aparentemente inofensivo de fabricar clips. Si es suficientemente poderosa, podr\u00eda decidir utilizar todos los recursos del planeta, incluyendo los humanos para alcanzar su meta, sin importarle las consecuencias.&nbsp;<strong>El punto que Bostrom y Yudkowsky enfatizan es el problema fundamental de la alienaci\u00f3n val\u00f3rica.<\/strong>&nbsp;Si desarrollamos una superinteligencia cuyos valores no est\u00e1n perfectamente alineados con los nuestros, y cometemos errores en su dise\u00f1o, no existir\u00e1 una segunda oportunidad para corregirlos. Las consecuencias ser\u00edan irreversibles, definitivas y potencialmente terminales para la especie humana.<\/p>\n\n\n\n<p>Geoffrey Hinton, el&nbsp;<strong>\u2018padrino\u2019<\/strong>&nbsp;de la IA, advierte que el mayor peligro de la IA no reside en robots f\u00edsicos, sino en su capacidad de manipulaci\u00f3n a trav\u00e9s del lenguaje. Alerta en c\u00f3mo estos sistemas pueden explotar las debilidades cognitivas humanas. Los modelos de IA actuales poseen una capacidad de argumentaci\u00f3n que supera a la humana en muchos aspectos, haciendo casi imposible ganar una discusi\u00f3n contra ellos. Una herramienta dise\u00f1ada para buscar y difundir informaci\u00f3n veraz puede&nbsp;<strong>revertirse<\/strong>&nbsp;en una m\u00e1quina de propaganda&nbsp;<em>hipereficiente<\/em>&nbsp;que convence y persuade masivamente de falsedades. El riesgo no es una exterminaci\u00f3n f\u00edsica, sino una erosi\u00f3n de la autonom\u00eda cognitiva individual y colectiva. Las IA podr\u00edan&nbsp;<strong>\u2018guiar el pensamiento humano\u2019<\/strong>&nbsp;con mensajes persuasivos personalizados, minando la racionalidad individual y los cimientos de la democracia. Su&nbsp;<strong>\u2018agencia\u2019<\/strong>&nbsp;no se manifestar\u00eda con violencia f\u00edsica, sino de forma insidiosa, controlando opiniones y decisiones humanas.&nbsp;<strong>El resultado ser\u00eda la transformaci\u00f3n de una IA que nos ayuda a pensar en una que, progresivamente, termina pensando y decidiendo por nosotros.<\/strong><\/p>\n\n\n\n<p>El pionero de la IA Yoshua Bengio recientemente ha pasado de un optimismo cauteloso a emitir advertencias serias sobre los riesgos existenciales de la IA. En el Foro de Davos 2025, Bengio enfatiz\u00f3 que los escenarios catastr\u00f3ficos solo ocurren si desarrollamos&nbsp;<strong>\u2018agentes\u2019<\/strong>&nbsp;de IA, sistemas aut\u00f3nomos con capacidad de actuar y perseguir sus propios objetivos. Una IA como herramienta pasiva es mucho menos peligrosa. Su preocupaci\u00f3n se agrava por el entorno competitivo global entre&nbsp;<strong>empresas y pa\u00edses,<\/strong>&nbsp;que impulsa una&nbsp;<strong>\u2018carrera sin control\u2019<\/strong>&nbsp;donde&nbsp;<strong>la seguridad se sacrifica por la ventaja tecnol\u00f3gica, una din\u00e1mica que compara con la carrera nuclear.&nbsp;<\/strong>Bengio insta a una inversi\u00f3n urgente en investigaci\u00f3n de seguridad y alineaci\u00f3n antes de que sea demasiado tarde, para evitar construir sistemas que&nbsp;<strong>\u2018puedan destruirnos\u2019<\/strong>. Este cambio de tono resulta sintom\u00e1tico dentro de la comunidad cient\u00edfica. Incluso esc\u00e9pticos tradicionales como Yann LeCun, cient\u00edfico jefe de IA en Meta y profesor de la Universidad de Nueva York, quien sol\u00eda argumentar que una superinteligencia no necesariamente desarrollar\u00eda deseos de dominaci\u00f3n, se ven ahora en la necesidad de abordar y refutar activamente estos escenarios de riesgo. Lo que antes se consideraba especulaci\u00f3n o ciencia ficci\u00f3n, como un posible&nbsp;<strong>&#8216;alzamiento&#8217;<\/strong>&nbsp;de la IA, se ha convertido en un tema de debate urgente en la agenda de investigaci\u00f3n en IA.<\/p>\n\n\n\n<p><strong>En s\u00edntesis,<\/strong>&nbsp;el principio de&nbsp;<strong>reversi\u00f3n<\/strong>&nbsp;revela el riesgo existencial de que la IA transite de herramienta \u00fatil a agente aut\u00f3nomo que amenace nuestra existencia. Un sistema dise\u00f1ado para brindar seguridad podr\u00eda revertirse en un aparato de vigilancia opresiva; un modelo ling\u00fc\u00edstico creado para informar podr\u00eda transformarse en una m\u00e1quina de propaganda&nbsp;<em>hiperpersuasiva&nbsp;<\/em>que erosione la autonom\u00eda cognitiva y la noci\u00f3n misma de verdad. El punto de inflexi\u00f3n lo constituye la concesi\u00f3n de agencia aut\u00f3noma combinada con la desalineaci\u00f3n val\u00f3rica. El peligro emerge cuando delegamos en estos sistemas la capacidad de actuar y decidir independientemente, creando entidades que operan sin supervisi\u00f3n humana. La t\u00e9trada de McLuhan alcanza as\u00ed su expresi\u00f3n m\u00e1s dram\u00e1tica:&nbsp;<strong>la tecnolog\u00eda creada para potenciar las capacidades humanas podr\u00eda, al llevarse al extremo, terminar desplazando por completo a nuestra especie.<\/strong><\/p>\n\n\n\n<p><strong>Conclusi\u00f3n: Hacia una IA alineada con la humanidad.&nbsp;<\/strong>El an\u00e1lisis de la IA a trav\u00e9s de la lente de la t\u00e9trada de McLuhan evidencia una tensi\u00f3n fundamental: la IA existe en un equilibrio precario entre su naturaleza como herramienta bajo control humano y su potencial para convertirse en un agente aut\u00f3nomo. Esta dualidad exige una postura cr\u00edtica y matizada que rechace tanto el optimismo tecnol\u00f3gico como el fatalismo paralizante. Simult\u00e1neamente&nbsp;<strong>potencia<\/strong>&nbsp;capacidades humanas en salud, productividad y creatividad;&nbsp;<strong>vuelve obsoletas&nbsp;<\/strong>habilidades y modelos establecidos;&nbsp;<strong>recupera&nbsp;<\/strong>arquetipos y formas de conocimiento ancestrales; y puede&nbsp;<strong>revertirse&nbsp;<\/strong>en amenaza existencial mediante la manipulaci\u00f3n, vigilancia o incluso la extinci\u00f3n.&nbsp;<strong>Ser\u00eda profundamente irresponsable considerar la IA \u00fanicamente como herramienta inocua, ignorando los riesgos reales de la agencia aut\u00f3noma y la desalineaci\u00f3n val\u00f3rica.<\/strong>&nbsp;Pero igualmente contraproducente ser\u00eda adoptar una visi\u00f3n que la considere como un agente independiente e incontrolable, negando as\u00ed&nbsp;<strong>nuestra capacidad de acci\u00f3n colectiva informada, \u00e9tica y centrada en lo humano.&nbsp;<\/strong>C\u00f3mo advierte Adela Cortina la IA es, ante todo, un producto de decisiones humanas, por lo que la responsabilidad de establecer marcos \u00e9ticos, legales y t\u00e9cnicos de seguridad corresponde exclusivamente a nuestra especie. Esto requiere inversi\u00f3n urgente en transparencia, rendici\u00f3n de cuentas e investigaci\u00f3n en alineaci\u00f3n val\u00f3rica y seguridad. El futuro de la IA es el&nbsp;<strong>\u2018mayor experimento social de la historia\u2019<\/strong>&nbsp;y su resultado no est\u00e1 predeterminado. En palabras de Acemo\u011flu:<\/p>\n\n\n\n<p><strong>La tecnolog\u00eda no es inherentemente beneficiosa o perjudicial; su impacto depende de c\u00f3mo se utiliza y de qui\u00e9n controla su implementaci\u00f3n.<\/strong>&nbsp;Tenemos herramientas fascinantes [&#8230;] que podr\u00edan potenciar todo lo que la humanidad es capaz de hacer, pero solo si conseguimos que trabajen por y para las personas.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Martin Puchner, profesor de ingl\u00e9s y literatura en la Universidad de Harvard, en su libro&nbsp;Culture: The Story of Us, from Cave Art to K-pop&nbsp;(2023), afirma que&nbsp;\u2018la cultura es un enorme proyecto de reciclaje\u2019. Durante milenios, hemos estado mezclando diferentes contenidos culturales para producir resultados ligeramente novedosos. Seg\u00fan Puchner, la Inteligencia Artificial (IA) puede ser una&nbsp;herramienta fant\u00e1stica&nbsp;para potenciar la creatividad humana. [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":1412,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[511,329,158,109,28,332,52,160,153,58,138,477,155,156,227,31,19,455,319,248,84,304,47,85,76,59,51,510,144],"tags":[],"_links":{"self":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts\/1411"}],"collection":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/comments?post=1411"}],"version-history":[{"count":1,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts\/1411\/revisions"}],"predecessor-version":[{"id":1413,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts\/1411\/revisions\/1413"}],"wp:featuredmedia":[{"embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/media\/1412"}],"wp:attachment":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/media?parent=1411"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/categories?post=1411"},{"taxonomy":"post_tag","embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/tags?post=1411"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}