
Arquitectura de irresponsabilidad
El sábado 28 de febrero de 2026, primer día de la semana escolar en Irán, los alumnos de la escuela primaria Shajareh Tayyebeh llegaban a sus salas en el barrio Shahrak-e Al-Mahdi de Minab. A las 10:23, imágenes satelitales confirman que el edificio permanecía intacto. A las 10:45, un misil guiado impactó directamente en la escuela. El techo del edificio colapsó sobre los alumnos. Murieron 168 personas, en su mayoría niños de entre 7 y 12 años. Otras 95 personas resultaron heridas. Era el ataque con mayor número de bajas civiles en lo que va de la operación “Furia Épica”, la campaña militar conjunta entre Estados Unidos e Israel sobre infraestructura iraní. En las primeras 24 horas, el ejército estadounidense atacó aproximadamente 1.000 objetivos. La escuela Shajareh Tayyebeh estaba en la lista.
La UNESCO condenó la masacre como una violación grave de la protección que el derecho internacional otorga a los espacios educativos. Human Rights Watch fue explícita: “las fuerzas estadounidenses no cumplieron con su obligación de hacer todo lo factible para verificar que el objetivo era legítimo”. La pregunta que enseguida emergió no fue solo militar o jurídica: ¿quién apretó el botón?, sino también tecnológica, filosófica y ética: ¿qué sistema decidió que esa escuela era un objetivo legítimo? La investigación preliminar del Pentágono, publicada el 11 de marzo por The New York Times, determinó que un misil Tomahawk estadounidense fue el responsable “probable” de la destrucción de la escuela. La causa: “inteligencia obsoleta”. El edificio figuraba en las bases de datos militares como parte de un complejo militar del Cuerpo de la Guardia Revolucionaria Islámica (IRGC). Sin embargo, desde al menos 2016, el inmueble había sido separado de la base militar mediante un muro y convertido en escuela primaria. Ya en agosto de 2017, imágenes satelitales mostraban con claridad las líneas marcadas de una cancha de fútbol en el patio escolar. Investigaciones de The Washington Post, NBC News, Wired, Bloomberg y CBS News, conectan a Silicon Valley con el Pentágono a través de dos empresas: Palantir Technologies (Maven Smart System, fundada por Peter Thiel y dirigida por Alex Karp), y Anthropic (Claude, cofundada y dirigida por Dario Amodei). Sin embargo, el error no fue algorítmico en el sentido de que una IA “decidiera” atacar una escuela. Según la investigación de Semafor (18 de marzo de 2026), los analistas humanos que construyeron la lista de objetivos preaprobados trabajaron con bases de datos que no reflejaban que el edificio había dejado de ser una instalación militar en 2016. Esa inteligencia obsoleta fue ingresada al sistema, y el sistema la procesó eficientemente.
A los niveles actuales de capacidad de la IA, hay poco debate sobre quién es responsable de tomar decisiones basadas en el mal entrenamiento o alucinaciones de la IA. Lo que esto revela no exonera a la tecnología, sino que señala con más precisión el problema: cuando la inteligencia de base es defectuosa, el sistema no la cuestiona. La amplifica, la prioriza, le asigna coordenadas GPS y le adjunta una justificación legal automatizada. El modelo de lenguaje no sabe que el edificio tiene un patio de fútbol y 170 niños dentro. Más de 120 legisladores demócratas del Congreso estadounidense firmaron una carta exigiendo saber si la IA intervino en la selección del blanco, verificación humana y específicamente si Maven/Claude identificó la escuela como objetivo.
Jürgen Habermas, el filósofo alemán más traducido del mundo, que dedicó su vida a teorizar las condiciones del diálogo racional, falleció el 14 de marzo de 2026, a los 96 años. Su muerte ocurrió mientras el debate sobre la responsabilidad de la tragedia de Minab permanecía abierto. La coincidencia tiene algo de simbólico: el pensador que articuló con más rigor la diferencia entre comunicación y dominación dejaba el mundo en el momento en que una de sus tesis más oscuras se verificaba fatalmente. En una entrevista publicada en The Nation el 7 de julio de 2025, Habermas señaló:
El papel de la filosofía es ayudar a explicar lo que los descubrimientos revolucionarios o los cambios históricos significan en cada caso para nosotros como seres humanos.
Este artículo propone leer la tragedia de Minab, desde el enfoque de Habermas, porque ofrece un mapa conceptual extraordinariamente preciso del momento que vivimos. La tragedia de Minab no es un error de selección de objetivos. Es el producto de una civilización que ha sustituido el diálogo por el algoritmo, la deliberación pública por la racionalidad instrumental, y el derecho internacional por la velocidad de la cadena de muerte.
El Maven Smart System (MSS) es la plataforma de IA del Pentágono para la identificación y priorización de objetivos militares. En la conferencia AIPcon 9 (15 de marzo de 2026), Palantir lo describió: “es un tablero de estilo Kanban donde los operadores militares ven una lista de candidatos a objetivo. Hacen clic izquierdo para aprobar. Hacen clic derecho para rechazar”. La interfaz es de una simplicidad desconcertante. Lo que hay por debajo es Claude, el modelo de lenguaje de Anthropic, procesando datos de inteligencia clasificada en tiempo real. Anthropic fue fundada en 2021 por Dario Amodei, Daniela Amodei y otros ex investigadores de OpenAI con una misión declarada: “desarrollar inteligencia artificial segura y beneficiosa para la humanidad”. Claude fue diseñado con restricciones explícitas: no debería emplearse para vigilancia masiva de ciudadanos ni para armas autónomas que operen sin supervisión humana genuina. En noviembre de 2024, Anthropic estableció un acuerdo con Palantir y Amazon Web Services que permitió desplegar Claude en entornos con datos clasificados. En junio de 2025, lanzó “Claude Gov” para agencias de seguridad nacional. La tensión estalló cuando el Pentágono exigió que Claude pudiera ser utilizado para “todos los propósitos legales”, incluyendo vigilancia doméstica masiva y armamento autónomo. Anthropic se negó. El Secretario de Defensa estadounidense Pete Hegseth calificó a la empresa de “riesgo para la cadena de suministro”. El 27 de febrero de 2026, un día antes del inicio de la guerra en Irán, Trump firmó una orden ejecutiva instruyendo a todas las agencias federales a dejar de usar productos de Anthropic en un plazo de seis meses. Sin embargo, Claude sigue operando dentro de Maven identificando objetivos en Irán. Horas después de la orden de exclusión, el CEO de OpenAI, Sam Altman, anunció un acuerdo ampliado con el Pentágono sin las restricciones que Anthropic se había negado a eliminar. Altman admitió más tarde ante CNBC que el movimiento “parecía oportunista y descuidado”. El propio Dario Amodei declaró a NBC News: “No puedo garantizarte que haya un 100% de probabilidades de que los sistemas que construimos sean perfectamente fiables”. Esta admisión, formulada mientras Claude estaba siendo usado para identificar blancos en Irán, adquiere una dimensión moral que ningún comunicado corporativo puede digerir con facilidad.
Acción comunicativa versus acción estratégica: En su obra cumbre Teoría de la Acción Comunicativa (1981), Habermas establece una distinción fundamental. La acción comunicativa es aquella en que los actores buscan entenderse mutuamente mediante el lenguaje, empleando argumentos que deben poder ser sostenidos públicamente, orientados hacia el consenso genuino. La acción estratégica, en cambio, es aquella en que los actores buscan maximizar sus propios objetivos, usando a los otros, o a los sistemas, como medios para fines previamente establecidos. Para Habermas, sobre esta distinción descansa la diferencia entre democracia y dominación. La acción comunicativa es la base de las instituciones legítimas: parlamentos, tribunales, medios de comunicación libres, ciencia crítica. La acción estratégica, cuando invade el espacio de la deliberación pública, destruye la posibilidad de que los ciudadanos se gobiernen a sí mismos. Así, la racionalidad comunicativa es la capacidad de dar razones que puedan ser evaluadas intersubjetivamente: razones que cualquier persona afectada podría en principio aceptar en condiciones ideales de diálogo. La racionalidad instrumental o estratégica, por el contrario, calcula medios para fines, optimiza variables, maximiza resultados. No pregunta si el fin es legítimo. Solo pregunta si el medio es eficiente. El almirante Brad Cooper, jefe del Comando Central de Estados Unidos (CENTCOM) en una publicación en X señaló:
Nuestros combatientes están utilizando diversas herramientas avanzadas de IA. Estos sistemas nos ayudan a analizar grandes cantidades de datos en segundos.
Habermas escribió que la racionalidad comunicativa requiere que los participantes tengan tiempo, información y libertad para examinar las pretensiones de validez de una decisión. La guerra algorítmica destruye exactamente esas condiciones. El proceso de deliberación humana que debería preceder a cada decisión de atacar, identificación del objetivo, evaluación de la proporcionalidad, análisis del daño colateral, consideración del contexto civil, es comprimido, automatizado y delegado a un sistema que no puede ejercer juicio moral.
El mundo de la vida y la colonización sistémica: La segunda gran aportación de Habermas en su Teoría de la Acción Comunicativa es el concepto de Lebenswelt o mundo de la vida: “el trasfondo compartido de significados, prácticas, normas y comprensiones que hace posible la comunicación cotidiana”. Es el espacio donde vivimos, donde compartimos, donde reconocemos a los otros como seres humanos dignos. La escuela de Minab pertenece al mundo de la vida. Frente al mundo de la vida, Habermas identifica dos sistemas que operan con lógicas propias: el sistema económico, que se coordina a través del dinero, y el sistema administrativo-político, que se coordina a través del poder. Estos sistemas no son en sí mismos patológicos: “son necesarios para la reproducción material de sociedades complejas”. El problema surge cuando los imperativos del sistema invaden y colonizan el mundo de la vida, cuando la lógica del dinero y del poder sustituye a la comunicación como mecanismo de coordinación social. Por ejemplo, las acciones de Palantir subieron un 15% en la semana posterior al inicio de los ataques. Sin embargo, Anthropic tampoco sufrió económicamente: quince días antes de la exclusión había cerrado la mayor ronda privada de financiamiento en la historia de la IA, y su marca “ética” atrajo inversores y clientes en el mercado civil masivo. La pérdida del contrato militar resultó marginal frente al boom comercial.
La guerra algorítmica lleva esta colonización a su extremo: la vida misma, es reducido a un dato en una lista de objetivos militares. La escuela Shajareh Tayyebeh fue “identificada” por el sistema de inteligencia como una potencial instalación militar. Un analista humano con tiempo suficiente, imágenes actualizadas y responsabilidad moral sobre su juicio habría detectado el error. Craig Jones, profesor en la Universidad de Newcastle y experto en guerra moderna, en su análisis para Democracy Now! del 18 de marzo de 2026, señaló: “si hubiera habido vigilancia por dron durante media hora antes del ataque, habrían visto a 170 niños siendo dejados por sus padres. Eso habría cambiado la decisión”. Pero la lógica del sistema: 1.000 objetivos por día, un clic de aprobación por objetivo es estructuralmente incompatible con ese tiempo.
La esfera pública y sus condiciones de posibilidad: Un tercer elemento central en la propuesta de Habermas es la esfera pública. “El espacio social donde los ciudadanos debaten los asuntos comunes, forman opinión y ejercen control sobre el poder”. Una esfera pública genuinamente democrática requiere condiciones estructurales: libertad de expresión, acceso igualitario a la información, ausencia de distorsiones sistemáticas, y la posibilidad de que los argumentos sean evaluados exclusivamente por su fuerza racional, no por el poder de quien los enuncia. Lo que ocurrió en los días posteriores a la tragedia de Minab ilustra con precisión la distorsión estratégica del discurso público. En Irán, el gobierno cortó el acceso a internet. En Estados Unidos, la administración Trump negó la responsabilidad del ataque durante más de una semana, atribuyéndolo al gobierno iraní. El 7 de marzo, Trump declaró ante los medios: “En mi opinión, basándome en lo que he visto, eso lo hizo Irán. No tienen ninguna precisión”. Fue la investigación periodística independiente, la que estableció mediante verificación de videos, análisis satelital y fuentes del Pentágono que el ataque fue responsabilidad estadounidense. Esto es, según Habermas, la función de la esfera pública: contra el poder que oculta, la comunicación que ilumina.
Pero hay una dimensión de opacidad que supera a la propaganda gubernamental: la opacidad técnica del propio sistema. Cuando Claude, integrado en Maven, genera una lista de objetivos priorizados, ¿bajo qué criterios lo hace? ¿Qué datos alimentaron el modelo? ¿Qué margen de incertidumbre tiene la clasificación de un edificio concreto? Estas preguntas no tienen respuesta pública porque el sistema opera en redes clasificadas, con datos clasificados, bajo lógicas clasificadas. Incluso los propios operadores militares posiblemente no saben con exactitud qué criterios usó el modelo para clasificar el edificio de Minab como potencial objetivo. La democracia deliberativa presupone que los actores pueden rendir cuentas de sus decisiones. ¿Cómo rinde cuentas un clic?
Uno de los argumentos recurrentes en defensa del uso de IA en selección de objetivos militares es que el ser humano siempre está “en el ciclo”: un operador aprueba cada ataque. El análisis del Maven Smart System revela que esta afirmación es estructuralmente engañosa. Cuando un sistema genera 1.000 candidatos a objetivo en un día, el “control humano” se convierte en una ficción. No es posible evaluar en segundos si un edificio en determinadas coordenadas es una escuela separada de una instalación militar por un muro construido hace diez años. La velocidad destruye la deliberación. La responsabilidad queda suspendida en una cadena de pasos técnicos, cada uno individualmente inocente. No es del algoritmo, no es un agente moral. No es del operador, solo hizo clic. No es de Palantir, provee herramientas. No es de Anthropic, su modelo “solo apoya la decisión humana”. No es del analista de inteligencia: se limitó a catalogar el objetivo antes de que fuera una escuela. El resultado de esta arquitectura de irresponsabilidad son 168 muertos, la mayoría menores de 12 años, y ningún responsable claro. El concepto de “arquitectura de irresponsabilidad” no es una metáfora: es una descripción precisa de cómo sistemas complejos distribuyen la responsabilidad hasta hacerla invisible. Cada nodo de la cadena puede señalar al nodo anterior. Nadie tomó la decisión. Todos la tomaron.
La tragedia de Minab no puede comprenderse de forma aislada. En Gaza, las fuerzas israelíes utilizaron los sistemas Lavender y Gospel para generar automáticamente listas de objetivos con criterios estadísticos que aceptaban un margen de error de varios civiles muertos por cada combatiente eliminado. Según UNICEF, más de 50.000 niños murieron en 23 meses de conflicto. Lo que en Gaza fue un proceso de dos años, en Irán ocurrió en horas. El patrón es sistemático: la IA de selección de objetivos, combinada con la erosión deliberada de las normas de protección de personas, produce una aceleración de las bajas civiles que el derecho internacional humanitario no fue diseñado para regular. Sus normas presuponen tiempos de deliberación humana que el sistema algorítmico ha eliminado estructuralmente.
Los sistemas desarrollados por Palantir, probados en Gaza y escalados en Irán, constituyen un modelo de negocio exportable: IA de análisis de inteligencia, interfaces de aprobación rápida, integración con sistemas de armas de precisión, empaquetados como producto para el mercado global de defensa. La misma infraestructura que procesa correos electrónicos puede procesar listas de objetivos militares. La misma IA que recomienda películas puede recomendar blancos. Esto no es una metáfora: es la arquitectura real del sistema Maven-Claude.
La Teoría de la Acción Comunicativa fue escrita para comprender cómo las sociedades modernas pueden reproducirse sin destruir las condiciones de su propia legitimidad. Su capacidad explicativa frente al caso que analizamos es perturbadora precisamente porque los procesos que Habermas identificó: colonización del mundo de la vida, distorsión de la esfera pública, sustitución de la razón comunicativa por la razón estratégica, han alcanzado en la guerra algorítmica su forma más extrema. Si se toma en serio la ética del discurso de Habermas que una norma solo es válida si todos los afectados por ella podrían aceptarla en condiciones ideales de diálogo, la conclusión es devastadora para el modelo actual. Las personas más afectadas por el sistema de selección automatizada de objetivos militares, las poblaciones civiles en zonas de conflicto no participaron en su diseño, no tienen acceso a información sobre cómo funciona y no tienen ningún mecanismo para impugnar sus decisiones.
El antídoto que Habermas proponía no es técnico sino político: la ampliación de los espacios de deliberación pública, la exigencia de que el poder rinda cuentas en el lenguaje del argumento y no en el lenguaje de la eficiencia. Eso significa, en términos concretos, cuatro cosas. Primero, transparencia radical: los criterios de selección de objetivos militares deben ser auditables por representantes electos, organismos internacionales y sociedad civil. Segundo, responsabilidad explícita: una cadena de responsabilidad jurídica clara que no se disuelva en la opacidad técnica. Tercero, ralentización deliberada: cualquier sistema que genere candidatos a objetivo debe operar a una velocidad compatible con la deliberación humana. Y cuarto, participación de las poblaciones afectadas en el diseño de los marcos regulatorios. Ninguna de estas condiciones existe actualmente. Su ausencia no es un accidente técnico: es el resultado de decisiones políticas y económicas que han subordinado la razón comunicativa a la razón estratégica. Habermas escribió que cuando la racionalidad sistémica coloniza todos los espacios de la vida humana, las patologías sociales se vuelven sistémicas. La tragedia de Minab no es un argumento técnico. Es un argumento moral. Y los argumentos morales, son exactamente aquellos que ninguna máquina puede procesar: solo pueden ser escuchados por seres humanos capaces de sentir vergüenza. En palabras de Habermas:
La cuestión de si será posible domesticar el belicismo de las grandes potencias sigue siendo, por el momento, una cuestión política abierta. La idea de que la historia del mundo fuera un matadero no es un hecho fundamentado en la naturaleza humana.