AI

Responsabilidad entre desiguales

En el primer trimestre de 2026, cuatro empresas: Amazon, Alphabet, Microsoft y Meta, anunciaron un gasto combinado en infraestructura de IA situado entre 650.000 y 700.000 millones de dólares para el año en curso, casi el doble que en 2025. Mientras el capital se concentra a una escala sin precedentes históricos, el AI Index Report 2026 de Stanford documenta que la brecha de rendimiento entre el mejor modelo estadounidense y el mejor modelo chino se ha reducido al 2,7%, frente a los 17,5 a 31,6 puntos porcentuales que separaban a ambos países en mayo de 2023. DeepSeek y Qwen de Alibaba han desplazado a Llama de Meta como referencia de código abierto global. Y, sin embargo, según el estudio Trust, attitudes and use of artificial intelligence: A global study 2025 de la Universidad de Melbourne y KPMG, basado en 48.340 personas de 47 países, más de la mitad de las personas no confían en la IA y un 70% exige regulación, pero pocos creen que sus gobiernos estén a la altura. Nunca tanto capital había sido depositado en tan pocas manos para producir una tecnología sobre la que tantos desconfían. La desconfianza no es ruido emocional ni déficit pedagógico; es la lectura intuitiva de una asimetría real entre quienes deciden y quienes serán afectados. En ese vacío de legitimidad se ha instalado el debate sobre un nuevo contrato social. Conviene examinar quién lo está formulando, con qué supuestos y con qué silencios.

Movimiento de OpenAI. El 6 de abril de 2026, OpenAI publicó Industrial Policy for the Intelligence Age: Ideas to Keep People First, un documento de trece páginas que propone, entre otras medidas, un fondo de riqueza pública financiado en parte por las propias empresas de IA, una reforma fiscal orientada a gravar la automatización, una semana laboral de cuatro días como “dividendo de eficiencia”, redes de protección social adaptativas y monitoreo de modelos peligrosos. La propuesta es consistente con el trabajo de Daron Acemoglu, David Autor y Simon Johnson en Building Pro-Worker Artificial Intelligence (2026), según el cual solo las tecnologías que generan tareas humanas nuevas son inequívocamente pro-trabajadores, y la arquitectura fiscal vigente que grava más el trabajo que el capital, acelera la automatización indeseada.

Tomada en abstracto, la propuesta de OpenAI es razonable; tomada en contexto, suscita reservas. El documento fue publicado mientras esta empresa completa su conversión societaria, prepara salidas de capital y cabildea contra legislaciones vinculantes en California y Europa. Como observa Nathan Gardels en Noema, el texto es “más visionario que cualquier cosa que haya surgido de los responsables políticos”; pero, como advierte Lucía Velasco de Naciones Unidas, esboza un entorno donde su autor opera “con una libertad significativa bajo restricciones que él mismo ha definido”.

La fórmula central del documento redistribuye prosperidad, pero deja intacta, e incluso refuerza, la arquitectura de captura y producción de conocimiento concentrada en un puñado de corporaciones. Pedirle a OpenAI que diseñe las reglas del juego donde es el jugador más poderoso no es solo un problema moral; es un error categorial sobre qué es legítimo. El documento no debería ser descartado como cinismo ni adoptado como visión; debe ser tratado como lo que es: una posición negociadora unilateral en una conversación que aún no existe.

El desplazamiento ontológico. Donde OpenAI opera en el plano redistributivo, José Ignacio Latorre desplaza el debate al plano ontológico. En Un nuevo contrato social: Gobernar un mundo con inteligencias no humanas (2026), el físico teórico, catedrático de la Universidad de Barcelona y director del Center for Quantum Technologies de Singapur sostiene que el contrato social de Rousseau está agotado porque los sujetos del mundo han cambiado: el contrato civil regula la convivencia humana; el natural reconoce a la naturaleza como sujeto de derechos; el inteligente incorpora a la IA como copartícipe del orden colectivo.

La provocación es valiosa: nos obliga a preguntarnos por los tipos de actores que ingresan a la esfera de la decisión. Pero algunas de sus formulaciones: que la IA “tomará sin duda decisiones más sensatas que muchos humanos” o que “cuando la IA tome el control, la corrupción pasará a ser un mal del pasado”, deslizan una cesión de soberanía que es exactamente lo contrario de lo que parece proponer. Quien controla las funciones objetivo de los sistemas no es “la IA” sino las pocas corporaciones y Estados que las entrenan. Sustituir corrupción humana por opacidad algorítmica no es descentralizar el poder: es trasladarlo.

Hay además un problema más profundo. La metáfora del contrato presupone partes con capacidad de consentir, negociar y exigir cumplimiento. ¿Pueden las IA actuales consentir? ¿Puede la naturaleza opinar? El contractualismo, es una herramienta limitada para pensar relaciones radicalmente asimétricas entre entidades no equiparables. Como argumentó Charles Mills en The Racial Contract (1997), incluso entre humanos el contrato funcionó históricamente como mecanismo de exclusión disfrazado de universalidad. Extenderlo a entidades no consintientes amenaza con repetir el gesto: legitimar a posteriori una asimetría que no se eligió.

El criterio epistemológico. Donde Latorre se mueve en la ontología, David Deutsch desplaza la pregunta a la epistemología. En The Beginning of Infinity (2011) y Creative Blocks (2012), el físico de Oxford sostiene que el conocimiento explicativo: la capacidad de generar explicaciones “difíciles de variar” que transforman el mundo, es el motor del progreso y que cualquier orden social debe evaluarse por un criterio simple: ¿facilita o dificulta la creación ilimitada de conocimiento explicativo?

Operacionalizado, este criterio implica resistir cualquier régimen corporativo o estatal, que monopolice el cómputo, los datos o los métodos, porque la concentración limita la base de quienes pueden formular y poner a prueba conjeturas. Implica preferir reglas falsables y revisables sobre principios inmutables. Implica que la opacidad algorítmica es objetable no solo por injusticia procesal sino porque impide la crítica, condición sine qua non de la corrección del error. Y, en su lectura más radical, implica que una IA verdaderamente creadora de explicaciones tendría que ser tratada como “persona”, no como herramienta, porque su capacidad de generar conocimiento dependería de su libertad para fallar y discrepar.

La tesis de Deutsch es estimulante, pero no resuelve por sí sola el problema político. Que un orden facilite la generación de conocimiento no garantiza que distribuya justamente sus frutos. La epistemología abierta es condición necesaria, pero no suficiente, de un orden legítimo.

La ética como contrapeso, y sus límites. Frente al optimismo redistributivo, la audacia ontológica y la apuesta epistemológica, la tradición de la ética cívica introduce un recordatorio fundamental. Adela Cortina, catedrática emérita de Ética de la Universidad de Valencia, sostiene que los sistemas de IA “no son autónomos ontológicamente ni éticamente, sino solo funcionalmente”: los algoritmos no deciden, deciden las personas que los diseñan, despliegan y supervisan. Su exigencia de que jamás se tome una decisión que afecte a una persona sin revisión humana fija un límite que tensiona tanto la cesión de Latorre como las salvaguardas de OpenAI. Por su parte, Daniel Innerarity, catedrático de Filosofía Política de la Universidad de Navarra, ha acuñado el término “sonambulismo digital” para describir la delegación de decisiones sin haber construido las instituciones para supervisarlas.

Ambos aportes son valiosos, pero merecen también análisis. La regla de revisión humana universal se enfrenta a límites prácticos crecientes: en sistemas que procesan millones de decisiones por segundo, la “supervisión humana” tiende a degradarse en validaciones formales sin examen real, como ha documentado Frank Pasquale en The Black Box Society (2015). El principio sigue siendo correcto en su intención, pero su implementación requiere rediseñar procesos, no solo añadir un humano al final del flujo. La fórmula de Innerarity sobre el “ecosistema” que combine lo mejor de humanos y máquinas, por su parte, deja sin resolver la pregunta política: ¿quién diseña ese ecosistema, con qué legitimidad y bajo qué accountability?

Voces ausentes. El debate, tal como se articula en los círculos donde se publican documentos como el de OpenAI, padece dos ausencias estructurales. La primera es teórica. La crítica al capitalismo de plataformas y vigilancia de Shoshana Zuboff, Nick Couldry, Ulises Mejías, los estudios sobre extractivismo de datos en el Sur Global de Paola Ricaurte, Sebastián Lehuedé, la economía política de la infraestructura de Kate Crawford en Atlas of AI, y los marcos jurídicos sobre fiduciarios de la información de Jack Balkin y Jonathan Zittrain, entre otros, ofrecen lenguajes precisos para nombrar lo que la conversación oficial tiende a eufemizar. Sin ellos, la discusión flota en abstracciones que rara vez precisan los focos: la propiedad del cómputo, la captura del Estado regulador, el impacto ecológico de los centros de datos.

La segunda ausencia es geopolítica. Mientras Estados Unidos, Europa y China ocupan el centro del escenario, regiones enteras del planeta construyen sus propias respuestas sin ser vistas. Chile actualizó en 2024 su Política Nacional de IA y encabeza el Índice Latinoamericano de IA elaborado por CENIA y la CEPAL. Brasil debate un marco regulatorio basado en riesgos con derecho a revisión humana. La Unión Africana adoptó en julio de 2024 una Estrategia Continental que plantea soberanía de datos y desarrollo de capacidades locales. India avanza con BHASHINI, su infraestructura pública digital para sus veintidós lenguas oficiales, migrada en 2026 a una nube soberana. Las cifras son modestas en comparación con los 700.000 millones de los gigantes tecnológicos, pero importan más por lo que representan: una vía alternativa al capitalismo de plataformas, donde la infraestructura crítica se concibe como bien público.

A esto se suma una resistencia social viva y a menudo invisibilizada en los foros globales: protestas contra centros de datos en Querétaro y Atacama por el consumo de agua, organización de trabajadores de etiquetado en Kenia y Filipinas, campañas contra el extractivismo de datos en el Sudeste Asiático. Estas luchas no son apéndice del debate sobre el contrato social: son su materia prima.

¿Es el “contrato” la metáfora correcta? Llegados a este punto, conviene ser claros. El contractualismo presupone sujetos racionales con capacidad de consentir, partes simétricas o al menos equiparables, y una posición desde la cual negociar términos. Ninguna de estas condiciones se cumple cuando una de las “partes”: la IA, es producto de la otra, ni cuando el “consentimiento” se sustituye por funciones objetivo, definidas unilateralmente. La naturaleza, por su parte, no negocia: reacciona. Y los pueblos del Sur Global, en este debate, han sido convocados más como espectadores que como partes.

La conclusión no es que abandonemos toda ambición normativa, sino que reconozcamos los límites de la metáfora. “Contrato” sugiere un acto fundacional entre iguales; lo que necesitamos es un marco continuo de responsabilidad entre desiguales. Tres tradiciones ofrecen herramientas más adecuadas. La ética del cuidado de Joan Tronto y Virginia Held, enfatiza la asimetría y la responsabilidad sostenida sobre el acuerdo puntual. La teoría fiduciaria, desarrollada por Jack Balkin para plataformas digitales exige actuar en interés ajeno bajo condiciones de asimetría de información y poder, con deberes legales de lealtad, cuidado y confidencialidad. La filosofía africana del Ubuntu sustituye la lógica del contrato entre extraños por el vínculo en una comunidad ampliada que, como ha señalado Mpho Primus en Tech Policy Press“no se centra en la prevención del daño sino en el bienestar comunitario”. Ninguna de las tres es la panacea; cada una ilumina lo que el contractualismo deja en la sombra.

Un nuevo acuerdo. Si la palabra “contrato” no sirve, el problema sigue siendo real: necesitamos orientaciones operativas para una convivencia entre humanos, máquinas crecientemente autónomas y la biosfera que nos sostiene. Cuatro orientaciones, más que pilares cerrados, pueden articular esa tarea:

La primera es la justicia económica, como orientación no solo resultado: política industrial que premie la complementariedad sobre la sustitución, normas que graven el capital automatizado y desgraven el trabajo humano, fondos soberanos que conviertan rentas de la automatización en patrimonio común. La propuesta de OpenAI acierta en el diagnóstico y falla en la legitimidad de su autor; el contenido debe sobrevivir al autor, depurado en foros plurales.

La segunda es la responsabilidad humana como límite no negociable: supervisión humana efectiva en decisiones que afecten derechos, marcos jurídicos vinculantes y rechazo de la cesión de soberanía y de la gobernanza algorítmica acrítica.

La tercera es la apertura epistémica: acceso al cómputo como infraestructura crítica, transparencia obligatoria de datos y arquitecturas, derecho de auditoría externa, protección de la disidencia técnica interna en las empresas. Sin apertura, no hay corrección del error; sin corrección del error, cualquier orden se osifica.

La cuarta es la gobernanza multilateral plural: superar el binarismo Estados Unidos–China, incorporar al Sur Global no como invitado sino como cosignatario, y articular instrumentos como la Recomendación de la UNESCO sobre Ética de la IA (adoptada por los 193 Estados miembros), el Convenio Marco del Consejo de Europa, primer tratado vinculante sobre IA, y la red de AI Safety Institutes.

Quién decide. La tecnología que prometía resolver tantos problemas ha revivido el más antiguo: el de quién decide, para quién y con qué derecho. Que la mitad del planeta desconfíe de la IA y que el 70% exija una regulación que casi nadie cree posible no es una falla de comunicación: es una falla de inclusión.

La pregunta sobre qué futuro queremos: si una asamblea de ciudadanos libres, una oligarquía de ingenieros, una concertación de superpotencias o un orden negociado entre humanos e inteligencias no humanas, no admite respuesta técnica. Es política en el sentido más antiguo: la de qué polis queremos habitar. Lo que hoy llamamos “nuevo contrato social”, si llega a existir, no será un contrato ni en sentido estricto ni en sentido metafórico: será un entramado de responsabilidades, custodias y fiducias entre partes radicalmente desiguales que aceptan, sin embargo, deberse cuenta unas a otras. Su primer requisito es admitir cuántas voces faltan en la mesa, incluyendo las de quienes siempre estuvieron y nunca fueron escuchadas. Como señaló Adela Cortina en una entrevista con El País:

La IA es un saber científico-técnico que hay que encaminar en alguna dirección. Si quienes lo controlan son grandes empresas que quieren poder económico o países que quieren poder geopolítico, entonces no queda nada garantizado que sea bien usado. Si esta tecnología afecta a toda la humanidad, tiene que beneficiar a toda la humanidad.

Convertir esta idea en arquitectura institucional es la tarea política de los próximos años. No empieza con un documento corporativo: empieza con la pregunta sobre quién está autorizado a redactarlo.

Agregar un comentario

Su dirección de correo no se hará público. Los campos requeridos están marcados *