AI

Armas digitales

El 10 de septiembre de 2025, el activista conservador Charlie Kirk, de 31 años, fue asesinado de un disparo durante un evento en la Universidad de Utah Valley. Las autoridades lo describieron como un ‘asesinato político’ premeditado. En su último post en Instagram, horas antes del atentado, Kirk compartió una imagen de Iryna Zarutska, una refugiada ucraniana de 23 años apuñalada el 22 de agosto de 2025 en un tren en Charlotte, Carolina del Norte. Kirk escribió: ‘America will never be the same’ (‘Estados Unidos nunca volverá a ser el mismo’). Irónicamente, se convirtió en víctima de la violencia que denunciaba. Casi simultáneamente, en Evergreen, Colorado, un estudiante de 16 años disparó una pistola en su escuela, hiriendo gravemente a dos compañeros antes de suicidarse.

Estos eventos ilustran las consecuencias de la violencia armada en Estados Unidos, donde proliferan más de 400 millones de armas en circulación civil, la tasa per cápita más alta del mundo. Esto facilita el acceso a herramientas letales para individuos como Tyler Robinson, el sospechoso de 22 años en el caso Kirk. Según reportes preliminares, en las vainas asociadas al arma se encontraron inscripciones provocativas como: ‘Hey fascist, catch!’y otras referencias políticas y de videojuegos. Desde la derecha, Kirk es ensalzado como inspiración para una nueva generación de republicanos. Desde la izquierda, ridiculizado como un divisor que atacó derechos civiles, transgénero e islam. Su asesinato ha profundizado las divisiones y ha desencadenado una cascada de reacciones polarizadas en redes sociales, con celebraciones, amenazas y teorías conspirativas.

Tras el atentado, plataformas como X (antes, Twitter) se inundaron de contenido tóxico. Algunos usuarios celebraron el acto, lo que llevó a suspensiones como la de un agente del Servicio Secreto por comentarios alegres, y al menos 15 despidos o suspensiones en empresas y universidades por posts similares. Donald Trump culpó a la ‘retórica brutal de la izquierda’ y prometió perseguirlos, mientras demócratas y republicanos se acusaban mutuamente, exacerbando temores por su seguridad personal. Hubo un pico notable de menciones a ‘guerra civil’ y llamamientos beligerantes en X, documentados por la prensa. El congresista Derrick Van Orden, tuiteó: ‘La izquierda y sus políticas están llevando a América a una guerra civil. Y la quieren’. Un post en X con ‘Estoy listo para la guerra civil’ acumuló 329.000 vistas en horas. Este trágico incidente resalta cómo la radicalización, impulsada por la desinformación y la retórica incendiaria amplificada por las redes sociales, puede escalar a la violencia. Como señaló el escritor Dan Brown en una entrevista reciente con El País:

La especie humana nunca ha creado una tecnología que no haya convertido en arma. Cuanta más tecnología tenemos, más peligroso es el mundo.

En este ensayo, exploramos cómo las redes sociales y la IA propagan retórica divisiva, desinformación y conspiraciones; por qué los humanos somos vulnerables; y las consecuencias. Aunque el caso Kirk no es aislado en la historia de violencia política de Estados Unidos, la polarización se ha intensificado globalmente con tecnologías digitales. En la era digital, la información fluye sin ‘guardianes de la verdad’. Plataformas como Facebook, YouTube, X y TikTok son foros globales donde el contenido compite por atención, y los algoritmos priorizan el ‘engagement’, favoreciendo material emocionalmente cargado. El investigador del MIT Sinan Aral, en The Hype Machine (2020), explica que estos algoritmos amplifican contenido que genera indignación, ya que así mantienen más tiempo a los usuarios en las plataformas. Frances Haugen, ex denunciante de Facebook en 2021 reveló documentos internos que muestran cómo la indignación y la desinformación se viralizan más fácilmente. Yuval Noah Harari concluye en Nexus (2024):

Ni Facebook ni otras plataformas se dispusieron a inundar el mundo de noticias falsas y llenas de ira. Pero, al diseñar sus algoritmos para potenciar la implicación de los usuarios, fue exactamente lo que consiguieron.

Luego del asesinato de Kirk, videos explícitos y teorías conspirativas, como noticias falsas que culpaban a Israel o que afirmaban que Kirk estaba vivo, se reprodujeron masivamente, alcanzando millones de vistas en horas. El estudio del MIT On Twitter, false news travels faster than true stories’ (2018), confirma que las noticias falsas en redes sociales se difunden ‘más lejos, más rápido, más profundo y más ampliamente’ que las verdaderas. De hecho, un tuit con información falsa tiene 70% más probabilidades de ser retuiteado que uno veraz, y llega a 1.500 personas seis veces más rápido que un tuit verdadero equivalente. La razón de fondo no es la acción de bots automatizados. Los investigadores comprobaron que incluso eliminando cuentas automatizadas la diferencia persistía. La causa fue la conducta humana: somos los usuarios quienes viralizamos la desinformación al compartirla sin verificar. La IA generativa agrava esta dinámica. Herramientas de acceso libre crean imágenes, audios y videos indistinguibles de la realidad, legitimando mensajes falsos. Sarah Kreps y Doug Kriner, en ‘How AI Threatens Democracy’ (2023), argumentan que la IA erosiona la representación, la rendición de cuentas y la confianza al inundar el ecosistema con desinformación. Nicholas Carr en su libro Superbloom (2025) afirma:

Las redes sociales no tienen éxito porque van en contra de nuestros instintos y deseos. Tienen éxito porque nos dan lo que queremos.

Estas herramientas facilitan la creación de ‘realidades alternativas’, acelerando la polarización. Sin embargo, no todo es negativo. Meta y X han implementado moderación IA, detectando desinformación, aunque con limitaciones. En el caso Kirk fallaron en contener el 40% de posts conspirativos. El futuro dependerá, en gran medida, de la capacidad de la industria y los gobiernos para equilibrar el progreso con una gestión responsable de sus riesgos. Harari, en su libro 21 lecciones para el siglo XXI (2018) escribió:

El peligro es que, si invertimos demasiado en el desarrollo de la inteligencia artificial y muy poco en el desarrollo de la conciencia humana, la inteligencia artificial muy sofisticada de las computadoras solo servirá para potenciar la estupidez natural de los humanos.

Entonces ¿Por qué este sesgo hacia lo falso? Aral y sus colegas apuntan a la ‘hipótesis de la novedad’: las mentiras suelen parecer más novedosas y sorprendentes, lo cual las hace socialmente más atractivas de compartir. Descubrieron que los usuarios reaccionaban ante noticias falsas con emociones como sorpresa o indignación, mientras que las noticias verídicas suscitaban respuestas menos intensas (tristeza, confianza). Así, en la búsqueda constante de atención y validación, muchos comparten primicias impactantes, aunque sean dudosas, para parecer ‘interesantes’ ante sus seguidores. La economía de la atención premia al que lanza el dato más escandaloso primero, no al más preciso. Escribe Harari:

La información errónea es una equivocación involuntaria que, tiene lugar cuando alguien intenta representar la realidad, pero la entiende mal. La desinformación es una mentira deliberada que se produce cuando alguien pretende distorsionar conscientemente nuestra visión de la realidad.

En un entorno digital que amplifica los mensajes más estridentes, los llamamientos al odio pueden normalizarse. En el caso Kirk, posts celebratorios de izquierda ‘Un nazi menos’ y amenazas de derecha ‘Retribución ahora’ normalizan el odio. En pocas palabras, la facilidad para difundir propaganda incendiaria a través de estas armas digitales descontroladas está erosionando las barreras sociales contra la violencia política. Las consecuencias incluyen ansiedad, cinismo y radicalización. La exposición constante a contenido polarizado diluye la verdad, debilitando la democracia. Sin una realidad compartida, el diálogo se vuelve imposible. Maria Ressa, Nobel de la Paz 2021, afirmó en El País:

Sin hechos no se puede tener la verdad. Sin verdad no se puede tener confianza. Sin los tres, no tenemos una realidad compartida, y la democracia tal como la conocemos está muerta.

A pesar de vivir en la supuesta ‘era de la información’, nuestra sociedad abunda en desinformación. Sigue entonces la pregunta ¿Por qué nos atrae la desinformación y el contenido extremista? Diversos factores lo explican: una sobrecarga de información no filtrada en internet, sesgos cognitivos innatos que nos hacen creer aquello que confirma nuestras ideas, la atracción psicológica por la novedad y la emoción, la falta de pensamiento crítico y la presión social de las comunidades virtuales. En conjunto, este ecosistema permite que rumores infundados y teorías conspirativas se propaguen más rápido que nunca. Siempre hemos preferido un buen relato que otorgue sentido y propósito por encima de la verdad cruda. Hoy, gracias a las redes sociales y la IA, la creación y difusión de estos ‘buenos relatos’ ficticios se ha facilitado y acelerado explosivamente. Basta un ‘hashtag’ ingenioso o un video viral emotivo para que surja una nueva ‘realidad’ alternativa seguida por miles de personas en horas. Esta aceleración de nuestra ‘naturaleza posverdad’ resulta sumamente peligrosa cuando viene acompañada de polarización extrema y demonización del adversario, una combinación explosiva que puede detonar en violencia real. La tragedia de Kirk nos recuerda que las palabras pueden motivar acciones irreversibles. El historiador Jon Meacham comentó:

¿Un delito reprensible contra una figura política conduce a actos más reprensibles, o nos recuerda que debemos ser capaces de convivir con personas cuyas opiniones despreciamos sin recurrir a la violencia?

La constante exposición a contenido engañoso y tóxicamente polarizado, sumado a la sobrecarga de noticias contradictorias produce fatiga informativa. De hecho, algunas personas optan por desconectarse por completo, volviéndose apáticas o nihilistas ya que ‘nada es verdad, todos mienten’. Un importante factor protector es la alfabetización científica y digital. Personas con mayor formación en pensamiento crítico y conocimiento científico son menos propensas a creer y difundir noticias falsas. Lamentablemente, grandes sectores de la población carecen de estas defensas, quedando vulnerables ante tácticas de desinformación cada vez más sofisticadas. Se necesitan cambios:

  • Regulaciones: Que exijan transparencia en algoritmos y moderación obligatoria de contenido violento.
  • Educación: Promover alfabetización digital y pensamiento crítico, reduciendo la vulnerabilidad a desinformación.
  • Acciones individuales: Verificar fuentes antes de compartir, diversificar perspectivas y reportar odio.
  • Innovación tecnológica: Incentivar el desarrollo y uso de herramientas automatizadas para detectar contenido falso y promover contenido equilibrado.

La tragedia de Charlie Kirk con 2.7 millones de ‘likes’ en contenido polarizado y teorías como ‘Israel lo mató’, nos recuerda que las palabras importan. Los tuits, memes y videos que consumimos y compartimos a diario pueden parecer efímeros, pero forjan creencias capaces de motivar acciones irreparables. Hoy, cada individuo con un smartphone posee una imprenta más potente que las de siglos pasados, y algoritmos opacos deciden qué vemos y qué no, guiados muchas veces solo por criterios comerciales. Nuestros impulsos psicológicos, redes sociales e IA ubicua han creado un desafío sin precedentes para la idea de verdad y el diálogo democrático. Cada clic y cada reenvío irreflexivo es un ladrillo más en el muro de la posverdad. Pero, cada vez que desenmascaramos una mentira, que nos negamos a compartir contenido tóxico, o que ampliamos nuestra perspectiva consultando fuentes fidedignas, contribuimos a desmontar ese muro. No podemos culpar solo a las plataformas; todos contribuimos al ecosistema. Al exigir responsabilidad y fomentar la razón, podemos reconducir estas ‘armas digitales’ hacia la comprensión mutua. La tragedia de Charlie Kirk no debe ser solo otro dato estadístico. Debe ser el catalizador que nos impulse a elegir un rumbo diferente: uno donde la tecnología sirva para acercarnos, no para dividirnos; para informar, no para intoxicar. Toda tecnología es expresión de la voluntad humana. Con nuestras herramientas buscamos ampliar nuestro poder y control sobre nuestras circunstancias, sobre la naturaleza, sobre el tiempo, la distancia, sobre las personas. Podemos y debemos tener estos debates, y tomar las decisiones sobre qué rumbo tomar. Redirigir la tecnología consiste en identificar las categorías que aportan más beneficios para todos. Adela Cortina, autora de ¿Ética o ideología de la inteligencia artificial? (2024), en una entrevista con El País señaló:

La IA es un saber científico-técnico que hay que encaminar en alguna dirección. Si quienes lo controlan son grandes empresas que quieren poder económico o países que quieren poder geopolítico, entonces no queda nada garantizado que sea bien usado. Si esta tecnología afecta a toda la humanidad, tiene que beneficiar a toda la humanidad.

Agregar un comentario

Su dirección de correo no se hará público. Los campos requeridos están marcados *