adaptación

Posible, pero verifica

En mayo, Sputnik International, una plataforma mediática rusa, emitió una cadena de tuits que cuestionaban la política exterior de Estados Unidos. En respuesta, cada publicación fue replicada detalladamente por una cuenta denominada CounterCloud. Estas refutaciones no solo planteaban argumentos, sino que también, proporcionaban enlaces a noticias o columnas de opinión. Si bien las objeciones de Rusia hacia las políticas estadounidenses no son una novedad, el contenido de CounterCloud era algo inusual, tal como lo destaca Will Knight en su artículo It Costs Just $400 to Build an AI Disinformation Machine para la revista Wired. Según explica, hubo un factor que distinguió estas respuestas y fuentes citadas:

“Todo, desde los tuits, los artículos referenciados, hasta los periodistas mencionados y las plataformas de noticias, fue fabricado por algoritmos de inteligencia artificial.”

La persona detrás del proyecto CounterCloud, que responde al seudónimo Nea Paw, argumenta que su iniciativa busca exponer los riesgos latentes de la desinformación impulsada por tecnologías avanzadas de Inteligencia Artificial. La estrategia para contrarrestar la propaganda rusa se construyó mediante el uso de ChatGPT y otras herramientas de fácil acceso para producir fotografías e ilustraciones, todo por un costo aproximado de solo 400 dólares. Paw enfatiza que su proyecto demuestra cómo las herramientas de IA disponibles al público pueden fácilmente generar campañas de propaganda altamente sofisticadas y personalizadas. En una comunicación con Wired, Paw declara:

“No hay un antídoto infalible contra esto, así como no lo hay para fenómenos como el phishing, el spam o la manipulación mediante ingeniería social.”

La IA puede crear imágenes, sonidos e incluso generar llamadas de figuras confiables, difícilmente distinguibles de la realidad, dando aparente legitimidad a cualquier tipo de mensaje. En esta era de la posverdad, dichas capacidades están siendo explotadas para fabricar y propagar desinformación a una escala y velocidad sin paralelos. Sam Altman, cofundador de OpenAI, expresó su inquietud en una sesión del congreso de Estados Unidos, confesando:

”Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal.”

Por su parte, Kim Malfacini, encargada de la política de productos en OpenAI, sostiene que la sociedad aún está navegando por la desconcertante realidad de que el contenido que consume podría ser obra de una inteligencia artificial. Agrega:

“Es probable que el uso de herramientas de IA se expandirá en diferentes ámbitos, y la sociedad se adaptará a ello. Pero por el momento las personas aún están en proceso de asimilación.”

En una entrevista concedida a Guillermo Altares de El País, Maria Ressa, la destacada periodista filipina galardonada con el Premio Nobel de la Paz en 2021 afirmó que el ecosistema informativo está totalmente corrompido. Rusia ha llevado a cabo enormes operaciones de desinformación. Utilizaron la misma narrativa para justificar la invasión de Crimea y de Ucrania. Ressa sostiene que en 2014 comenzaron muchas operaciones de desinformación y se produjo un efecto dominó: influyeron en Filipinas, en el Brexit, en la crisis de Cataluña, en la elección de Donald Trump. Y los bots estuvieron presentes en todos los casos. Con el nuevo diseño de los algoritmos de las compañías tecnológicas aumentó muchísimo la radicalización y la polarización. Ressa afirma:

“Sin hechos no se puede tener la verdad. Sin verdad no se puede tener confianza. Sin los tres, no tenemos una realidad compartida, y la democracia tal como la conocemos –y todos los esfuerzos humanos significativos– están muertos”.

Sarah Kreps y Doug Kriner de la Universidad de Cornell, en su artículo How AI Threatens Democracy, sostienen que la IA generativa amenaza tres pilares centrales de la democracia: la representación, la rendición de cuentas y la confianza. Escriben:

“El aspecto más problemático de la IA generativa es que se esconde a simple vista, produciendo enormes volúmenes de contenido que pueden inundar el panorama mediático, Internet y la comunicación política con tonterías sin sentido en el mejor de los casos y desinformación en el peor.”

El conocimiento puede ser poder. Pero ¿Qué sucede cuando la información, la base del conocimiento, se ve socavada por la falsedad? Nos encontramos en una encrucijada donde el contenido falso —ya sean textos, imágenes o videos— erosiona nuestra capacidad de discernir la realidad y fomenta una profunda desconfianza hacia el ecosistema informativo global. Esta crisis de confianza afecta a todos. Para los líderes políticos, reaccionar adecuadamente depende de la autenticidad de las voces de la sociedad. Sin embargo, la inteligencia artificial, con su habilidad para microsegmentar y personalizar mensajes, distorsiona significativamente el discurso público. La proliferación de estas herramientas no solo magnifica las voces falsas; también fortalece la cámara de eco del sesgo de confirmación. Eli Pariser, en su libro The Filter Bubble, ilustra esta realidad con un ejemplo: dos individuos que realizan la misma búsqueda en Google sobre “BP” reciben resultados sorprendentemente diferentes, uno enfocado en las inversiones y el otro en una catástrofe ecológica. Las plataformas tecnológicas al filtrar el contenido basado en nuestras preferencias previas nos encierran en burbujas autoafirmativas. La consecuencia es doble. Primero, nos encontramos aislados intelectualmente, expuestos solo a información que corrobora nuestras creencias preexistentes. Segundo, nos fragmentamos socialmente, reduciendo la probabilidad de que desafiemos la veracidad de nuestras inclinaciones políticas. Ya no vivimos en el mundo de “ver para creer”. Debemos adoptar un enfoque de “confiar, pero verificar”. Kreps y Kriner señalan:

“En un mundo de contenido falso que se genera fácilmente, es posible que muchas personas tengan que caminar por una delgada línea entre el nihilismo político (es decir, no creer en nada ni en nadie más que en sus compañeros partidistas) y un escepticismo saludable.”

En The Glass Cage, Nicholas Carr argumenta que, aunque todas las herramientas pueden moldear nuestra percepción y pensamiento, las tecnologías intelectuales poseen un impacto especialmente profundo y duradero, dado que reconfiguran directamente nuestros procesos cognitivos. Esta influencia se amplifica con las herramientas de inteligencia artificial, como destacan Celeste Kidd y Abeba Birhane de la Universidad de California, Berkeley, en su artículo How AI can distort human beliefs, publicado en la revista Science. Kidd explica:

Sabemos que las personas forman creencias arraigadas más rápidamente sobre la base de agentes que consideran seguros. Estos chatbots son como una conversación, lo que es muy diferente de obtener una lista de resultados de un buscador. El chatbot, se siente más como una persona debido a la naturaleza de la presentación de la información.”

En momentos de intensa curiosidad, estamos más receptivos a cambiar nuestras creencias y también más susceptibles de absorber distorsiones y prejuicios. Aquí radica el peligro, los modelos de IA generativa, como ChatGPT, despliegan respuestas que parecen categóricas y exentas de dudas, careciendo de indicadores de incertidumbre que sugerirían a los usuarios tomar las respuestas con escepticismo. Estos sistemas no hacen una distinción clara entre la realidad y la ficción. Este problema se intensifica con la percepción generalizada de la IA como una entidad supremamente inteligente. La fe ciega en su competencia cognitiva nos lleva a confiar desmedidamente en sus resultados, ignorando que, estas herramientas están construyendo respuestas, con sus propias limitaciones y prejuicios programados. Esta forma de acceso a la información es muy diferente de un algoritmo de búsqueda que indexa, recomienda y ordena contenido creado por humanos. Kidd y Birhane advierten:

“El revuelo que existe actualmente en torno a la IA generativa hace que esas cuestiones sean mucho más urgentes. Hace que las distorsiones sean potencialmente peores porque, lleva a la gente a pensar que son herramientas realmente confiables.

En lugar de aceptar las noticias falsas como la norma, debemos reconocerlas como un problema mucho más difícil de lo que acostumbramos a suponer, y esforzarnos para distinguir la realidad de la ficción. No hay fuente de información libre de prejuicios y errores, pero algunos hacen un esfuerzo honesto. Es responsabilidad de todos dedicar tiempo y energía para descubrir nuestros prejuicios y verificar nuestras fuentes de información. En su intervención en la cumbre mundial AI for Good de la ONU en Ginebra, Yuval Noah Harari dijo que, así como los gobiernos tienen normas muy estrictas contra la falsificación de dinero, los creadores de robots de inteligencia artificial que falsifican personas deberían enfrentar duras sanciones. Señaló:

“Si se permite que esto suceda, le hará a la sociedad lo que el dinero falso amenazó con hacerle al sistema financiero. Si no puedes saber quién es un ser humano real, la confianza colapsará. Tal vez las relaciones puedan funcionar de alguna manera, pero no la democracia.”

Según Harari, los humanos hemos conquistado el mundo gracias a nuestra capacidad de crear relatos ficticios y de creérnoslos. Por tanto, somos bastante torpes a la hora de conocer la diferencia entre la ficción y la realidad. Pasar por alto esta diferencia ha sido cuestión de supervivencia. Agregó:

“¿Qué sucede si tienes una plataforma de redes sociales donde millones de robots pueden crear contenido que es en muchos aspectos superior al que los humanos pueden crear: más convincente, más atractivo? Si permitimos que esto suceda, los humanos perderemos por completo el control de la conversación pública. La democracia será completamente inviable.”

Según Nick Bostrom, profesor de la Universidad de Oxford, por primera vez podríamos ser reemplazados por una especie más inteligente: una superinteligencia artificial. En el documental de la Deutsche Welle Quien controla el conocimiento, ¿tiene el poder? Bostrom señaló:

“Hemos creado máquinas de Inteligencia artificial que alcanzan la misma capacidad de razonamiento que nos diferencia a los humanos del resto del reino animal. Creo que estamos en una encrucijada única en la historia. Lograr que esa transición sea bien realizada será quizás la tarea más importante del siglo.”

En su libro Superintelligence: Paths, Dangers, Strategies Bostrom afirma que muchos de nosotros nos definimos en función de nuestra utilidad. Ser útiles para algo o para alguien. Pero en un mundo donde las máquinas lo harán todo mejor, puede que no quede nada en lo que los humanos seamos “útiles”. En palabras de Bostrom:

“Tendremos que basar muchos de nuestros valores e identidades en algo más que en ese principio de utilidad que vertebra el mundo de hoy.”

Copérnico nos expulsó del centro del universo. Luego cuando pensábamos que los humanos éramos la joya de la creación, Darwin nos devolvió al reino animal y nos degradó a la categoría de simios. Posteriormente Freud nos mostró que nuestro libre albedrío era una ilusión. Ahora, ni siquiera somos la especie más inteligente del planeta. Somos superfluos. El actual desarrollo tecnológico hace urgente actualizar nuestra comprensión de lo que significa ser humano y delinear responsablemente nuestra propia coevolución. Harari, en su libro 21 lecciones para el siglo XXI, escribió:

“En realidad, los humanos siempre han vivido en la era de la posverdad. […] Si culpa a Facebook, Trump o Putin por inaugurar una era nueva y espantosa, recuerde que hace muchos siglos millones de cristianos se encerraron en una burbuja mitológica que se refuerza a sí misma, sin atreverse nunca a cuestionar la veracidad de los hechos narrados en la Biblia, mientras que millones de musulmanes depositaron su fe inquebrantable en el Corán. […] Algunas noticias falsas duran para siempre.”

La verdad y el poder pueden viajar juntos, pero tarde o temprano, seguirán por sendas separadas. Si queremos poder, en algún momento tendremos que difundir ficciones. Si queremos saber la verdad sobre el mundo, en algún punto tendremos que renunciar al poder. Harari termina su libro escribiendo:

Mientras las pinturas rupestres evolucionaron gradualmente hacia las emisiones televisivas, se volvió más fácil engañar a la gente. En el futuro cercano, los algoritmos podrían completar este proceso, haciendo imposible que la gente observe la realidad sobre sí misma. Serán los algoritmos los que decidan por nosotros quiénes somos y lo que deberíamos saber sobre nosotros. Durante unos cuantos años o décadas más, aún tendremos la posibilidad de elegir. Si hacemos el esfuerzo, todavía podemos investigar quiénes somos en realidad. Pero si queremos aprovechar de verdad esta oportunidad, será mejor que lo hagamos ahora.

Agregar un comentario

Su dirección de correo no se hará público. Los campos requeridos están marcados *