{"id":947,"date":"2023-10-30T12:40:21","date_gmt":"2023-10-30T15:40:21","guid":{"rendered":"https:\/\/www.imagen.cl\/blog\/?p=947"},"modified":"2023-10-30T12:40:21","modified_gmt":"2023-10-30T15:40:21","slug":"posible-pero-verifica","status":"publish","type":"post","link":"http:\/\/www.imagen.cl\/blog\/index.php\/2023\/10\/30\/posible-pero-verifica\/","title":{"rendered":"Posible, pero verifica"},"content":{"rendered":"\n<p>En mayo, Sputnik International, una plataforma medi\u00e1tica rusa, emiti\u00f3 una cadena de tuits que cuestionaban la pol\u00edtica exterior de Estados Unidos. En respuesta, cada publicaci\u00f3n fue replicada detalladamente por una cuenta denominada&nbsp;<strong><em>CounterCloud<\/em><\/strong>. Estas refutaciones no solo planteaban argumentos, sino que tambi\u00e9n, proporcionaban enlaces a noticias o columnas de opini\u00f3n. Si bien las objeciones de Rusia hacia las pol\u00edticas estadounidenses no son una novedad, el contenido de&nbsp;<strong><em>CounterCloud<\/em><\/strong>&nbsp;era algo inusual, tal como lo destaca Will Knight en su art\u00edculo&nbsp;<strong><em>It Costs Just $400 to Build an AI Disinformation Machine<\/em><\/strong>&nbsp;para la revista Wired. Seg\u00fan explica, hubo un factor que distingui\u00f3 estas respuestas y fuentes citadas:<\/p>\n\n\n\n<p><strong><em>\u201cTodo, desde los tuits, los art\u00edculos referenciados, hasta los periodistas mencionados y las plataformas de noticias, fue fabricado por algoritmos de inteligencia artificial.\u201d<\/em><\/strong><\/p>\n\n\n\n<p>La persona detr\u00e1s del proyecto&nbsp;<strong><em>CounterCloud<\/em><\/strong>, que responde al seud\u00f3nimo Nea Paw, argumenta que su iniciativa busca&nbsp;<strong><em>exponer los riesgos latentes de la desinformaci\u00f3n impulsada por tecnolog\u00edas avanzadas de Inteligencia Artificial.<\/em><\/strong>&nbsp;La estrategia para contrarrestar la propaganda rusa se construy\u00f3 mediante el uso de ChatGPT y otras herramientas de f\u00e1cil acceso para producir fotograf\u00edas e ilustraciones, todo por un costo aproximado de solo 400 d\u00f3lares. Paw enfatiza que su proyecto demuestra c\u00f3mo&nbsp;<strong><em>las herramientas de IA disponibles al p\u00fablico pueden f\u00e1cilmente generar campa\u00f1as de propaganda altamente sofisticadas y personalizadas.&nbsp;<\/em><\/strong>En una comunicaci\u00f3n con Wired, Paw declara:<\/p>\n\n\n\n<p><strong><em>&#8220;No hay un ant\u00eddoto infalible contra esto<\/em><\/strong><em>, as\u00ed como no lo hay para fen\u00f3menos como el phishing, el spam o la manipulaci\u00f3n mediante ingenier\u00eda social.&#8221;<\/em><\/p>\n\n\n\n<p><strong><em>La IA puede crear im\u00e1genes, sonidos e incluso generar llamadas de figuras confiables, dif\u00edcilmente distinguibles de la realidad<\/em><\/strong>, dando aparente legitimidad a cualquier tipo de mensaje. En esta era de la posverdad, dichas capacidades est\u00e1n siendo explotadas para fabricar y propagar desinformaci\u00f3n a una escala y velocidad sin paralelos. Sam Altman, cofundador de OpenAI, expres\u00f3 su inquietud en una sesi\u00f3n del congreso de Estados Unidos, confesando:<\/p>\n\n\n\n<p><strong><em>\u201dMi peor miedo es que esta tecnolog\u00eda salga mal. Y si sale mal, puede salir muy mal.\u201d<\/em><\/strong><em><\/em><\/p>\n\n\n\n<p>Por su parte, Kim Malfacini, encargada de la pol\u00edtica de productos en OpenAI, sostiene que&nbsp;<strong><em>la sociedad a\u00fan est\u00e1 navegando por la desconcertante realidad de que el contenido que consume podr\u00eda ser obra de una inteligencia artificial.<\/em><\/strong>&nbsp;Agrega:<\/p>\n\n\n\n<p><em>&#8220;Es probable que el uso de herramientas de IA se expandir\u00e1 en diferentes \u00e1mbitos, y la sociedad se adaptar\u00e1 a ello.&nbsp;<strong>Pero por el momento las personas a\u00fan est\u00e1n en proceso de asimilaci\u00f3n.\u201d<\/strong><\/em><\/p>\n\n\n\n<p>En una entrevista concedida a Guillermo Altares de&nbsp;<strong><em>El Pa\u00eds<\/em><\/strong>, Maria Ressa, la destacada periodista filipina galardonada con el Premio Nobel de la Paz en 2021 afirm\u00f3 que&nbsp;<strong><em>el ecosistema informativo est\u00e1 totalmente corrompido.<\/em><\/strong>&nbsp;Rusia ha llevado a cabo enormes operaciones de desinformaci\u00f3n. Utilizaron la misma narrativa para justificar la invasi\u00f3n de Crimea y de Ucrania. Ressa sostiene que en 2014 comenzaron muchas operaciones de desinformaci\u00f3n y se produjo un efecto domin\u00f3: influyeron en Filipinas, en el Brexit, en la crisis de Catalu\u00f1a, en la elecci\u00f3n de Donald Trump. Y los bots estuvieron presentes en todos los casos.&nbsp;<strong><em>Con el nuevo dise\u00f1o de los algoritmos de las compa\u00f1\u00edas tecnol\u00f3gicas aument\u00f3 much\u00edsimo la radicalizaci\u00f3n y la polarizaci\u00f3n.<\/em><\/strong>&nbsp;Ressa afirma:<\/p>\n\n\n\n<p><strong><em>\u201cSin hechos no se puede tener la verdad.<\/em><\/strong><em>&nbsp;Sin verdad no se puede tener confianza. Sin los tres, no tenemos una realidad compartida, y la democracia tal como la conocemos \u2013y todos los esfuerzos humanos significativos\u2013 est\u00e1n muertos\u201d.<\/em><\/p>\n\n\n\n<p>Sarah Kreps y Doug Kriner de la Universidad de Cornell, en su art\u00edculo&nbsp;<strong><em>How AI Threatens Democracy,&nbsp;<\/em><\/strong>sostienen que la IA generativa amenaza tres pilares centrales de la democracia: la representaci\u00f3n, la rendici\u00f3n de cuentas y la confianza. Escriben:<\/p>\n\n\n\n<p><em>\u201cEl aspecto m\u00e1s problem\u00e1tico de la IA generativa es que se esconde a simple vista, produciendo enormes vol\u00famenes de contenido que pueden&nbsp;<strong>inundar el panorama medi\u00e1tico, Internet y la comunicaci\u00f3n pol\u00edtica con tonter\u00edas sin sentido en el mejor de los casos y desinformaci\u00f3n en el peor.\u201d<\/strong><\/em><\/p>\n\n\n\n<p><strong><em>El conocimiento puede ser poder.<\/em><\/strong>&nbsp;Pero \u00bfQu\u00e9 sucede cuando la informaci\u00f3n, la base del conocimiento, se ve socavada por la falsedad? Nos encontramos en una encrucijada donde el contenido falso \u2014ya sean textos, im\u00e1genes o videos\u2014 erosiona nuestra capacidad de discernir la realidad y fomenta una profunda desconfianza hacia el ecosistema informativo global.&nbsp;<strong><em>Esta crisis de confianza afecta a todos.<\/em><\/strong>&nbsp;Para los l\u00edderes pol\u00edticos, reaccionar adecuadamente depende de la autenticidad de las voces de la sociedad. Sin embargo, la inteligencia artificial, con su habilidad para microsegmentar y personalizar mensajes, distorsiona significativamente el discurso p\u00fablico.&nbsp;<strong><em>La proliferaci\u00f3n de estas herramientas no solo magnifica las voces falsas; tambi\u00e9n fortalece la c\u00e1mara de eco del sesgo de confirmaci\u00f3n.<\/em><\/strong>&nbsp;Eli Pariser, en su libro&nbsp;<strong><em>The Filter Bubble<\/em><\/strong>, ilustra esta realidad con un ejemplo: dos individuos que realizan la misma b\u00fasqueda en Google sobre &#8220;BP&#8221;&nbsp;<strong><em>reciben resultados sorprendentemente diferentes<\/em><\/strong>, uno enfocado en las inversiones y el otro en una cat\u00e1strofe ecol\u00f3gica. Las plataformas tecnol\u00f3gicas al filtrar el contenido basado en nuestras preferencias previas nos encierran en burbujas autoafirmativas. La consecuencia es doble. Primero, nos encontramos aislados intelectualmente, expuestos solo a informaci\u00f3n que corrobora nuestras creencias preexistentes. Segundo, nos fragmentamos socialmente, reduciendo la probabilidad de que desafiemos la veracidad de nuestras inclinaciones pol\u00edticas. Ya no vivimos en el mundo de&nbsp;<strong><em>\u201cver para creer\u201d<\/em><\/strong>. Debemos adoptar un enfoque de&nbsp;<strong><em>\u201cconfiar, pero verificar\u201d<\/em><\/strong>. Kreps y Kriner se\u00f1alan:<\/p>\n\n\n\n<p><strong><em>\u201cEn un mundo de contenido falso<\/em><\/strong><em>&nbsp;que se genera f\u00e1cilmente, es posible que muchas personas tengan que caminar por una delgada l\u00ednea entre el nihilismo pol\u00edtico (es decir, no creer en nada ni en nadie m\u00e1s que en sus compa\u00f1eros partidistas) y un escepticismo saludable.\u201d<\/em><\/p>\n\n\n\n<p>En&nbsp;<strong><em>The Glass Cage<\/em><\/strong>, Nicholas Carr argumenta que, aunque todas las herramientas pueden moldear nuestra percepci\u00f3n y pensamiento, las tecnolog\u00edas intelectuales poseen un impacto especialmente profundo y duradero, dado que reconfiguran directamente nuestros procesos cognitivos. Esta influencia se amplifica con las herramientas de inteligencia artificial, como destacan Celeste Kidd y Abeba Birhane de la Universidad de California, Berkeley, en su art\u00edculo&nbsp;<strong><em>How AI can distort human beliefs,&nbsp;<\/em><\/strong>publicado en la revista&nbsp;<strong><em>Science<\/em><\/strong>. Kidd explica:<\/p>\n\n\n\n<p><em>\u201c<strong>Sabemos que las personas forman creencias arraigadas m\u00e1s r\u00e1pidamente sobre la base de agentes que consideran seguros.<\/strong>&nbsp;Estos chatbots son como una conversaci\u00f3n, lo que es muy diferente de obtener una lista de resultados de un buscador. El chatbot, se siente m\u00e1s como una persona debido a la naturaleza de la presentaci\u00f3n de la informaci\u00f3n.\u201d<\/em><\/p>\n\n\n\n<p><strong><em>En momentos de intensa curiosidad, estamos m\u00e1s receptivos a cambiar nuestras creencias y tambi\u00e9n m\u00e1s susceptibles de absorber distorsiones y prejuicios.<\/em><\/strong>&nbsp;Aqu\u00ed radica el peligro, los modelos de IA generativa, como ChatGPT, despliegan respuestas que parecen categ\u00f3ricas y exentas de dudas, careciendo de indicadores de incertidumbre que sugerir\u00edan a los usuarios tomar las respuestas con escepticismo.&nbsp;<strong><em>Estos sistemas no hacen una distinci\u00f3n clara entre la realidad y la ficci\u00f3n.&nbsp;<\/em><\/strong>Este problema se intensifica con la percepci\u00f3n generalizada de la IA como una entidad supremamente inteligente. La fe ciega en su competencia cognitiva nos lleva a confiar desmedidamente en sus resultados, ignorando que, estas herramientas est\u00e1n construyendo respuestas, con sus propias limitaciones y prejuicios programados.&nbsp;<strong><em>Esta forma de acceso a la informaci\u00f3n es muy diferente de un algoritmo de b\u00fasqueda que indexa, recomienda y ordena contenido creado por humanos.<\/em><\/strong>&nbsp;Kidd y Birhane advierten:<\/p>\n\n\n\n<p><strong><em>\u201cEl revuelo que existe actualmente en torno a la IA generativa hace que esas cuestiones sean mucho m\u00e1s urgentes.<\/em><\/strong><em>&nbsp;Hace que las distorsiones sean potencialmente peores porque, lleva a la gente a pensar que son herramientas realmente confiables<\/em>.<\/p>\n\n\n\n<p>En lugar de aceptar las noticias falsas como la norma, debemos reconocerlas como un problema mucho m\u00e1s dif\u00edcil de lo que acostumbramos a suponer, y esforzarnos para distinguir la realidad de la ficci\u00f3n. No hay fuente de informaci\u00f3n libre de prejuicios y errores, pero algunos hacen un esfuerzo honesto. Es responsabilidad de todos dedicar tiempo y energ\u00eda para descubrir nuestros prejuicios y verificar nuestras fuentes de informaci\u00f3n. En su intervenci\u00f3n en la cumbre mundial&nbsp;<strong><em>AI for Good de la ONU<\/em><\/strong>&nbsp;en Ginebra, Yuval Noah Harari dijo que, as\u00ed como los gobiernos tienen normas muy estrictas contra la falsificaci\u00f3n de dinero, los creadores de robots de inteligencia artificial que&nbsp;<strong><em>falsifican personas<\/em><\/strong>&nbsp;deber\u00edan enfrentar duras sanciones. Se\u00f1al\u00f3:<\/p>\n\n\n\n<p><em>\u201cSi se permite que esto suceda, le har\u00e1 a la sociedad lo que el dinero falso amenaz\u00f3 con hacerle al sistema financiero. Si no puedes saber qui\u00e9n es un ser humano real, la confianza colapsar\u00e1.&nbsp;<strong>Tal vez las relaciones puedan funcionar de alguna manera, pero no la democracia.&#8221;<\/strong><\/em><\/p>\n\n\n\n<p>Seg\u00fan Harari, los humanos hemos conquistado el mundo gracias a nuestra capacidad de crear relatos ficticios y de cre\u00e9rnoslos. Por tanto, somos bastante torpes a la hora de conocer la diferencia entre la ficci\u00f3n y la realidad. Pasar por alto esta diferencia ha sido cuesti\u00f3n de supervivencia. Agreg\u00f3:<\/p>\n\n\n\n<p><em>&#8220;\u00bfQu\u00e9 sucede si tienes una plataforma de redes sociales donde millones de robots pueden crear contenido que es en muchos aspectos superior al que los humanos pueden crear: m\u00e1s convincente, m\u00e1s atractivo? Si permitimos que esto suceda,&nbsp;<strong>los humanos perderemos por completo el control de la conversaci\u00f3n p\u00fablica. La democracia ser\u00e1 completamente inviable.\u201d<\/strong><\/em><\/p>\n\n\n\n<p>Seg\u00fan Nick Bostrom, profesor de la Universidad de Oxford, por primera vez podr\u00edamos ser reemplazados por una especie m\u00e1s inteligente: una superinteligencia artificial. En el documental de la Deutsche Welle<strong><em>&nbsp;Quien controla el conocimiento, \u00bftiene el poder?<\/em><\/strong>&nbsp;Bostrom se\u00f1al\u00f3:<\/p>\n\n\n\n<p><em>\u201cHemos creado m\u00e1quinas de Inteligencia artificial que alcanzan la misma capacidad de razonamiento que nos diferencia a los humanos del resto del reino animal. Creo que estamos en una encrucijada \u00fanica en la historia.&nbsp;<strong>Lograr que esa transici\u00f3n sea bien realizada ser\u00e1 quiz\u00e1s la tarea m\u00e1s importante del siglo.\u201d<\/strong><\/em><\/p>\n\n\n\n<p>En su libro&nbsp;<strong><em>Superintelligence: Paths, Dangers, Strategies&nbsp;<\/em><\/strong>Bostrom afirma que muchos de nosotros nos definimos en funci\u00f3n de&nbsp;<strong><em>nuestra utilidad<\/em><\/strong>. Ser \u00fatiles para algo o para alguien. Pero en un mundo donde las m\u00e1quinas lo har\u00e1n todo mejor, puede que no quede nada en lo que los humanos seamos&nbsp;<strong><em>\u201c\u00fatiles\u201d<\/em><\/strong>. En palabras de Bostrom:<\/p>\n\n\n\n<p><strong><em>\u201cTendremos que basar muchos de nuestros valores e identidades en algo m\u00e1s que en ese principio de utilidad que vertebra el mundo de hoy.\u201d<\/em><\/strong><\/p>\n\n\n\n<p>Cop\u00e9rnico nos expuls\u00f3 del centro del universo. Luego cuando pens\u00e1bamos que los humanos \u00e9ramos la joya de la creaci\u00f3n, Darwin nos devolvi\u00f3 al reino animal y nos degrad\u00f3 a la categor\u00eda de simios. Posteriormente Freud nos mostr\u00f3 que nuestro libre albedr\u00edo era una ilusi\u00f3n.&nbsp;<strong><em>Ahora, ni siquiera somos la especie m\u00e1s inteligente del planeta. Somos superfluos.&nbsp;<\/em><\/strong>El actual desarrollo tecnol\u00f3gico hace urgente actualizar nuestra comprensi\u00f3n de lo que&nbsp;<strong><em>significa ser humano y delinear responsablemente nuestra propia coevoluci\u00f3n<\/em><\/strong>. Harari, en su libro&nbsp;<strong><em>21 lecciones para el siglo XXI,&nbsp;<\/em><\/strong>escribi\u00f3:<\/p>\n\n\n\n<p><strong><em>\u201cEn realidad, los humanos siempre han vivido en la era de la posverdad.&nbsp;<\/em><\/strong><em>[\u2026] Si culpa a Facebook, Trump o Putin por inaugurar una era nueva y espantosa, recuerde que hace muchos siglos millones de cristianos se encerraron en una burbuja mitol\u00f3gica que se refuerza a s\u00ed misma, sin atreverse nunca a cuestionar la veracidad de los hechos narrados en la Biblia, mientras que millones de musulmanes depositaron su fe inquebrantable en el Cor\u00e1n. [\u2026]&nbsp;<strong>Algunas noticias falsas duran para siempre.\u201d<\/strong><\/em><\/p>\n\n\n\n<p>La verdad y el poder pueden viajar juntos, pero tarde o temprano, seguir\u00e1n por sendas separadas. Si queremos poder, en alg\u00fan momento tendremos que difundir ficciones. Si queremos saber la verdad sobre el mundo, en alg\u00fan punto tendremos que renunciar al poder. Harari termina su libro escribiendo:<\/p>\n\n\n\n<p><em>Mientras las pinturas rupestres evolucionaron gradualmente hacia las emisiones televisivas, se volvi\u00f3 m\u00e1s f\u00e1cil enga\u00f1ar a la gente.&nbsp;<strong>En el futuro cercano, los algoritmos podr\u00edan completar este proceso, haciendo imposible que la gente observe la realidad sobre s\u00ed misma.&nbsp;<\/strong>Ser\u00e1n los algoritmos los que decidan por nosotros qui\u00e9nes somos y lo que deber\u00edamos saber sobre nosotros.&nbsp;<strong>Durante unos cuantos a\u00f1os o d\u00e9cadas m\u00e1s, a\u00fan tendremos la posibilidad de elegir.<\/strong>&nbsp;Si hacemos el esfuerzo,&nbsp;<strong>todav\u00eda podemos investigar qui\u00e9nes somos en realidad. Pero si queremos aprovechar de verdad esta oportunidad, ser\u00e1 mejor que lo hagamos ahora.<\/strong><\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>En mayo, Sputnik International, una plataforma medi\u00e1tica rusa, emiti\u00f3 una cadena de tuits que cuestionaban la pol\u00edtica exterior de Estados Unidos. En respuesta, cada publicaci\u00f3n fue replicada detalladamente por una cuenta denominada&nbsp;CounterCloud. Estas refutaciones no solo planteaban argumentos, sino que tambi\u00e9n, proporcionaban enlaces a noticias o columnas de opini\u00f3n. Si bien las objeciones de Rusia hacia las pol\u00edticas estadounidenses no [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":948,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[34,329,158,30,285,17,80,109,127,28,48,332,334,64,52,147,160,392,313,327,140,323,278,33,50,90,108,328,338,107,228,267,393,138,110,266,155,126,215,15,37,317,45,227,31,132,333,320,295,216,214,152,211,159,337,284,324,19,319,248,318,84,119,224,83,335,304,47,394,240,395,85,76,59,53,287,269,101,51,396,321],"tags":[],"_links":{"self":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts\/947"}],"collection":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/comments?post=947"}],"version-history":[{"count":1,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts\/947\/revisions"}],"predecessor-version":[{"id":949,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/posts\/947\/revisions\/949"}],"wp:featuredmedia":[{"embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/media\/948"}],"wp:attachment":[{"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/media?parent=947"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/categories?post=947"},{"taxonomy":"post_tag","embeddable":true,"href":"http:\/\/www.imagen.cl\/blog\/index.php\/wp-json\/wp\/v2\/tags?post=947"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}