adaptación

¿Y si sale mal?

Sam Altman, cofundador de OpenAI, la empresa creadora de la aplicación de Inteligencia Artificial Generativa ChatGPT, continúa con su campaña pública de promoción y solicitud para crear una agencia reguladora para la Inteligencia Artificial. En la intervención que realizó en el congreso de Estados Unidos dijo:

Es esencial regular la inteligencia artificial, y que esas normas garanticen que el público acceda a los muchos beneficios de esta tecnología. […] Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal. La gente esté ansiosa por cómo la IA puede cambiar la forma en que vivimos. Pero creemos que podemos y debemos trabajar juntos para identificar y gestionar las posibles desventajas para que todos podamos disfrutar sus tremendos beneficios.

La idea de Altman es crear una organización internacional que establezca estándares para la Inteligencia Artificial, similar a la IAEA de la ONU, que fue creada con posterioridad a que Estados Unidos lanzara bombas atómicas sobre Japón. A principios de 1942, poco después que Estados Unidos entrara en la segunda guerra mundial, el físico teórico Robert Oppenheimer fue nombrado líder del Proyecto Manhattan. Sus esfuerzos resultaron fructíferos, y el 16 de julio de 1945, se detonó la primera bomba atómica en Nuevo México. Un mes después, se lanzaron las bombas atómicas sobre las ciudades japonesas de Hiroshima y Nagasaki. Len Giovannitti, en su libro The Decision to Drop the Bomb, cuenta que luego de la prueba en Nuevo México, Oppenheimer dijo:

Supimos que el mundo no sería el mismo. Unas pocas personas rieron, unas pocas lloraron, muchas estuvieron en silencio. Recuerdo la línea de la escritura hindú, el Bhagavad-Gita. Vishnu está tratando de persuadir al Príncipe para que cumpla con su deber y para impresionarlo toma su forma con múltiples brazos y dice: ‘Ahora, me he convertido en la muerte, el destructor de mundos’. Supongo que todos pensamos eso, de una u otra forma.

Oppenheimer creía que tenía las manos manchadas de sangre. En una charla que dio en 1946, señaló:

Pensamos en la leyenda de Prometeo, en ese profundo sentimiento de culpa que traen los nuevos poderes del hombre, que refleja su reconocimiento del mal y su conocimiento de eso mismo desde hace mucho tiempo.

El sentimiento de culpa de Oppenheimer no fue por el uso de la bomba en el contexto de la Segunda Guerra Mundial, ya que sentía que en ese momento la bomba estaba justificada. Se sentía responsable de haber impulsado una carrera armamentista que provocaría una civilización en permanente amenaza. Esperaba que la tecnología nuclear pudiera encontrar aplicaciones civiles pacíficas, pero tenía dudas de que fuera viable debido a los altos costos y riesgos involucrados. Sin embargo, rápidamente, los mismos diseños de reactores de fisión se trasladaron a diseños comerciales para la generación de electricidad. Un gramo de uranio podía producir el equivalente a tres toneladas de carbón. Era una fuente de energía tres millones de veces más poderosa. La energía nuclear se consideró un regalo para la humanidad. Pero, la Ley de Murphy dice que, si algo puede salir mal, saldrá mal. El 26 de abril de 1986, ocurrió el accidente de Chernóbil, que es considerado el peor accidente nuclear y medioambiental de la historia. La noche del lunes 28 de abril, durante la emisión del programa de noticias de la televisión oficial, la presentadora señaló:

Ha ocurrido un accidente en la central de energía de Chernóbil y uno de los reactores resultó dañado. Están tomándose medidas para eliminar las consecuencias del accidente. Se está asistiendo a las personas afectadas. Se ha designado una comisión del Gobierno.

Treinta y una personas murieron a consecuencia directa de la explosión. Aunque persiste la controversia en la cantidad de muertes directas, se estima que fueron por lo menos 80.000 víctimas. La estructura destruida ardió durante 10 días, contaminó 155.000 kilómetros cuadrados. La lluvia radiactiva, 400 veces superior a la radiactividad liberada en Hiroshima, desencadenó una epidemia de cáncer de tiroides. La radiación liberada fue tan masiva que los contaminantes radiactivos se detectaron en casi todo el mundo. Esa radiactividad no se extinguirá hasta pasados 300.000 años. Las pérdidas económicas se han cifrado en cientos de miles de millones de dólares. Según el artículo El accidente de Chernóbil publicado por National Geographic, las principales causas del desastre nuclear fueron errores humanos:

Los responsables de la central no siguieron las medidas de seguridad y el combustible de uranio del reactor se recalentó.

En los años 50, Japón había superado su derrota de la segunda guerra mundial y logró un crecimiento económico milagroso. Querían que el crecimiento económico durara para siempre, por lo que necesitaban una gran cantidad de energía. Apostaron fuertemente por la energía nuclear. La serie The Days de Netflix, recuerda el desastre nuclear de Fukushima. El 11 de marzo de 2011 un terremoto de magnitud 9 y el posterior tsunami golpearon la central de Fukushima Daiichi y dañaron gravemente varios reactores, dejando fuera de servicio los sistemas de enfriamiento de las piscinas de combustible agotado. La interrupción de la energía eléctrica provocó la fusión de tres reactores nucleares, con las consiguientes explosiones de hidrógeno y la liberación de contaminantes radioactivos. El 9 de julio de 2013, dos años después del accidente el líder de la central, Masao Yoshida, quien lideró las acciones para manejar la catástrofe, falleció de cáncer a los 58 años. Reiko Hachisuka, líder de un grupo empresarial en la ciudad de Okuma señaló:

Si Yoshida no hubiera estado allí, el desastre podría haber sido mucho peor.

El accidente nuclear provocó que más de 110.000 personas fueron trasladadas de sus hogares. Esta evacuación causó cerca de unas 2.000 muertes prematuras y los efectos medio ambientales siguen. El núcleo de los reactores requiere un enfriamiento continuo. Desde el accidente se han generado cerca de 180 toneladas de aguas contaminadas cada día. La empresa que gestiona la central nuclear la Tokyo Electric Power Company (TEPCO) reconoció haber descargado por varios años las aguas residuales contaminadas al océano, provocando un escándalo internacional. Aunque Japón es una nación desarrollada y su industria nuclear está altamente regulada, las normas y precauciones no alcanzan. El filósofo español George Santayana, en su libro La razón en el sentido común, escribió:

Aquellos que no pueden recordar el pasado están condenados a repetirlo.

David Krieger, en su artículo Ten Lessons from Chernobyl and Fukushima, destaca que la energía nuclear es una forma de energía extremadamente peligrosa, los accidentes ocurren y a menudo resultan ser peor de lo imaginado. Los expertos no pueden planificar todas las contingencias ni prevenir todos los desastres que puedan ocurrir. La arrogancia, la complacencia y las tecnologías peligrosas son una mezcla mortal. En sus palabras:

Los reguladores gubernamentales de la industria nuclear a menudo provienen de la misma industria y tienden a estar demasiado cerca para regularlos de manera efectiva.

Aunque en circunstancias diferentes, el accidente de la central nuclear de Chernóbil volvió a repetirse en Fukushima.

¿Ha aprendido nuestra sociedad alguna lección sobre el uso de tecnologías peligrosas?

La forma en que se desarrollan y utilizan ciertas tecnologías tiene consecuencias de gran alcance para la vida en la tierra. Este es actualmente el caso de la inteligencia artificial, las biotecnologías y la tecnología nuclear. Hace unos días Future of Life Institute, publicó una carta abierta en la que pedía una pausa de seis meses para estudiar los efectos de la Inteligencia Artificial Generativa, y explorar formas en que se pueda innovar de manera más responsable. Escriben:

La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo.

A diferencia de los sistemas de IA tradicionales que están diseñados para reconocer patrones y hacer predicciones, la Inteligencia Artificial Generativa es capaz de escribir textos, crear imágenes, componer música y escribir código informático. Pero también están surgiendo muchas capacidades adicionales, como falsificar voces e imágenes de personas, redactar proyectos de ley, encontrar errores en códigos informáticos y corregir contratos legales. Estas capacidades plantean un gran impacto y riesgo. Podemos comparar con lo que sucedió con los trabajos manuales durante la revolución industrial, excepto que esta vez, los trabajos que se ven potencialmente más impactados son los de profesiones intensivas en conocimiento y creatividad. Joseph Briggs y Devesh Kodnani de Goldman Sachs, en su artículo Generative AI could raise global GDP by 7%, señalan:

A pesar de la incertidumbre significativa sobre el potencial de la IA generativa, su capacidad para generar contenido que no se puede distinguir de la producción creada por humanos y para derribar las barreras de comunicación entre humanos y máquinas refleja un avance importante con efectos macroeconómicos potencialmente grandes.

Estos analistas consideran que la IA generativa podría impulsar un aumento del 7 % en el PIB mundial y elevar el crecimiento de la productividad en 1,5 puntos porcentuales en un período de 10 años. Sin embargo, estos avances tecnológicos podrían afectar hasta dos tercios de los actuales puestos de trabajo. La carta del Future of Life Institute invita a preguntarnos:

  • ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?
  • ¿Deberíamos automatizar todos los trabajos?
  • ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, hacernos obsoletos y reemplazarnos?
  • ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?

Luego de publicada la carta, Bill Gates, el cofundador de Microsoft en una entrevista con Reuters, indicó que, según su punto de vista, solicitar una suspensión en el desarrollo de estas tecnologías es un error. En su opinión, lo mejor sería analizar cómo sacar mejor provecho de los modelos de inteligencia artificial para terminar con las desigualdades a nivel global. Además, dijo que es muy difícil de entender cómo se haría para aplicar una pausa mundial al trabajo sobre tecnologías como GPT-4. En sus palabras:

No creo que pedirle a un grupo en particular que haga una pausa resuelva los desafíos. Claramente, hay enormes beneficios en estas cosas. Lo que tenemos que hacer es identificar los temas problemáticos. Realmente no entiendo a quién le están diciendo que debería detenerse. Tampoco, si todos los países del mundo estarían de acuerdo en detenerse, y por qué detenerse.

Kai-Fu Lee en su libro AI Superpowers,explica como actualmente en China la Inteligencia Artificial está reforzando otros campos como la Automatización, la Computación cuántica, los desarrollos en Ciencias de la Vida y Nuevas fuentes de Energía. Estas cinco tecnologías combinadas continuarán revolucionando empresas, industrias y sociedades completas. Los sistemas potenciados por Inteligencia Artificial pueden realizar muchas tareas mejor que las personas, a costo cero. Este hecho está generando un tremendo valor económico para algunos, pero provoca un desplazamiento laboral sin precedentes, una ola de disrupción que afectará tarde o temprano a todas las sociedades, empresas y personas. En palabras de Lee:

Estas fuerzas se están combinando para crear un fenómeno histórico único, que sacudirá los cimientos de nuestros mercados laborales, economías y sociedades. Incluso si las predicciones más nefastas sobre la pérdida de puestos de trabajo no llegaran a materializarse por completo, el impacto social de la desgarradora desigualdad podría resultar igual de traumático.

Cuando el Club de Roma le pidió a Jay Forrester, del MIT, que estudiara las relaciones entre los graves problemas globales de la pobreza y el hambre, la destrucción del medio ambiente, el agotamiento de los recursos, el deterioro urbano y el desempleo, y propusiera algunas soluciones, Forrester diseñó un modelo informático y encontró un factor evidente: el crecimiento desmedido. Crecimiento demográfico y económico. Decisiones arriesgadas tomadas visceralmente. Arrogancia en la negación de la posibilidad de riesgos. Desde 1945 sabíamos que la tecnología nuclear podía destruir a la humanidad y también que podía beneficiarnos al producir energía barata y abundante. Tomamos el riesgo y las consecuencias son evidentes. Maya Angelou en On the Pulse of Morning, escribió:

La historia, a pesar de su dolor desgarrador, no puede dejar de vivirse, pero si se la enfrenta con coraje no es necesario volver a vivirla.

Ahora tenemos que lidiar con una nueva arma de destrucción masiva que puede aniquilar nuestro mundo mental y social. Es una nueva oportunidad para que los diferentes actores se involucren en buscar el beneficio para la sociedad en su conjunto. Donella Meadows en su libro Pensar en sistemas escribe:

No conviene maximizar algunas partes de los sistemas o de los subsistemas e ignorar al conjunto del sistema […] no conviene molestarse demasiado en optimizar algo que nunca debería haberse hecho.

Oppenheimer no fue capaz de resolver su dilema moral, lamentaba profundamente la destrucción y muertes que su trabajo había generado. En Atom and Void: Essays on Science and Community, escribió su visión de un mundo posnuclear:

La sociedad abierta, el acceso irrestricto al conocimiento, la asociación no planificada y desinhibida de los hombres para su promoción, esto es lo que puede hacer que un mundo tecnológico vasto, complejo, en constante crecimiento, en constante cambio, cada vez más especializado y experto, sea sin embargo un mundo de la comunidad humana.

Agregar un comentario

Su dirección de correo no se hará público. Los campos requeridos están marcados *