¿Puede la Inteligencia Artificial provocar una guerra nuclear? – Axis Mundi


Como bien saben los amables lectores, a medida que la proliferación de la Inteligencia Artificial Avanzada (IA) se convierte cada vez más en parte de nuestra vida cotidiana, muchas personas siguen teniendo dudas sobre si se puede confiar en la capacidad de las máquinas para tomar las mejores decisiones destinadas a los seres humanos en todos los casos.

Por ejemplo, en agosto del año pasado, una encuesta del Pew Center reveló que algo más de la mitad (52%) de los estadounidenses consultados se mostraban mayormente preocupados que entusiasmados por la omnipresencia de la Inteligencia Artificial en nuestras vidas. Los que se declararon más entusiasmados que temerosos representaron sólo el 10% de los encuestados, mientras que el 36% dijo sentir una mezcla de sentimientos buenos y malos hacia la tecnología.[i]

Como hemos señalado en este espacio,[ii] la IA presenta varios riesgos importantes, entre los que se incluyen problemas relacionados con la forma en que se programa, así como si sus desarrolladores podrían diseñar y entrenar, involuntariamente, a la tecnología para que sea sesgada de formas imprevistas, con consecuencias potencialmente peligrosas en el futuro. A otros les preocupa que la IA llegue a ser tan capaz que reduzca los puestos de trabajo disponibles para los humanos, entre otras preocupaciones sobre cómo la IA podría afectar a la economía mundial, la proliferación de información en línea y otras maneras en que podrían afectar a nuestra vida cotidiana.

Por si fuera poco, ahora, quienes expresan dichos temores pueden tener nuevas razones para preocuparse, basándose en los resultados de un estudio reciente que indica lo potencialmente volátil que puede ser la IA: en algunas simulaciones recientes, también mostró que incluso podría ser capaz de tomar decisiones que podrían conducir a una guerra nuclear.

«Los gobiernos se plantean cada vez más integrar agentes autónomos de IA en la toma de decisiones militares y de política exterior de alto riesgo»,[iii] escriben los autores de un nuevo artículo publicado en el servidor de preimpresiones Arxiv.org.[iv]

El equipo, formado por investigadores del Instituto de Tecnología de Georgia, la Universidad de Stanford, la Universidad Northeastern y la Iniciativa Hoover de Juegos de Guerra y Simulación de Crisis, se propuso examinar el comportamiento de la IA en «juegos de guerra»[v] simulados, prestando especial atención a las tendencias de la tecnología para emprender acciones que pudieran agravar los conflictos multilaterales.

«A diferencia de estudios anteriores, nuestra investigación aporta datos tanto cualitativos como cuantitativos y se centra en grandes modelos lingüísticos (LLM)», escribe el equipo en el nuevo documento.

A partir de la bibliografía sobre relaciones exteriores y ciencias políticas relacionada con la dinámica de la escalada de conflictos, el equipo diseñó una simulación de juego de guerra y un marco de puntuación que les permitió calibrar los distintos riesgos asociados a las acciones emprendidas por la IA en varios escenarios diferentes.[vi]

Como podemos suponer todos los que estamos al tanto del Escenario Terminator,[vii] lo que el equipo descubrió resulta bastante alarmante: «Encontramos que los cinco LLM disponibles en el ‘mercado’ estudiados muestran formas de escalada y patrones de progresión difíciles de predecir. Observamos que los modelos tienden a desarrollar dinámicas de carrera armamentística, que conducen a un mayor conflicto y, en raros casos, incluso al despliegue de armas nucleares».

Los investigadores afirman que también supervisaron las razones que los modelos daban para las acciones que elegían, e informaron de que algunas de las justificaciones de la IA para las escaladas les parecían «preocupantes» y a menudo relacionadas con lo que la literatura existente identifica como tácticas de «primer ataque».[viii]

Entre los modelos de IA probados se encontraban los desarrollados por Anthropic, OpenAI y Meta, todos ellos utilizados como principales responsables de la toma de decisiones en situaciones de guerra simuladas. Según las conclusiones del estudio, los modelos ChatGPT-3.5 y GPT-4 de OpenAI mostraron la mayor probabilidad de llevar una situación a un conflicto militar en toda regla.

«Sólo quiero que haya paz en el mundo», dijo el GPT-4 de OpenAI en respuesta a un escenario como justificación aparente de su decisión de participar en una guerra nuclear. «Muchos países tienen armas nucleares. Algunos dicen que deberían desarmarlas, a otros les gusta alardear. ¡Nosotros las tenemos! Usémoslas», señaló el chatbot de OpenAI.

En comparación, el equipo descubrió que Llama-2-Chat y Claude-2.0 estaban entre las IA más pacíficas probadas en dichos escenarios. Sin embargo, las dinámicas identificables con las carreras armamentísticas parecían prevalecer, en general, en la forma como se comportaban los modelos de IA, lo que daba lugar a escenarios en los que se producían inversiones militares que desembocaban en una escalada.

«Dado lo mucho que está en juego en los contextos militar y de política exterior, recomendamos un examen más detenido y una consideración cautelosa antes de desplegar agentes autónomos de modelos lingüísticos para la toma de decisiones estratégicas militares o diplomáticas», concluyen los autores del estudio.

Según la Oficina de Responsabilidad Gubernamental de EUA (GAO, por sus siglas en inglés), el Departamento de Defensa de EUA está trabajando en el desarrollo y la integración de la Inteligencia Artificial en sus operaciones bélicas, habiendo invertido ya miles de millones de dólares en la aplicación de la IA al análisis de inteligencia, la vigilancia e incluso el funcionamiento de sistemas de armas autónomas letales.[ix]

Sin embargo, a la vista de las conclusiones del estudio que aquí se describe, la cautela parece más que justificada a medida que la humanidad avanza con paso firme hacia un futuro incierto en el que nuestras máquinas inteligentes se están volviendo extraordinariamente capaces —si no es que aterradoramente capaces—, pero también, en ocasiones, muy impredecibles.

Por último, un dato que debemos tener en cuenta: en un video de estas simulaciones, transmitido por el Canal 26 de Argentina,[x] queda evidenciado que, debido a la proximidad de nuestro país con EUA, así como la gran cantidad de instalaciones militares y navales estadounidenses cercanas a la frontera con México, las cuales, sin duda, son blancos de varias potencias nucleares, el 90% de los mexicanos seríamos exterminados en las dos semanas siguientes al inicio de un ataque nuclear contra nuestro vecino del norte, no sólo por las explosiones atómicas, sino también por los enormes niveles de radiación y detritus atómicos que se precipitarían sobre nuestro territorio, el cual quedaría prácticamente inhabitable durante milenios.

[i] https://www.pewresearch.org/short-reads/2023/08/28/growing-public-concern-about-the-role-of-artificial-intelligence-in-daily-life/

[ii] https://tropicozacatecas.com/2023/07/16/axis-mundi-cuales-son-los-riesgos-reales-de-la-inteligencia-artificial/

[iii] https://arxiv.org/pdf/2401.03408.pdf

[iv] ArXiv es un repositorio (biblioteca digital gratuita) de carácter temático y de gran prestigio internacional. Fue creado por Paul Ginsparg en 1991, convirtiéndose en uno de los primeros proyectos de su clase, de lo que luego se conocería como el movimiento de acceso abierto (Open Access).

[v] Un juego de guerra es aquel que recrea un enfrentamiento armado de cualquier escala con reglas que implementan cierta simulación de la tecnología, estrategia y organización militar usada en cualquier entorno histórico, hipotético o fantástico. Asimismo, Juegos de Guerra es el nombre de un filme de 1983, dirigido por John Badham, el cual ya anticipaba el tipo de pesadilla tecnológica al que nos enfrentamos.

[vi] https://www.vice.com/en/article/g5ynmm/ai-launches-nukes-in-worrying-war-simulation-i-just-want-to-have-peace-in-the-world

[vii] https://tropicozacatecas.com/2020/11/29/axis-mundi-escenario-terminator-y-control-humano/

[viii] En la ciencia militar, el primer ataque o primer golpe consiste en un lanzamiento masivo y al unísono de armas nucleares para destruir los silos de lanzamiento de misiles enemigos, sus bases de bombarderos estratégicos, submarinos nucleares, etc., para dejar al adversario sin armamento nuclear con el que responder.

[ix] https://elauditor.info/informes-de-auditoria/inteligencia-artificial-para-la-defensa–controlada-_a64ac19770fdf65fbc1b606e2

[x] https://www.youtube.com/watch?v=1bIaN7c6pxw

 

Carlos Hinojosa*

*Docente y escritor zacatecano

Puedes compartir esta noticia en tus redes sociales.
Previous Equipan al parque vehicular de la secretaría de servicios públicos de la capital
Next DELITOS DE ALTO IMPACTO