Un nuevo documento de RAND Corporation determina que la inteligencia artificial tiene el potencial de alterar los cimientos de la disuasión nuclear para el año 2040.
Si bien las máquinas del fin del mundo controladas por la IA se consideran poco probables, los riesgos de la inteligencia artificial para la seguridad nuclear radican en su potencial para alentar a los humanos a asumir riesgos potencialmente apocalípticos, según el documento.
Durante la Guerra Fría, la condición de destrucción mutua asegurada mantuvo una paz incómoda entre las superpotencias al garantizar que cualquier ataque se enfrentara a una represalia devastadora. La destrucción mutua asegurada alentó la estabilidad estratégica al reducir los incentivos para que cualquier país tome medidaseso podría convertirse en una guerra nuclear.
La nueva publicación RAND dice que en las próximas décadas, la inteligencia artificial tiene el potencial de erosionar la condición de destrucción mutua asegurada y socavar la estabilidad estratégica. Las tecnologías de sensores mejoradas podrían introducir la posibilidad de que fuerzas de represalia tales como misiles submarinos y móviles puedan ser atacados ydestruido.
Según los investigadores, las naciones pueden verse tentadas a buscar capacidades de primer ataque como un medio para obtener influencia sobre sus rivales, incluso si no tienen intención de llevar a cabo un ataque. Esto socava la estabilidad estratégica porque incluso si el estado que posee estas capacidades tienesin intención de usarlos, el adversario no puede estar seguro de eso.
"La conexión entre la guerra nuclear y la inteligencia artificial no es nueva, de hecho, los dos tienen una historia entrelazada", dijo Edward Geist, coautor del artículo e investigador asociado de políticas de la Corporación RAND, una organización de investigación no partidista y sin fines de lucro"Gran parte del desarrollo temprano de la IA se realizó en apoyo de los esfuerzos militares o con objetivos militares en mente".
Dijo que un ejemplo de tal trabajo fue el Experimento de planificación adaptativa sobreviviente en la década de 1980 que buscó usar IA para traducir datos de reconocimiento en planes de selección nuclear.
En circunstancias fortuitas, la inteligencia artificial también podría mejorar la estabilidad estratégica al mejorar la precisión en la recopilación y el análisis de inteligencia, según el documento. Si bien la IA podría aumentar la vulnerabilidad de las fuerzas del segundo ataque, una mejor analítica para monitorear e interpretar las acciones adversas podría reducir el cálculo erróneoo una mala interpretación que podría conducir a una escalada involuntaria.
Los investigadores dicen que dadas las mejoras futuras, es posible que eventualmente los sistemas de IA desarrollen capacidades que, aunque falibles, serían menos propensas a errores que sus alternativas humanas y, por lo tanto, se estabilizarían a largo plazo.
"Algunos expertos temen que una mayor dependencia de la inteligencia artificial pueda conducir a nuevos tipos de errores catastróficos", dijo Andrew Lohn, coautor del artículo e ingeniero asociado en RAND. "Puede haber presión para usar IA antes de que seatecnológicamente maduro, o puede ser susceptible a la subversión adversaria. Por lo tanto, mantener la estabilidad estratégica en las próximas décadas puede resultar extremadamente difícil y todas las potencias nucleares deben participar en el cultivo de instituciones para ayudar a limitar el riesgo nuclear ".
los investigadores de RAND basaron su perspectiva en la información recopilada durante una serie de talleres con expertos en temas nucleares, ramas gubernamentales, investigación de IA, política de IA y seguridad nacional.
"¿La inteligencia artificial aumentará el riesgo de guerra nuclear?" Está disponible en http://www.rand.org/pubs/perspectives/PE296.html .
Fuente de la historia :
Materiales proporcionados por Corporación RAND . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :