¡Estamos fascinados con las máquinas que pueden controlar autos, componer sinfonías o derrotar a la gente en el ajedrez, el Go o Jeopardy! Si bien se avanza cada vez más en Inteligencia Artificial IA, algunos científicos y filósofos advierten de los peligrosde una IA superinteligente incontrolable. Utilizando cálculos teóricos, un equipo internacional de investigadores, incluidos científicos del Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano, muestra que no sería posible controlar una IA superinteligente. El estudio fuepublicado en el Revista de investigación en inteligencia artificial .
Supongamos que alguien programara un sistema de IA con inteligencia superior a la de los humanos, para que pudiera aprender de forma independiente. Conectada a Internet, la IA puede tener acceso a todos los datos de la humanidad. Podría reemplazar todos los programas existentes y tomar el controltodas las máquinas en línea en todo el mundo. ¿Produciría esto una utopía o una distopía? ¿La IA curaría el cáncer, lograría la paz mundial y evitaría un desastre climático? ¿O destruiría a la humanidad y se apoderaría de la Tierra?
Los científicos de la computación y los filósofos se han preguntado si seríamos capaces de controlar una IA superinteligente, para asegurarnos de que no representaría una amenaza para la humanidad. Un equipo internacional de científicos de la computación utilizó cálculos teóricos para demostrar que sería fundamentalmenteimposible controlar una IA superinteligente.
"Una máquina superinteligente que controla el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable ypeligroso para la humanidad ", dice el coautor del estudio Manuel Cebrian, líder del Grupo de Movilización Digital en el Centro para Humanos y Máquinas, Instituto Max Planck para el Desarrollo Humano.
Los científicos han explorado dos ideas diferentes sobre cómo se podría controlar una IA superinteligente. Por un lado, las capacidades de la IA superinteligente podrían limitarse específicamente, por ejemplo, aislándola de Internet y de todos los demás dispositivos técnicos para que pueda tenersin contacto con el mundo exterior, sin embargo, esto haría que la IA superinteligente sea significativamente menos poderosa, menos capaz de responder a las misiones de humanidades. Sin esa opción, la IA podría estar motivada desde el principio para perseguir solo los mejores intereses de la humanidad, por ejemplo, programando principios éticos en él. Sin embargo, los investigadores también muestran que estas y otras ideas contemporáneas e históricas para controlar la IA superinteligente tienen sus límites.
En su estudio, el equipo concibió un algoritmo de contención teórico que garantiza que una IA superinteligente no pueda dañar a las personas bajo ninguna circunstancia, simulando primero el comportamiento de la IA y deteniéndolo si se considera dañino. Pero un análisis cuidadoso muestra que en nuestro paradigma actual deinformática, dicho algoritmo no se puede construir.
"Si descompone el problema en reglas básicas de la informática teórica, resulta que un algoritmo que ordenaría a una IA que no destruyera el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabría si elEl algoritmo de contención todavía está analizando la amenaza, o si se ha detenido para contener la IA dañina. De hecho, esto hace que el algoritmo de contención sea inutilizable ", dice Iyad Rahwan, Director del Centro para Humanos y Máquinas.
Según estos cálculos, el problema de la contención es incomputable, es decir, ningún algoritmo puede encontrar una solución para determinar si una IA produciría daño al mundo. Además, los investigadores demuestran que es posible que ni siquiera sepamos cuándo han llegado las máquinas superinteligentes, porquedecidir si una máquina exhibe una inteligencia superior a la de los humanos está en el mismo ámbito que el problema de contención.
Fuente de la historia :
Materiales proporcionado por Instituto Max Planck para el Desarrollo Humano . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :