Un equipo de investigación de la Universidad de Buffalo ha publicado un artículo que implica que la prisa por prohibir y demonizar las armas autónomas o los "robots asesinos" puede ser una solución temporal, pero el problema real es que la sociedad está entrando en una situación en la que sistemas como estostener y será posible.
Los robots asesinos están en el centro de las historias clásicas que se cuentan en películas como "The Terminator" y la serie de televisión original de Star Trek "The Doomsday Machine", pero la idea de armas totalmente autónomas que actúan independientemente de cualquier agencia humana no es lalicencia exclusiva para escritores de ciencia ficción. Los robots asesinos tienen una línea presupuestaria del Pentágono y un grupo de organizaciones no gubernamentales, incluida Human Rights Watch, ya está trabajando colectivamente para detener su desarrollo.
La gobernanza y el control de sistemas como los robots asesinos deben ir más allá de los productos finales.
"Tenemos que deconstruir el término 'robot asesino' en técnicas culturales más pequeñas", dice Tero Karppi, profesor asistente de estudio de medios, cuyo trabajo con Marc Böhlen, profesor de estudio de medios de la UB, e Yvette Granta, estudiante de posgrado en launiversidad, aparece en el Revista Internacional de Estudios Culturales .
"Necesitamos volver atrás y mirar la historia del aprendizaje automático, el reconocimiento de patrones y el modelado predictivo, y cómo se conciben estas cosas", dice Karppi, un experto en estudios de software y plataformas críticas cuyos intereses incluyen la automatización, la inteligencia artificial ycómo fallan estos sistemas. "¿Cuáles son los principios y las ideologías de la construcción de un sistema automatizado? ¿Qué puede hacer?" Al mirar a los robots asesinos, nos vemos obligados a abordar las preguntas que se establecen para definir la próxima era de la automatización, la inteligencia artificial y la robótica, él dice.
"¿Son los humanos mejores que los robots para tomar decisiones? Si no, ¿qué separa a los humanos de los robots? Cuando definimos qué son los robots y qué hacen, también definimos lo que significa ser humano en esta cultura y esta sociedad,"Dice Karppi.
Las técnicas culturales son principios que conducen al desarrollo técnico. Originalmente relacionadas con la agricultura, las técnicas culturales alguna vez se referían al cultivo y los procesos, labores y acciones necesarias para hacer que la tierra sea productiva y habitable
En la teoría de los medios, sin embargo, el enfoque de técnicas culturales está interesado en varias partes de trabajo y múltiples cadenas evolutivas de pensamiento, tecnología, imaginación y producción de conocimiento, y cómo estas prácticas se convierten en sistemas, productos y conceptos reales. Las técnicas culturales brindan informaciónen el proceso de convertirse: cómo llegamos a ahora.
"Las técnicas culturales crean distinciones en el mundo", dice Karppi. "Anteriormente, los humanos tenían la agencia en el campo de batalla para apretar el gatillo, pero ¿qué sucede cuando esta agencia se le da a un robot y debido a su complejidad no podemosincluso rastrear por qué se toman decisiones particulares en situaciones particulares? "
Cualquier conversación sobre robots asesinos suena al principio como un ejercicio de fantasía, pero las agencias ya están trabajando para construir y tratando de evitar la construcción de su base operativa.
El Pentágono asignó $ 18 mil millones de su último presupuesto para desarrollar sistemas y tecnologías que podrían formar la base de armas totalmente autónomas, instrumentos que buscan, identifican y atacan de forma independiente a combatientes u objetivos enemigos, según The New York Times.
Un ataque diplomático en este escenario potencial de guerra de máquinas se produjo en 2012 cuando un grupo de ONG formó "La Campaña para Detener a los Robots Asesinos", encargada de prohibir el desarrollo de tales armas.
Pero Karppi y sus colegas autores argumentan en su artículo "que es necesario reconsiderar la composición de la amenaza real".
"Considere cómo el software y los sistemas éticos operan con ciertas reglas", dice Karppi. "¿Podemos incorporar el sistema basado en reglas éticas y codificarlo en el software? ¿Qué ética elegimos? ¿Qué nos permite hacer el software?? "Los autos autónomos operan según las reglas de la carretera: cuándo detenerse, girar, ceder el paso o continuar. Pero las armas autónomas deben distinguir entre amigos y enemigos y, quizás lo más importante, cuando uno se convierte en el otro, en el casode rendición, por ejemplo.
"Las distinciones entre combatiente y no combatiente, humano y máquina, vida y muerte no las dibuja un robot", escriben los autores. "Si bien puede ser el robot el que aprieta el gatillo, la operación real de tirar es unaconsecuencia de una vasta cadena de operaciones, procesos y cálculos ". Karppi dice que es necesario descomponer dos elementos diferentes en el caso de los robots asesinos.
"No debemos centrarnos en lo que es tecnológicamente posible", dice, "sino en las motivaciones ideológicas, culturales y políticas que impulsan estos desarrollos tecnológicos".
Fuente de la historia :
Materiales proporcionado por Universidad de Buffalo . Original escrito por Bert Gambini. Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :