Existe una falla bastante grande en la forma en que los programadores están abordando las preocupaciones éticas relacionadas con la inteligencia artificial IA y los vehículos autónomos AV. A saber, los enfoques existentes no tienen en cuenta el hecho de que las personas podrían intentar usar los AVhacer algo malo
Por ejemplo, digamos que hay un vehículo autónomo sin pasajeros y que está a punto de chocar contra un automóvil que contiene cinco personas. Puede evitar la colisión al desviarse de la carretera, pero luego golpearía a un peatón.
La mayoría de las discusiones sobre ética en este escenario se centran en si la IA del vehículo autónomo debe ser egoísta proteger el vehículo y su carga o utilitaria elegir la acción que perjudica a la menor cantidad de personas. Pero eso o el enfoque de la ética puede aumentarproblemas propios
"Los enfoques actuales de ética y vehículos autónomos son una simplificación excesiva peligrosa: el juicio moral es más complejo que eso", dice Veljko Dubljević, profesor asistente en el programa de Ciencia, Tecnología y Sociedad STS en la Universidad Estatal de Carolina del Norte y autorde un documento que describe este problema y un posible camino a seguir ". Por ejemplo, ¿qué pasa si las cinco personas en el automóvil son terroristas? ¿Y si se aprovechan deliberadamente de la programación de la IA para matar al peatón cercano o lastimar a otras personas? Entonceses posible que desee que el vehículo autónomo golpee el automóvil con cinco pasajeros.
"En otras palabras, el enfoque simplista que se utiliza actualmente para abordar las consideraciones éticas en la IA y los vehículos autónomos no tiene en cuenta la intención maliciosa. Y debería".
Como alternativa, Dubljević propone utilizar el llamado modelo de Consecuencia de Escritura de Agente ADC como un marco que los AI podrían usar para emitir juicios morales. El modelo de ADC juzga la moralidad de una decisión basada en tres variables.
Primero, ¿la intención del agente es buena o mala? En segundo lugar, ¿la acción o acción en sí misma es buena o mala? Por último, ¿el resultado o consecuencia es bueno o malo? Este enfoque permite un matiz considerable.
Por ejemplo, la mayoría de la gente estaría de acuerdo en que pasar una luz roja es malo. Pero, ¿qué pasa si pasa una luz roja para salirse del paso de una ambulancia a alta velocidad? Y qué pasa si pasar la luz roja significa que evitó uncolisión con esa ambulancia?
"El modelo ADC nos permitiría acercarnos a la flexibilidad y la estabilidad que vemos en el juicio moral humano, pero eso aún no existe en la IA", dice Dubljević. "Esto es lo que quiero decir con estable y flexible. La moral humanael juicio es estable porque la mayoría de la gente estaría de acuerdo en que mentir es moralmente malo. Pero es flexible porque la mayoría de la gente también estaría de acuerdo en que las personas que mintieron a los nazis para proteger a los judíos estaban haciendo algo moralmente bueno.
"Pero aunque el modelo ADC nos da un camino hacia adelante, se necesita más investigación", dice Dubljević. "He liderado un trabajo experimental sobre cómo los filósofos y los laicos se acercan al juicio moral, y los resultados fueron valiosos. Sin embargo, ese trabajoproporcionó información a las personas por escrito. Se necesitan más estudios sobre el juicio moral humano que se basen en medios de comunicación más inmediatos, como la realidad virtual, si queremos confirmar nuestros hallazgos anteriores e implementarlos en AV. Además, pruebas vigorosas con estudios de simulación de conduccióndebe hacerse antes de que cualquier AV supuestamente 'ético' comience a compartir el camino con los humanos de manera regular. Desafortunadamente, los ataques terroristas de vehículos se han vuelto más comunes, y debemos asegurarnos de que la tecnología AV no se use indebidamente para propósitos nefastos ".
Fuente de la historia :
Materiales proporcionado por Universidad Estatal de Carolina del Norte . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :