Si estuviera convencido de que conocía el camino a casa, ¿seguiría encendiendo su GPS?
Los científicos del Ejército recientemente intentaron responder una pregunta similar debido a la preocupación constante de que la inteligencia artificial, que puede ser opaca y frustrante para muchas personas, puede no ser útil en la toma de decisiones en el campo de batalla.
"El Ejército de EE. UU. Continúa impulsando la modernización de sus fuerzas, con esfuerzos notables que incluyen el desarrollo de software basado en teléfonos inteligentes para la entrega de información en tiempo real, como el Kit de Asalto Táctico Android o ATAK, y la asignación de fondos significativos parainvestigando nuevos métodos de inteligencia artificial y aprendizaje automático para ayudar al personal de comando y control ", dijo el Dr. James Schaffer, científico del Laboratorio de Investigación del Ejército de RDECOM, el laboratorio de investigación corporativa ARL del Ejército, en ARL West en Playa Vista, California.
Según Schaffer, a pesar de estos avances, todavía existe una brecha significativa en el conocimiento básico sobre el uso de la IA, y se desconoce qué factores de la IA ayudarán o no a los procesos militares de toma de decisiones.
La investigación universitaria y corporativa ha avanzado significativamente en la resolución de este problema para aplicaciones como las recomendaciones de películas y restaurantes, pero los resultados no se traducen exactamente en el mundo militar
"Por ejemplo, muchos estudios de investigación y pruebas A / B, como los realizados por Amazon, han experimentado con diferentes formas de persuasión, argumentación y estilos de interfaz de usuario para determinar la combinación ganadora que mueve más producto o inspira mayor confianza", Dijo Schaffer." Desafortunadamente, hay grandes diferencias entre los supuestos en estos dominios de bajo riesgo y la práctica militar ".
La investigación del Ejército, que fue una colaboración entre científicos del Ejército e investigadores universitarios de la Universidad de California, Santa Bárbara, plantea la hipótesis de que muchas personas confían en sus propias habilidades mucho más que la de una computadora, lo que afectará su juicio cuando se les presiona para funcionar.
Según Schaffer, esto implica que incluso si se pudiera crear una IA perfecta, algunas personas no escucharían los consejos de la IA.
Los investigadores construyeron un resumen similar al Dilema del Prisionero Iterado, un juego en el que los jugadores deben elegir cooperar o pelear contra sus compañeros en cada ronda, para controlar todos los factores relevantes.
El dilema del prisionero iterado se ha utilizado en relación con varios problemas del mundo real, como las carreras armamentistas militares, el intercambio público de recursos y la política internacional.
El equipo de investigación desarrolló una versión en línea del juego, donde los jugadores obtuvieron puntos al tomar buenas decisiones en cada ronda.
Se usó una IA para generar consejos en cada ronda, que se mostró junto con la interfaz del juego, y sugirió qué decisión debería tomar el jugador.
Los investigadores tuvieron la oportunidad de diseñar una IA que siempre recomendaba el curso de acción óptimo.
Sin embargo, al igual que en la vida real, los jugadores tenían que acceder a los consejos de la IA de forma manual, al igual que debe activar manualmente el GPS, y eran libres de aceptar o ignorar su sugerencia.
Los investigadores también presentaron diferentes versiones de esta IA: algunos eran deliberadamente inexactos, algunos requerían que la información del juego se ingresara manualmente y algunos justificaban sus sugerencias con argumentos racionales.
Todas las variaciones de estos tratamientos de IA se probaron para poder estudiar los efectos de interacción entre las configuraciones de AI.
Se invitó a la gente a jugar en línea y los investigadores recopilaron un perfil de cada jugador y monitorearon su comportamiento.
Para cada jugador, los investigadores preguntaron acerca de su familiaridad con el juego y al mismo tiempo midieron su verdadera competencia.
Además, se realizó una prueba a la mitad del juego que midió la conciencia de los elementos del juego.
"Lo que se descubrió podría molestar a algunos defensores de la IA; dos tercios de las decisiones humanas no estuvieron de acuerdo con la IA, independientemente de la cantidad de errores en las sugerencias", dijo Schaffer.
Cuanto más alto el jugador calculó de antemano su familiaridad con el juego, menos se usó la IA, un efecto que aún se observó al controlar la precisión de la IA. Esto implica que mejorar la precisión de un sistema no podrá aumentar la adopción del sistema enesta población.
"Esto podría ser un resultado inofensivo si estos jugadores realmente estuvieran mejor pero de hecho tuvieran un desempeño significativamente peor que sus compañeros más humildes, quienes informaron saber menos sobre el juego de antemano", dijo Schaffer. "Cuando la IA intentó justificar susugerencias a los jugadores que informaron una alta familiaridad con el juego, se observó un menor conocimiento de los elementos del juego, un síntoma de exceso de confianza y complacencia ".
A pesar de estos hallazgos, no se observó un aumento correspondiente de acuerdo con las sugerencias de IA.
Esto presenta un obstáculo para los diseñadores de sistemas: los usuarios incompetentes necesitan la IA sobre todo, pero son los menos propensos a dejarse llevar por justificaciones racionales, dijo Schaffer.
Los usuarios incompetentes también fueron los más propensos a decir que confiaban en la IA, que se estudió a través de un cuestionario posterior al juego.
"Esto contrasta fuertemente con su negligencia observada de las sugerencias de la IA, lo que demuestra que las personas no siempre son honestas o no siempre son conscientes de su propio comportamiento", dijo Schaffer.
Para Schaffer y el equipo, esta investigación destaca los problemas actuales en la usabilidad de sistemas complejos y opacos como la IA, a pesar de los continuos avances en precisión, robustez y velocidad.
"Se ha demostrado que los argumentos racionales son ineficaces para algunas personas, por lo que los diseñadores pueden necesitar ser más creativos en el diseño de interfaces para estos sistemas", dijo Schaffer.
Schaffer dijo que esto podría lograrse apelando a las emociones o la competitividad, o incluso eliminando la presencia de la IA, de modo que los usuarios no registran su presencia y, por lo tanto, no se anclan en sus propias habilidades.
"A pesar de los desafíos en la interacción humano-computadora, los sistemas tipo IA serán una parte integral de la estrategia del Ejército durante los próximos cinco años", dijo Schaffer. "Uno de los principales desafíos que enfrentan las operaciones militares hoy en día es la respuesta rápida de los adversarios de la guerrilla"., que a menudo tienen cadenas de comando más cortas y, por lo tanto, pueden actuar y reaccionar más rápidamente que las Fuerzas Armadas de los EE. UU. Los sistemas complejos que pueden reaccionar rápidamente a un entorno cambiante y acelerar el flujo de información pueden mejorar los tiempos de respuesta y ayudar a mantener el ritmo de operación, pero solo si se les da suficienteconfianza de sus usuarios "
El grupo de investigación continúa experimentando con diferentes interfaces para sistemas de IA para que todo tipo de personas pueda beneficiarse de un conocimiento automatizado cada vez más efectivo.
Esta investigación aparecerá en las actas de la conferencia de ACM 2019 sobre interfaces de usuario inteligentes http://iui.acm.org/2019/
Fuente de la historia :
Materiales proporcionado por Laboratorio de investigación del ejército de EE. UU. . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :