Uno de los mayores impedimentos para la adopción de nuevas tecnologías es la confianza en la IA.
Ahora, una nueva herramienta desarrollada por investigadores de USC Viterbi Engineering genera indicadores automáticos si los datos y las predicciones generadas por algoritmos de IA son confiables. Su artículo de investigación, "Hay esperanza después de todo: cuantificación de la opinión y confiabilidad en redes neuronales" de Mingxi Cheng,Shahin Nazarian y Paul Bogdan del Grupo de Sistemas Físicos Cibernéticos de la USC, aparecieron en Fronteras en inteligencia artificial .
Las redes neuronales son un tipo de inteligencia artificial que se modela a partir del cerebro y generan predicciones. Pero, ¿se puede confiar en las predicciones que generan estas redes neuronales? Una de las barreras clave para la adopción de vehículos autónomos es que los vehículos deben actuarcomo tomadores de decisiones independientes en el piloto automático y descifrar y reconocer rápidamente objetos en la carretera, ya sea un obstáculo, un objeto inanimado, una mascota o un niño, y tomar decisiones sobre cómo actuar si otro vehículo estávirando hacia él. ¿Debería el automóvil chocar contra el vehículo que se aproxima o virar y chocar con lo que el vehículo percibe como un objeto inanimado o un niño? ¿Podemos confiar en el software de la computadora dentro de los vehículos para tomar decisiones acertadas en fracciones de segundo, especialmente cuando¿La información contradictoria proviene de diferentes modalidades de detección, como la visión por computadora de las cámaras o los datos de LIDAR? Saber en qué sistemas confiar y qué sistema de detección es el más preciso sería útil para disuadirmía qué decisiones debe tomar el piloto automático.
El autor principal, Mingxi Cheng, se sintió impulsado a trabajar en este proyecto por este pensamiento: "Incluso los seres humanos pueden ser indecisos en ciertos escenarios de toma de decisiones. En casos que involucran información contradictoria, ¿por qué las máquinas no pueden decirnos cuando no saben?"
Una herramienta creada por los autores llamada DeepTrust puede cuantificar la cantidad de incertidumbre ", dice Paul Bogdan, profesor asociado en el Departamento de Ingeniería Eléctrica e Informática de Ming Hsieh y autor correspondiente, y por lo tanto, si es necesaria la intervención humana.
Desarrollar esta herramienta llevó al equipo de investigación de la USC casi dos años empleando lo que se conoce como lógica subjetiva para evaluar la arquitectura de las redes neuronales. En uno de sus casos de prueba, las encuestas de las elecciones presidenciales de 2016, DeepTrust encontró que la predicción apuntabahacia la victoria de Clinton tenía un mayor margen de error.
La otra importancia de este estudio es que proporciona información sobre cómo probar la confiabilidad de los algoritmos de IA que normalmente se entrenan en miles o millones de puntos de datos. Sería increíblemente lento verificar si cada uno de estos datos apunta queinformaron que las predicciones de la IA se etiquetaron con precisión. Más bien, más crítico, dicen los investigadores, es que la arquitectura de estos sistemas de redes neuronales tiene una mayor precisión. Bogdan señala que si los científicos informáticos quieren maximizar la precisión y la confianza simultáneamente, este trabajo también podría servir como guíaen cuanto a cuánto "ruido" puede haber en las muestras de prueba.
Los investigadores creen que este modelo es el primero de su tipo. Bogdan dice: "Hasta donde sabemos, no existe un modelo o herramienta de cuantificación de confianza para el aprendizaje profundo, la inteligencia artificial y el aprendizaje automático. Este es el primer enfoque y abre nuevas direcciones de investigación. "Agrega que esta herramienta tiene el potencial de hacer que la" inteligencia artificial sea consciente y adaptable ".
Fuente de la historia :
Materiales proporcionado por Universidad del Sur de California . Original escrito por Amy Blumenthal. Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :