Las redes neuronales profundas, los sistemas de múltiples capas construidos para procesar imágenes y otros datos mediante el uso de modelos matemáticos, son la piedra angular de la inteligencia artificial.
Son capaces de obtener resultados aparentemente sofisticados, pero también pueden ser engañados de formas que van desde relativamente inofensivas identificando erróneamente a un animal con otro hasta potencialmente mortales si la red que guía un automóvil autónomo malinterpreta una señal de alto como unaindicando que es seguro continuar.
Un filósofo de la Universidad de Houston sugiere en un artículo publicado en Inteligencia natural de la máquina que las suposiciones comunes sobre la causa detrás de estos supuestos fallos de funcionamiento pueden estar equivocadas, información que es crucial para evaluar la confiabilidad de estas redes.
A medida que el aprendizaje automático y otras formas de inteligencia artificial se integran más en la sociedad, se utilizan en todo, desde cajeros automáticos hasta sistemas de ciberseguridad, Cameron Buckner, profesor asociado de filosofía en UH, dijo que es fundamental comprender la fuente de las aparentes fallas causadaspor lo que los investigadores llaman "ejemplos contradictorios", cuando un sistema de red neuronal profunda juzga mal las imágenes u otros datos cuando se enfrenta con información fuera de los insumos de entrenamiento utilizados para construir la red. Son raros y se denominan "adversarios" porque a menudo se crean odescubierto por otra red de aprendizaje automático: una especie de arriesgado en el mundo del aprendizaje automático entre métodos más sofisticados para crear ejemplos de adversarios y métodos más sofisticados para detectarlos y evitarlos.
"Algunos de estos eventos adversos podrían ser artefactos, y necesitamos conocer mejor cuáles son para saber qué tan confiables son estas redes", dijo Buckner.
En otras palabras, la falla podría deberse a la interacción entre lo que se le pide a la red que procese y los patrones reales involucrados. Eso no es lo mismo que estar completamente equivocado.
"Comprender las implicaciones de los ejemplos contradictorios requiere explorar una tercera posibilidad: que al menos algunos de estos patrones sean artefactos", escribió Buckner. "... Por lo tanto, actualmente existen ambos costos en simplemente descartar estos patrones y peligros al usarlosingenuamente."
Los eventos adversos que hacen que estos sistemas de aprendizaje automático cometan errores no son necesariamente causados por una mala conducta intencional, pero ahí es donde entra el mayor riesgo.
"Significa que los actores malintencionados podrían engañar a los sistemas que dependen de una red que de otro modo sería confiable", dijo Buckner. "Eso tiene aplicaciones de seguridad".
Un sistema de seguridad basado en la tecnología de reconocimiento facial podría ser pirateado para permitir una brecha, por ejemplo, o podrían colocarse calcomanías en las señales de tráfico que hagan que los autos sin conductor malinterpreten la señal, aunque parezcan inofensivas para el observador humano.
Investigaciones anteriores han encontrado que, contrariamente a las suposiciones anteriores, existen algunos ejemplos contradictorios que ocurren naturalmente: ocasiones en las que un sistema de aprendizaje automático malinterpreta los datos a través de una interacción no anticipada en lugar de a través de un error en los datos. Son raros y pueden descubrirsesolo mediante el uso de inteligencia artificial.
Pero son reales, y Buckner dijo que eso sugiere la necesidad de repensar cómo los investigadores abordan las anomalías o artefactos.
Estos artefactos no se han entendido bien; Buckner ofrece la analogía de un destello de lente en una fotografía, un fenómeno que no es causado por un defecto en la lente de la cámara, sino que es producido por la interacción de la luz con la cámara..
El destello de la lente ofrece potencialmente información útil, la ubicación del sol, por ejemplo, si sabe cómo interpretarlo. Eso, dijo, plantea la pregunta de si los eventos adversos en el aprendizaje automático causados por un artefactotambién tengo información útil que ofrecer.
Lo que es igualmente importante, dijo Buckner, es que esta nueva forma de pensar sobre la forma en que los artefactos pueden afectar las redes neuronales profundas sugiere que una mala lectura por parte de la red no debería considerarse automáticamente una evidencia de que el aprendizaje profundo no es válido.
"Algunos de estos eventos contradictorios podrían ser artefactos", dijo. "Tenemos que saber cuáles son estos artefactos para saber qué tan confiables son las redes".
Fuente de la historia :
Materiales proporcionado por Universidad de Houston . Original escrito por Jeannie Kever. Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :