La inteligencia artificial detrás de los autos autónomos, el análisis de imágenes médicas y otras aplicaciones de visión por computadora se basa en lo que se llama redes neuronales profundas.
Modelados libremente en el cerebro, estos consisten en capas de "neuronas" interconectadas - funciones matemáticas que envían y reciben información - que se "disparan" en respuesta a características de los datos de entrada. La primera capa procesa una entrada de datos sin procesar -- como píxeles en una imagen - y pasa esa información a la siguiente capa de arriba, activando algunas de esas neuronas, que luego pasan una señal a capas aún más altas hasta que finalmente llega a una determinación de lo que hay en la imagen de entrada.
Pero aquí está el problema, dice Cynthia Rudin, profesora de informática de Duke. Podemos ingresar, digamos, una imagen médica y observar lo que sale por el otro extremo 'esta es una imagen de una lesión maligna', pero es difícilsaber lo que pasó en el medio ".
Es lo que se conoce como el problema de la "caja negra". Lo que sucede en la mente de la máquina, las capas ocultas de la red, a menudo es inescrutable, incluso para las personas que lo construyeron.
"El problema con los modelos de aprendizaje profundo es que son tan complejos que en realidad no sabemos lo que están aprendiendo", dijo Zhi Chen, estudiante de doctorado en el laboratorio de Rudin en Duke. "A menudo pueden aprovecharinformación que no queremos que tengan. Sus procesos de razonamiento pueden ser completamente incorrectos ".
Rudin, Chen y la estudiante universitaria de Duke, Yijie Bei, han ideado una manera de abordar este problema. Al modificar el proceso de razonamiento detrás de las predicciones, es posible que los investigadores puedan solucionar mejor los problemas de las redes o comprender si son confiables.
La mayoría de los enfoques intentan descubrir qué llevó a un sistema de visión por computadora a la respuesta correcta después del hecho, señalando las características o píxeles clave que identificaron una imagen: "El crecimiento en esta radiografía de tórax se clasificó como maligno porque, parael modelo, estas áreas son críticas en la clasificación del cáncer de pulmón ". Tales enfoques no revelan el razonamiento de la red, solo hacia dónde estaba mirando.
El equipo de Duke intentó una táctica diferente. En lugar de intentar dar cuenta de la toma de decisiones de una red a posteriori, su método entrena a la red para mostrar su trabajo expresando su comprensión de los conceptos a lo largo del camino. Su método funciona medianterevelando cuánto recuerda la red a diferentes conceptos para ayudar a descifrar lo que ve. "Desentraña cómo se representan los diferentes conceptos dentro de las capas de la red", dijo Rudin.
Dada una imagen de una biblioteca, por ejemplo, el enfoque permite determinar si las diferentes capas de la red neuronal dependen de su representación mental de "libros" para identificar la escena y en qué medida.
Los investigadores encontraron que, con un pequeño ajuste a una red neuronal, es posible identificar objetos y escenas en imágenes con la misma precisión que la red original y, sin embargo, obtener una interpretación sustancial en el proceso de razonamiento de la red. "La técnica es muyfácil de aplicar ", dijo Rudin.
El método controla la forma en que fluye la información a través de la red. Implica reemplazar una parte estándar de una red neuronal por una parte nueva. La parte nueva restringe solo una neurona en la red para disparar en respuesta a un concepto particular que los humanos entienden. Los conceptos podrían ser categorías de objetos cotidianos, como "libro" o "bicicleta". Pero también podrían ser características generales, como "metal", "madera", "frío" o "cálido".sólo una neurona controla la información sobre un concepto a la vez, es mucho más fácil entender cómo "piensa" la red.
Los investigadores probaron su enfoque en una red neuronal entrenada por millones de imágenes etiquetadas para reconocer varios tipos de escenas interiores y exteriores, desde aulas y patios de comidas hasta áreas de juego y patios. Luego, lo encendieron en imágenes que no habían visto antes.También buscaron ver qué conceptos se basaban más en las capas de la red mientras procesaban los datos.
Chen muestra un diagrama que muestra lo que sucedió cuando introdujeron una imagen de una puesta de sol naranja en la red. Su red neuronal entrenada dice que los colores cálidos en la imagen de la puesta de sol, como el naranja, tienden a asociarse con el concepto "cama" encapas anteriores de la red. En resumen, la red activa la "neurona de la cama" en gran medida en las primeras capas. A medida que la imagen viaja a través de capas sucesivas, la red se basa gradualmente en una representación mental más sofisticada de cada concepto, y el concepto de "avión"se activa más que la noción de camas, quizás porque los "aviones" se asocian más a menudo con cielos y nubes.
Es solo una pequeña parte de lo que está sucediendo, sin duda. Pero a partir de esta trayectoria, los investigadores pueden capturar aspectos importantes del hilo de pensamiento de la red.
Los investigadores dicen que su módulo se puede conectar a cualquier red neuronal que reconozca imágenes. En un experimento, lo conectaron a una red neuronal entrenada para detectar cáncer de piel en fotos.
Antes de que una IA pueda aprender a detectar el melanoma, debe aprender qué hace que los melanomas se vean diferentes de los lunares normales y otras manchas benignas en su piel, examinando miles de imágenes de entrenamiento etiquetadas y marcadas por expertos en cáncer de piel.
Pero la red parecía estar evocando un concepto de "borde irregular" que se formó por sí solo, sin la ayuda de las etiquetas de capacitación. Las personas que anotaban las imágenes para usarlas en aplicaciones de inteligencia artificial no habían tomado nota de esa característica., pero la máquina lo hizo.
"Nuestro método reveló una deficiencia en el conjunto de datos", dijo Rudin. Quizás si hubieran incluido esta información en los datos, habría dejado más claro si el modelo estaba razonando correctamente ". Este ejemplo solo ilustra por qué no deberíamosponer fe ciega en modelos de "caja negra" sin idea de lo que sucede dentro de ellos, especialmente para diagnósticos médicos complicados ", dijo Rudin.
Fuente de la historia :
Materiales proporcionado por Universidad de Duke . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :