Los matemáticos del Laboratorio Nacional Lawrence Berkeley del Departamento de Energía Berkeley Lab han desarrollado un nuevo enfoque para el aprendizaje automático dirigido a los datos de imágenes experimentales. En lugar de depender de las decenas o cientos de miles de imágenes utilizadas por los métodos típicos de aprendizaje automático,El nuevo enfoque "aprende" mucho más rápidamente y requiere muchas menos imágenes.
Daniël Pelt y James Sethian del Centro de Berkeley Lab para Matemáticas Avanzadas para Aplicaciones de Investigación Energética CAMERA cambiaron la perspectiva habitual del aprendizaje automático al desarrollar lo que llaman una "Red Neural de Convolución Densa a Escala Mixta MS-D"eso requiere muchos menos parámetros que los métodos tradicionales, converge rápidamente y tiene la capacidad de "aprender" de un conjunto de entrenamiento notablemente pequeño. Su enfoque ya se está utilizando para extraer la estructura biológica de las imágenes celulares y está preparado para proporcionar una nueva computación computacional nuevaherramienta para analizar datos en una amplia gama de áreas de investigación.
A medida que las instalaciones experimentales generan imágenes de mayor resolución a velocidades más altas, los científicos pueden tener dificultades para administrar y analizar los datos resultantes, lo que a menudo se realiza minuciosamente a mano. En 2014, Sethian estableció la CÁMARA en Berkeley Lab como un centro integrado y multidisciplinario paradesarrollar y entregar nuevas matemáticas fundamentales necesarias para capitalizar las investigaciones experimentales en las instalaciones de usuario de la Oficina de Ciencia del DOE. CAMERA es parte de la División de Investigación Computacional del laboratorio.
"En muchas aplicaciones científicas, se requiere un trabajo manual tremendo para anotar y etiquetar imágenes; puede llevar semanas producir un puñado de imágenes cuidadosamente delineadas", dijo Sethian, quien también es profesor de matemáticas en la Universidad de California, Berkeley"Nuestro objetivo era desarrollar una técnica que aprenda de un conjunto de datos muy pequeño".
Los detalles del algoritmo se publicaron el 26 de diciembre de 2017 en un artículo en el Actas de la Academia Nacional de Ciencias.
"El avance fue el resultado de darse cuenta de que la reducción de escala y la escala de escala habituales que capturan características en varias escalas de imágenes podrían ser reemplazadas por convoluciones matemáticas que manejan escalas múltiples dentro de una sola capa", dijo Pelt, quien también es miembro del Grupo de Imágenes Computacionales enCentrum Wiskunde & Informatica, el instituto nacional de investigación en matemáticas y ciencias de la computación en los Países Bajos.
Para que el algoritmo sea accesible para un amplio conjunto de investigadores, un equipo de Berkeley dirigido por Olivia Jain y Simon Mo construyó un portal web "Segmentando el Motor de Datos de Imagen Etiquetada SlideCAM" como parte del conjunto de herramientas CAMERA para las instalaciones experimentales del DOE.
Una aplicación prometedora es comprender la estructura interna de las células biológicas y un proyecto en el que el método MS-D de Pelt y Sethian solo necesitaba datos de siete células para determinar la estructura celular.
"En nuestro laboratorio, estamos trabajando para comprender cómo la estructura celular y la morfología influyen o controlan el comportamiento celular. Pasamos innumerables horas segmentando las células manualmente para extraer la estructura e identificar, por ejemplo, las diferencias entre las células sanas y las enfermas", dijo Carolyn Larabell, directora del Centro Nacional de Tomografía de Rayos X y profesora de la Facultad de Medicina de la Universidad de California en San Francisco." Este nuevo enfoque tiene el potencial de transformar radicalmente nuestra capacidad de comprender la enfermedad, y es una herramienta claveen nuestro nuevo proyecto patrocinado por Chan-Zuckerberg para establecer un Human Cell Atlas, una colaboración global para mapear y caracterizar todas las células en un cuerpo humano sano ".
Obtener más ciencia de menos datos
Las imágenes están en todas partes. Los teléfonos inteligentes y los sensores han producido un tesoro de imágenes, muchas de ellas etiquetadas con información pertinente que identifica el contenido. El uso de esta vasta base de datos de imágenes con referencias cruzadas, redes neuronales convolucionales y otros métodos de aprendizaje automático han revolucionado nuestra capacidad de rápidamenteIdentificar imágenes naturales que se parecen a las vistas y catalogadas previamente.
Estos métodos "aprenden" ajustando un conjunto asombrosamente grande de parámetros internos ocultos, guiados por millones de imágenes etiquetadas y que requieren una gran cantidad de tiempo de supercomputadora. Pero ¿qué pasa si no tiene tantas imágenes etiquetadas? En muchos campos,una base de datos de este tipo es un lujo inalcanzable. Los biólogos registran imágenes celulares y delimitan minuciosamente los bordes y la estructura a mano: no es inusual que una persona pase semanas creando una sola imagen totalmente tridimensional. Los científicos de materiales utilizan la reconstrucción tomográfica para mirar dentrorocas y materiales, y luego enrollar sus mangas para etiquetar diferentes regiones, identificando grietas, fracturas y huecos a mano. Los contrastes entre estructuras diferentes pero importantes a menudo son muy pequeños y el "ruido" en los datos puede enmascarar características y confundir lo mejor dealgoritmos y humanos.
Estas preciosas imágenes seleccionadas a mano no son lo suficientemente cercanas para los métodos tradicionales de aprendizaje automático. Para enfrentar este desafío, los matemáticos de CAMERA atacaron el problema del aprendizaje automático a partir de cantidades muy limitadas de datos. Intentando hacer "más con menos", su objetivoera descubrir cómo construir un conjunto eficiente de "operadores" matemáticos que pudieran reducir en gran medida el número de parámetros. Estos operadores matemáticos podrían incorporar naturalmente restricciones clave para ayudar en la identificación, como incluir requisitos sobre formas y patrones científicamente plausibles.
Redes neuronales de convolución densa de escala mixta
Muchas aplicaciones de aprendizaje automático para problemas de imágenes utilizan redes neuronales convolucionales profundas DCNN, en las que la imagen de entrada y las imágenes intermedias están enredadas en una gran cantidad de capas sucesivas, lo que permite a la red aprender características altamente no lineales. Para lograr resultados precisos.Para los problemas de procesamiento de imágenes difíciles, los DCNN generalmente dependen de combinaciones de operaciones y conexiones adicionales que incluyen, por ejemplo, operaciones de reducción de escala y escala para capturar características en varias escalas de imágenes. Para entrenar redes más profundas y más potentes, a menudo se requieren conexiones y tipos de capas adicionales.Finalmente, los DCNN suelen usar una gran cantidad de imágenes intermedias y parámetros entrenables, a menudo más de 100 millones, para lograr resultados para problemas difíciles.
En cambio, la nueva arquitectura de red "Denso a escala mixta" evita muchas de estas complicaciones y calcula las convoluciones dilatadas como un sustituto de las operaciones de escalado para capturar entidades en varios rangos espaciales, empleando escalas múltiples dentro de una sola capa y conectando densamente todos los intermediosimágenes. El nuevo algoritmo logra resultados precisos con pocas imágenes y parámetros intermedios, eliminando tanto la necesidad de ajustar hiperparámetros como capas o conexiones adicionales para permitir el entrenamiento.
Obteniendo ciencia de alta resolución de datos de baja resolución
Un desafío diferente es producir imágenes de alta resolución a partir de una entrada de baja resolución. Como cualquiera que haya tratado de agrandar una foto pequeña y descubrió que solo empeora a medida que se hace más grande, esto parece casi imposible. Pero un pequeño conjunto de imágenes de entrenamientoprocesado con una red densa de escala mixta puede proporcionar un avance real. Como ejemplo, imagine tratar de reemplazar las reconstrucciones tomográficas de un material mini-compuesto reforzado con fibra. En un experimento descrito en el artículo, las imágenes se reconstruyeron utilizando 1.024 rayos X adquiridosproyecciones para obtener imágenes con cantidades relativamente bajas de ruido. Luego se obtuvieron imágenes ruidosas del mismo objeto mediante la reconstrucción mediante 128 proyecciones. Las entradas de entrenamiento fueron imágenes ruidosas, con las correspondientes imágenes sin ruido utilizadas como salida objetivo durante el entrenamiento. La red capacitada pudo entoncestome efectivamente datos de entrada ruidosos y reconstruya imágenes de mayor resolución.
Nuevas aplicaciones
Pelt y Sethian están abordando una gran cantidad de nuevas áreas, como el análisis rápido en tiempo real de imágenes que salen de fuentes de luz sincrotrónicas y problemas de reconstrucción en la reconstrucción biológica, como el mapeo de células y cerebro.
"Estos nuevos enfoques son realmente emocionantes, ya que permitirán la aplicación del aprendizaje automático a una variedad mucho mayor de problemas de imagen de lo que es posible actualmente", dijo Pelt. "Al reducir la cantidad de imágenes de entrenamiento requeridas y aumentar el tamaño de las imágenesque puede procesarse, la nueva arquitectura puede usarse para responder preguntas importantes en muchos campos de investigación "
Fuente de la historia :
Materiales proporcionado por DOE / Laboratorio Nacional Lawrence Berkeley . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :