desde las instantáneas de la cámara del teléfono hasta los escáneres médicos que salvan vidas, las imágenes digitales juegan un papel importante en la forma en que los humanos comunican la información. Pero las imágenes digitales están sujetas a una serie de imperfecciones como borrosidad, ruido granulado, píxeles faltantes y corrupción de color.
Un grupo dirigido por un científico informático de la Universidad de Maryland ha diseñado un nuevo algoritmo que incorpora redes neuronales artificiales para aplicar simultáneamente una amplia gama de soluciones a las imágenes digitales corruptas. Debido a que el algoritmo puede ser "entrenado" para reconocer qué ideal, sin corrupciónLa imagen debería verse así, es capaz de abordar múltiples fallas en una sola imagen.
El equipo de investigación, que incluía miembros de la Universidad de Berna en Suiza, probó su algoritmo al tomar imágenes no corruptas de alta calidad, introduciendo deliberadamente degradaciones severas y luego utilizando el algoritmo para reparar el daño. En muchos casos, el algoritmo superó el rendimientotécnicas de la competencia, casi devolviendo las imágenes a su estado original.
Los investigadores presentaron sus hallazgos el 5 de diciembre de 2017, en la 31ª Conferencia sobre Sistemas de Procesamiento de Información Neural en Long Beach, California.
"Tradicionalmente, ha habido herramientas que abordan cada problema con una imagen por separado. Cada una de ellas utiliza suposiciones intuitivas de cómo se ve una buena imagen, pero estas suposiciones deben codificarse manualmente en los algoritmos", dijo Matthias Zwicker,Reginald Allan Hahne, profesor de E-Nnovate en Informática de la UMD y autor principal de la presentación de la investigación. "Recientemente, las redes neuronales artificiales se han aplicado para abordar los problemas uno por uno. Pero nuestro algoritmo va un paso más allá: puede abordaruna gran variedad de problemas al mismo tiempo "
Las redes neuronales artificiales son un tipo de algoritmo de inteligencia artificial inspirado en la estructura del cerebro humano. Pueden ensamblar patrones de comportamiento basados en datos de entrada, en un proceso que se asemeja a la forma en que un cerebro humano aprende nueva información. Por ejemplo, humanoslos cerebros pueden aprender un nuevo idioma a través de la exposición repetida a palabras y oraciones en contextos específicos.
Zwicker y sus colegas pueden "entrenar" su algoritmo exponiéndolo a una gran base de datos de imágenes no corruptas de alta calidad ampliamente utilizadas para la investigación con redes neuronales artificiales. Debido a que el algoritmo puede incorporar una gran cantidad de datos y extrapolar el complejoLos parámetros que definen las imágenes, incluidas las variaciones en la textura, el color, la luz, las sombras y los bordes, es capaz de predecir cómo debería ser una imagen ideal y sin daños. Luego, puede reconocer y corregir las desviaciones de estos parámetros ideales en un nuevoimagen.
"Este es el elemento clave. El algoritmo debe ser capaz de reconocer una buena imagen sin degradaciones. Pero para una imagen que ya está degradada, no podemos saber cómo sería", dijo Zwicker, quien también tieneuna cita en el Instituto de Estudios Avanzados de Computación de la Universidad de Maryland UMIACS. "Entonces, primero, entrenamos el algoritmo en una base de datos de imágenes de alta calidad. Luego podemos darle cualquier imagen y el algoritmo modificará las imperfecciones".
Zwicker señaló que varios otros grupos de investigación están trabajando en la misma línea y han diseñado algoritmos que logran resultados similares. Muchos de los grupos de investigación notaron que si sus algoritmos tenían la tarea de eliminar solo el ruido o granularidad de una imagen, el algoritmotambién abordaría automáticamente muchas de las otras imperfecciones, pero el grupo de Zwicker propuso una nueva explicación teórica para este efecto que conduce a un algoritmo muy simple y efectivo.
"Cuando tiene una imagen ruidosa, se desplaza al azar o se aleja de una imagen de alta calidad en todas las dimensiones posibles. Otras degradaciones, como el desenfoque, por ejemplo, difieren del ideal solo en un subconjunto de dimensiones", Zwicker"Nuestro trabajo reveló cómo arreglar el ruido volverá a alinear todas las dimensiones, permitiéndonos abordar varios tipos de otras degradaciones, como el desenfoque, al mismo tiempo".
Zwicker también dijo que el nuevo algoritmo, aunque potente, aún tiene margen de mejora. Actualmente, el algoritmo funciona bien para arreglar estructuras de "bajo nivel" fácilmente reconocibles en imágenes, como bordes afilados. Los investigadores esperan impulsar el algoritmopara reconocer y reparar características de "alto nivel", incluidas texturas complejas como el cabello y el agua.
"Para reconocer las características de alto nivel, el algoritmo necesita contexto para comprender lo que hay en la imagen. Por ejemplo, si hay una cara en una imagen, es probable que los píxeles cerca de la parte superior sean probablemente pelo", dijo Zwicker."Es como armar un rompecabezas. Si solo estás mirando una pieza, es difícil colocar esa parte de la imagen en contexto. Pero una vez que descubres dónde pertenece la pieza, es mucho más fácil reconocer lo que representan los píxeles. Esbastante claro que este enfoque puede llevarse aún más lejos "
Fuente de la historia :
Materiales proporcionado por Universidad de Maryland . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :