Los investigadores de la Universidad Estatal de Carolina del Norte han desarrollado un nuevo marco para construir redes neuronales profundas a través de generadores de red guiados por gramática. En las pruebas experimentales, las nuevas redes, llamadas AOGNets, han superado los marcos de vanguardia existentes, incluyendolos sistemas ResNet y DenseNet ampliamente utilizados, en tareas de reconocimiento visual.
"AOGNets tiene una mejor precisión de predicción que cualquiera de las redes con las que lo hemos comparado", dice Tianfu Wu, profesor asistente de ingeniería eléctrica e informática en NC State y autor correspondiente de un artículo sobre el trabajo. "AOGNets también sonmás interpretable, lo que significa que los usuarios pueden ver cómo el sistema llega a sus conclusiones "
El nuevo marco utiliza un enfoque de gramática compositiva para la arquitectura del sistema que se basa en las mejores prácticas de los sistemas de red anteriores para extraer de manera más efectiva información útil de los datos sin procesar.
"Descubrimos que la gramática jerárquica y compositiva nos brindó una manera simple y elegante de unificar los enfoques tomados por arquitecturas de sistemas anteriores, y para nuestro mejor conocimiento, es el primer trabajo que utiliza la gramática para la generación de redes", dice Wu.
Para probar su nuevo marco, los investigadores desarrollaron AOGNets y los probaron contra tres puntos de referencia de clasificación de imágenes: CIFAR-10, CIFAR-100 e ImageNet-1K.
"AOGNets obtuvo un rendimiento significativamente mejor que todas las redes de vanguardia en comparaciones justas, incluidas ResNets, DenseNets, ResNeXts y DualPathNets", dice Wu. "AOGNets también obtuvo el mejor puntaje de interpretación del modelo utilizando la disección de redmétrica en ImageNet. Las AOGNets muestran además un gran potencial en la defensa de adversarios y la implementación independiente de la plataforma móvil frente a la nube ".
Los investigadores también probaron el rendimiento de AOGNets en la detección de objetos y la segmentación semántica de instancias, en el punto de referencia de Microsoft COCO, utilizando el sistema Vanilla Mask R-CNN.
"AOGNets obtuvo mejores resultados que las redes troncales ResNet y ResNeXt con tamaños de modelo más pequeños y tiempos de inferencia similares o ligeramente mejores", dice Wu. "Los resultados muestran la efectividad de que AOGNets aprenda mejores funciones en tareas de detección y segmentación de objetos".
Estas pruebas son relevantes porque la clasificación de imágenes es una de las tareas básicas básicas en el reconocimiento visual, e ImageNet es el estándar de referencia de clasificación a gran escala. Del mismo modo, la detección y segmentación de objetos son dos tareas centrales de visión de alto nivel, y MS-COCOes uno de los puntos de referencia más utilizados.
"Para evaluar nuevas arquitecturas de red para el aprendizaje profundo en reconocimiento visual, son los bancos de pruebas de oro", dice Wu. "Las AOGNets se desarrollan bajo un marco de gramática basado en principios y obtienen una mejora significativa tanto en ImageNet como en MS-COCO, mostrando así un potencial amplioe impactos profundos para el aprendizaje de representación en numerosas aplicaciones prácticas.
"Estamos entusiasmados con el marco AOGNet guiado por la gramática y estamos explorando su desempeño en otras aplicaciones de aprendizaje profundo, como la comprensión profunda del lenguaje natural, el aprendizaje generativo profundo y el aprendizaje de refuerzo profundo", dice Wu.
El documento, "AOGNets: Compositional Grammatical Architectures for Deep Learning", se presentará en la Conferencia de IEEE Computer Vision and Pattern Recognition, que se celebrará del 16 al 20 de junio en Long Beach, California. El primer autor del artículo es Xilai Li,estudiante de doctorado en NC State. El artículo fue escrito en colaboración con Xi Song, un investigador independiente.
El trabajo se realizó con el apoyo de la Oficina de Investigación del Ejército de EE. UU. Bajo las subvenciones W911NF1810295 y W911NF1810209.
Se presenta una solicitud de patente para el trabajo. Los autores están interesados en colaborar con posibles socios académicos y de la industria.
Fuente de la historia :
Materiales proporcionado por Universidad Estatal de Carolina del Norte . Original escrito por Matt Shipman. Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :