Un nuevo documento en el Actas de la Academia Nacional de Ciencias PNAS informa cómo una técnica de inteligencia artificial de vanguardia llamada aprendizaje profundo puede identificar, contar y describir automáticamente a los animales en sus hábitats naturales.
Las fotografías que las cámaras con sensor de movimiento recopilan automáticamente se pueden describir automáticamente mediante redes neuronales profundas. El resultado es un sistema que puede automatizar la identificación de animales para hasta el 99.3 por ciento de las imágenes mientras se realiza con la misma tasa de precisión del 96.6 por ciento deequipos de voluntarios humanos de crowdsourcing.
"Esta tecnología nos permite recopilar datos de vida silvestre de manera precisa, discreta y económica, lo que podría ayudar a catalizar la transformación de muchos campos de la ecología, la biología de la vida silvestre, la zoología, la biología de la conservación y el comportamiento de los animales en ciencias de 'grandes datos'. Esto mejorará drásticamente nuestracapacidad para estudiar y conservar la vida silvestre y los ecosistemas preciosos ", dice Jeff Clune, autor principal del artículo. Es profesor asociado de Harris en la Universidad de Wyoming y gerente principal de investigación en los Laboratorios de Inteligencia Artificial de Uber.
El documento fue escrito por Clune; su estudiante de doctorado Mohammad Sadegh Norouzzadeh; su ex estudiante de doctorado Anh Nguyen ahora en la Universidad de Auburn; Margaret Kosmala Universidad de Harvard; Ali Swanson Universidad de Oxford;y Meredith Palmer y Craig Packer ambos de la Universidad de Minnesota.
Las redes neuronales profundas son una forma de inteligencia computacional inspirada libremente en cómo los cerebros de los animales ven y entienden el mundo. Requieren grandes cantidades de datos de entrenamiento para funcionar bien, y los datos deben etiquetarse con precisión por ejemplo, cada imagen está correctamente etiquetada conqué especies de animales están presentes, cuántas hay, etc..
Este estudio obtuvo los datos necesarios de Snapshot Serengeti, un proyecto de ciencia ciudadana en la plataforma http://www.zooniverse.org. Snapshot Serengeti ha desplegado una gran cantidad de "trampas de cámara" cámaras con sensor de movimiento en Tanzania querecolecte millones de imágenes de animales en su hábitat natural, como leones, leopardos, guepardos y elefantes. La información en estas fotografías solo es útil una vez que se ha convertido en texto y números. Durante años, el mejor método para extraer dicha información fuepedir a los equipos de voluntarios humanos de crowdsourcing que etiqueten cada imagen manualmente. El estudio publicado hoy aprovechó 3.2 millones de imágenes etiquetadas producidas de esta manera por más de 50,000 voluntarios humanos durante varios años.
"Cuando le dije a Jeff Clune que teníamos 3,2 millones de imágenes etiquetadas, se detuvo en seco", dice Packer, quien dirige el proyecto Snapshot Serengeti. "Queríamos probar si podíamos utilizar el aprendizaje automático para automatizar el trabajo de los voluntarios humanos".. Nuestros científicos ciudadanos han realizado un trabajo fenomenal, pero necesitábamos acelerar el proceso para manejar cantidades cada vez mayores de datos. El algoritmo de aprendizaje profundo es increíble y superó mis expectativas. Esto es un cambio de juego para la ecología de la vida silvestre ".
Swanson, quien fundó Snapshot Serengeti, agrega: "Hay cientos de proyectos de cámaras trampa en el mundo, y muy pocos de ellos pueden reclutar grandes ejércitos de voluntarios humanos para extraer sus datos. Eso significa que gran parte del conocimientoen estos conjuntos de datos importantes permanece sin explotar. Aunque los proyectos están recurriendo cada vez más a la ciencia ciudadana para la clasificación de imágenes, estamos comenzando a ver que lleva más y más tiempo etiquetar cada lote de imágenes a medida que crece la demanda de voluntarios. Creemos que el aprendizaje profundo seráclave para aliviar el cuello de botella en los proyectos de cámara trampa: el esfuerzo de convertir imágenes en datos utilizables ".
"El sistema de inteligencia artificial no solo te dice cuál de las 48 especies diferentes de animales están presentes, sino que también te dice cuántas hay y qué están haciendo. Te dirá si están comiendo, durmiendo, si son bebésestán presentes, etc. ", agrega Kosmala, otro líder de Snapshot Serengeti." Estimamos que la línea de tecnología de aprendizaje profundo que describimos ahorraría más de ocho años de esfuerzo de etiquetado humano por cada 3 millones de imágenes adicionales. Eso es mucho voluntario valiosotiempo que se puede redistribuir para ayudar a otros proyectos "
El primer autor Sadegh Norouzzadeh señala que "el aprendizaje profundo todavía está mejorando rápidamente, y esperamos que su rendimiento solo mejore en los próximos años. Aquí, queríamos demostrar el valor de la tecnología a la comunidad ecológica de la vida silvestre,pero esperamos que a medida que más personas investiguen cómo mejorar el aprendizaje profundo para esta aplicación y publiquen sus conjuntos de datos, el cielo es el límite. Es emocionante pensar en todas las diferentes formas en que esta tecnología puede ayudar con nuestras importantes misiones científicas y de conservación ".
Fuente de la historia :
Materiales proporcionado por Universidad de Wyoming . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :