Los investigadores de visión de la Universidad de York han refutado una teoría de larga data sobre cómo el sistema de visión humana procesa imágenes, utilizando modelos computacionales y experimentos humanos.
Un equipo dirigido por John Tsotsos, profesor del Departamento de Ingeniería Eléctrica e Informática de la Escuela de Ingeniería de Lassonde, descubrió que el cerebro humano no selecciona partes interesantes de una imagen para procesarlas de manera preferencial, como la muy influyente teoría de 1958 deDonald Broadbent propuso.
Para el psicólogo Broadbent, las porciones de imagen interesantes son aquellas que tienen relevancia respecto de por qué está mirando una escena en primer lugar, o son elementos novedosos que captan inmediatamente nuestra atención. La Teoría de la Selección Temprana de Broadbent, que tiene una contraparte moderna enLa teoría del mapa de relevancia de Christof Koch y Shimon Ullman, publicada en 1985, afirma que estas regiones interesantes son procesadas por el cerebro una a la vez, en orden de relevancia, que es una puntuación numérica de lo interesante que es una región.cientos de algoritmos destacados, arraigados en el trabajo de Koch y Ullman, para lograr tal clasificación.
El equipo de Tsotsos descubrió, sin embargo, que no se necesita notoriedad para la simple tarea de decidir rápidamente qué representa una imagen. Además, ninguno de los algoritmos actuales dentro de la inteligencia artificial IA para esta tarea se acerca al rendimiento humano,lo cual es notablemente bueno. Por otro lado, el cálculo de prominencia juega un papel primordial en determinar dónde los humanos mueven sus ojos, y es el movimiento de los ojos el que selecciona partes de una escena para procesar a continuación.
"Nuestro estudio analiza esto para la visión y prueba los algoritmos principales que calculan la medida de prominencia y hace la pregunta '¿están funcionando esos algoritmos al mismo nivel que los humanos en estas imágenes'? Por ejemplo, si la tarea es determinarSi hay un gato en una escena, ¿el algoritmo de saliencia selecciona al gato correctamente? El estudio mostró que estos algoritmos están lejos de funcionar tan bien como los humanos ", dijo Tsotsos.
Para probar más los algoritmos existentes, el equipo realizó experimentos adicionales con 17 sujetos de 25 a 34 años. En uno de los experimentos replicados, a los participantes se les mostraron 2000 imágenes en color. Los sujetos no estaban familiarizados con las imágenes y vieron cada imagen cony sin animales, solo una vez. Las imágenes fueron manipuladas de tal manera que solo las partes más centrales de la retina que tienen la resolución más alta verían lo que había en la imagen y no verían nada en la periferia. Se pidió a los participantes que miraranen el centro de cada fotografía durante 20 segundos antes de que desapareciera. Los participantes pudieron identificar correctamente si un animal estaba presente en la imagen o no.
Tsotsos dice que este hallazgo tiene ramificaciones importantes para nuestra comprensión de la visión humana y el procesamiento visual humano, especialmente para diagnosticar patologías de la visión, como aspectos del autismo.
"Cuando quieres diagnosticar problemas de visión, te basas en cómo debería funcionar el sistema de procesamiento visual saludable. Lo que hemos hecho con este estudio se agrega una pieza del rompecabezas sobre cómo funciona el sistema 'saludable'que luego cambiaría la forma de comparar una anomalía para poder diagnosticarla "
Tsotsos agrega que esta pieza del rompecabezas también podría ser útil para construir nuevos modelos y mejorar los actuales para aplicaciones de seguridad o conducción autónoma.
Fuente de la historia :
Materiales proporcionados por Universidad de York . Nota: El contenido puede ser editado por estilo y longitud.
Referencia del diario :
Cita esta página :