Para la mayoría de las personas, el uso de una computadora se limita a hacer clic, escribir, buscar y, gracias a Siri y software similar, comandos verbales.
Compare eso con la forma en que los humanos interactúan entre sí, cara a cara: sonreír, fruncir el ceño, señalar, el tono de voz, todo presta riqueza a la comunicación.
Con el objetivo de revolucionar las interacciones cotidianas entre humanos y computadoras, los investigadores de la Universidad Estatal de Colorado están desarrollando nuevas tecnologías para hacer que las computadoras reconozcan no solo los comandos tradicionales, sino también los no verbales: gestos, lenguaje corporal y expresiones faciales.
Su proyecto, titulado "Comunicación a través de gestos, expresión y percepción compartida", está dirigido por el Profesor de Ciencias de la Computación Bruce Draper, y está respaldado por una reciente donación de $ 2.1 millones de la Agencia de Proyectos de Investigación Avanzada de Defensa DARPA bajo su "Comunicacióncon el programa de financiación de computadoras "
"Las interfaces humano-computadora actuales todavía están severamente limitadas", dijo Draper, a quien se unieron en el proyecto investigadores de CSU de los departamentos de informática y matemáticas. "Primero, proporcionan una comunicación esencialmente unidireccional: los usuarios le dicen a la computadora quéeso estaba bien cuando las computadoras eran herramientas groseras, pero cada vez más, las computadoras se están convirtiendo en nuestros socios y asistentes en tareas complejas. La comunicación con las computadoras debe convertirse en un diálogo bidireccional ".
El equipo ha propuesto crear una biblioteca de lo que se llama Ideas componibles elementales ECI. Al igual que pequeños paquetes de información reconocibles para las computadoras, cada ECI contiene información sobre un gesto o expresión facial, derivada de usuarios humanos, así como una sintaxiselemento que restringe cómo se puede leer la información.
Para lograr esto, los investigadores han configurado una interfaz Microsoft Kinect. Un sujeto humano se sienta en una mesa con bloques, imágenes y otros estímulos. Los investigadores intentan comunicarse y registrar los gestos naturales de la persona para conceptos como "detente,"o" ¿eh? "
"No queremos decir qué gestos debes usar", explicó Draper. "Queremos que las personas entren y nos digan qué gestos son naturales. Luego, tomamos esos gestos y decimos, 'OK, si eso es ungesto natural, ¿cómo lo reconocemos en tiempo real y cuáles son sus semánticas? ¿Qué roles juega en la conversación? ¿Cuándo lo usa? ¿Cuándo no lo usa? "
Su objetivo: hacer que las computadoras sean lo suficientemente inteligentes como para reconocer de manera confiable las señales no verbales de los humanos de la manera más natural e intuitiva posible. Según la propuesta del proyecto, el trabajo algún día podría permitir que las personas se comuniquen más fácilmente con las computadoras en entornos ruidosos, ocuando una persona es sorda o tiene problemas de audición o habla otro idioma
El proyecto, que pertenece en términos generales al brazo de investigación básica de DARPA, se centra en permitir que las personas hablen a las computadoras a través de gestos y expresiones además de palabras, no en lugar de ellas, dicen los investigadores.
Fuente de la historia :
Materiales proporcionado por Universidad Estatal de Colorado . Original escrito por Anne Ju Manning. Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :