El compositor Johann Sebastian Bach dejó una fuga incompleta tras su muerte, ya sea como una obra inacabada o tal vez como un rompecabezas para que los futuros compositores resuelvan.
Un conjunto de datos de música clásica publicado por investigadores de la Universidad de Washington, que permite que los algoritmos de aprendizaje automático aprendan las características de la música clásica desde cero, aumenta la probabilidad de que una computadora pueda terminar el trabajo de manera experta.
MusicNet es el primer conjunto de datos de música clásica a gran escala disponible públicamente con anotaciones de nivel fino seleccionadas. Está diseñado para permitir a los investigadores y algoritmos de aprendizaje automático abordar una amplia gama de desafíos abiertos, desde la predicción de notas hasta la transcripción automática de música y las recomendaciones de escuchabasado en la estructura de una canción que le gusta a una persona, en lugar de depender de etiquetas genéricas o de lo que otros clientes han comprado.
"En un nivel alto, estamos interesados en lo que hace que la música sea atractiva para los oídos, cómo podemos entender mejor la composición o la esencia de lo que hace que Bach suene como Bach. También puede ayudar a permitir aplicaciones prácticas que siguen siendo desafiantes,como la transcripción automática de una actuación en vivo en una partitura escrita ", dijo Sham Kakade, profesor asociado de ciencias de la computación, ingeniería y estadística de la Universidad de Washington.
"Esperamos que MusicNet pueda estimular la creatividad y los avances prácticos en los campos del aprendizaje automático y la composición musical de muchas maneras", dijo.
Descrito en un artículo publicado el 28 de noviembre en el repositorio de preimpresión de arXiv, MusicNet es una colección de 330 grabaciones de música clásica con licencia gratuita con etiquetas anotadas que indican la hora exacta de inicio y finalización de cada nota individual, qué instrumento toca la notay su posición en la estructura métrica de la composición. Incluye más de 1 millón de etiquetas individuales en 34 horas de presentaciones de música de cámara que pueden entrenar algoritmos de computadora para deconstruir, comprender, predecir y reensamblar componentes de la música clásica.
"La comunidad de investigación musical ha estado trabajando durante décadas en la elaboración artesanal de sofisticadas funciones de audio para análisis de música. Creamos MusicNet para brindar a los investigadores un gran conjunto de datos etiquetados para aprender automáticamente características de audio más expresivas, que muestran el potencial de cambiar radicalmente el estado-de vanguardia para una amplia gama de tareas de análisis musical ", dijo Zaid Harchaoui, profesor asistente de estadística de la UW.
Es similar en diseño a ImageNet, un conjunto de datos públicos que revolucionó el campo de la visión por computadora al etiquetar objetos básicos, desde pingüinos hasta autos estacionados y personas, en millones de fotografías. Este vasto depósito de datos visuales que los algoritmos informáticos pueden aprenderfrom ha permitido grandes avances en todo, desde la búsqueda de imágenes hasta autos autónomos y algoritmos que reconocen su rostro en un álbum de fotos.
"Una gran cantidad de entusiasmo en torno a la inteligencia artificial en los últimos cinco años ha sido impulsada por el aprendizaje supervisado con conjuntos de datos realmente grandes, pero no ha sido obvio cómo etiquetar la música", dijo el autor principal John Thickstun, una computadora de la Universidad de Washingtonestudiante de doctorado en ciencias e ingeniería.
"Debe poder decir desde 3 segundos y 50 milisegundos hasta 78 milisegundos, este instrumento está tocando una A. Pero eso es poco práctico o imposible incluso para un músico experto rastrear con ese grado de precisión".
El equipo de investigación de UW superó ese desafío al aplicar una técnica llamada deformación dinámica del tiempo, que alinea el contenido similar que ocurre a diferentes velocidades, con las interpretaciones de música clásica. Esto les permitió sincronizar una interpretación real, como la cadena 'Serioso' de Beethovencuarteto, a una versión sintetizada de la misma pieza que ya contenía las anotaciones musicales deseadas y la puntuación en forma digital.
La deformación del tiempo y el mapeo de que la puntuación digital vuelve al rendimiento original produce el tiempo preciso y los detalles de las notas individuales que hacen que sea más fácil para los algoritmos de aprendizaje automático aprender de los datos musicales.
En su artículo de arXiv, el equipo de investigación de UW probó la capacidad de algunos algoritmos comunes de aprendizaje profundo de extremo a extremo utilizados en el reconocimiento de voz y otras aplicaciones para predecir las notas faltantes de las composiciones. Están haciendo que el conjunto de datos esté disponible públicamente para que los investigadores de aprendizaje automáticoy los aficionados a la música pueden adaptar o desarrollar sus propios algoritmos para avanzar en la transcripción, composición, investigación o recomendaciones de música.
"Nadie realmente ha podido extraer las propiedades de la música de esta manera, lo que abre muchas oportunidades para el juego creativo", dijo Kakade.
Por ejemplo, uno podría imaginar pedirle a su computadora que invente una interpretación similar a las canciones que ha escuchado, o tararear una melodía y decirle que haga una fuga a la orden.
"Estoy realmente interesado en las oportunidades artísticas. Cualquier compositor que cree su arte con la ayuda de una computadora, que incluye a muchos músicos modernos, podría usar estas herramientas", dijo Thickstun. "Si la máquina tiene una mayorcomprensión de lo que están tratando de hacer, eso solo le da más poder al artista "
Ver más en: http://arxiv.org/abs/1611.09827
Fuente de la historia :
Materiales proporcionado por Universidad de Washington . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :