Cicese Cicese

Juego en-Línea Alimenta Data para Motor de Búsqueda de Música

San Diego, CA, Septiembre 26, 2007 -- Ingenieros eléctricos y científicos de la computación de la Universidad de california, San Diego (UCSD), están trabajano en un sistema computarizado que hará más fácil que las personas que no son muy conocedoras de música (como la mamá del autor senior), encuentre el tipo de música que desea escuchar -- sin saber el(los) nombre(s) del o los artista(s) o de la canción.

En un artículo reciente, los investigadores demostraron que el juego en-línea de música que crearon provee de data crucial para realizar,  en el fondo, un motor de búsqueda de música con sólo poner que tipo de música deseas escuchar.

"Cuando mi mamá se levanta en las mañanas y desea seleccionar que tipo de música desea escuchar durante su ejercicio de correr, pero no tiene ni idea de que artista sea o como se llama la pieza," dice Gert Lanckriet, profesor de ingeniería eléctrica de UCSD y participante académico de Calit2, quien esta supervisando el proyecto.

Lo que la mamá de Gert necesita, es "Google for music" -- un motor de búsqueda que te permite escribir en palabras comunes como "instrumental energizante de piano," o "funky guitar solos" o "música reanimante con vocalista femenino," y recibir una lista de piezas.

Una manera de crear este motor de búsqueda musical tipo lenguaje-natural es anotar manualmente tantas piezas con su clasificación como sea posible -- pero esto es caro y muy limitante en cuanto al alcance y profundidad del motor de búsqueda. Otra manera, sería entrenar a las computadoras a que hagan ellas mismas la clasificación.

Los investigadores de UCSD han, de hecho, construido este sistema durante los últimos dos años. Le llaman  'sistema de audición por computadora'.  Se le da la canción y la clasifica, gracias a una serie de algoritmos creados por ellos. Una vez que la pieza ha sido clasificada, se puede acceder mediante un motor de búsqueda con textos descriptivos sencillos. Pero antes de que el sistema pueda comenzar a clasificar canciones, tiene que ser enseñada --vía un proceso  de aprendizaje de máquina. Accesando toda la data para entrenar adecuadamente el sistema a etiquetar una amplia variedad de música exactamente, es en realidad díficil.

Durante una conferencia académica sobre información musical y acceso esta semana en Vienna, Austria, los investigadores de UCSD describieron el progreso alcanzado hasta ahora para la obtención de ésta meta importante. Lanckriet y otros de UCSD, presentaron que un juego musical en-línea creado por ellos -llamado Listen Game, es capaz de capturar la crucial combinación de canción-letra necesaria para enseñar al sistema a clasificar y etiquetar un gran número de canciones automáticamente.

Listen Game es un juego en-línea de multi-jugadores que hace que los jugadores etiqueten canciones con textos sencillos, Similar a los juegos populares de etiquetado de imágenes,  como ESP, Peekabbom y Phetch , Listen Game  se alimenta de que la gente navegue en la Web y genera data valiosa mientras juega. Para Listen Game, la parte de 'cálculo humano' ocurre cuando el usuario escucha ya sea un pedazo o la pieza completa y determina que palabras son las más relevantes. Los usuarios ganan puntos cuando ellos seleccionan las mismas palabras que otros que también lo están jugando simultáneamente y escuchando la misma canción.

Colecciones de combinaciones confiables de canción-letra son de mucho interes para los investigadores de UCSD. Ellos utilizan estas "clasificaciones semánticas de música" para enseñar a su sistema de computadora de casa a etiquetar o clasificar las canciones que no había encontrado previamente.

En su artículo, los investigadores de UCSD muestran que la combinación canción-letra generadas por las personas cuando juegan Listen Game, puede utilizarse para enseñar acertadamente a su sistema  a etiquetar nuevas piezas.

"Hemos demostrado --en terminos académicos -- que nuestro juego funciona. Estamos ya cerca del rendimiento que obtenemos con datos comparables de muestreos con estudiantes de música que se les pagó por llenar nuestros muestreos musicales." dijó Doug Turnbull, estudiante de doctorado en ciencias de la computación de UCSD, quien junto con Lanckriet, es autor de los tres artículos presentados en ISMIR, la conferencia sobre información musical y acceso.

Gracias a un fondo de apoyo por parte del von Liebeg Center de la Escuela Jacobs de Ingeniería de UCSD, el equipo está trabajando interactivamente con diseñadores para hacer que el juego sea más divertido y atrayente. Con los nuevos juegos, los investigadores esperan colectar los datos necesarios para continuar con el desarrollo de su sistema automatizado de clasificación de música.

"Muchos ingenieros han trabajado en Listen Game. La segunda versión tendrá una presentación mejor al 'tacto y a la vista'," dijó Lanckriet.

Los investigadores lanzarán nuevos juegos a finales de 2007. Estos será gratis y no llevan propaganda. Los jugadores podrán jugar de manera anónima o hacer login y personalizar su interface y socializar con otros jugadores en tiempo-real. Mande un e-mail a gert@ece.ucsd.edu  para que se le avise cuando salgan los siguientes juegos.

Además del artículo en ISMIR sobre Listen Game, los investigadoes de UCSD están presentando otro artículo en ésta misma conferencia sobre identificación de las palabras que más significado tienen par alos motores de búsqueda musical, y otro sobre detección de fronteras(?) dentro de una canción.

Los trabajos en identificación de palabras comenzaron hace dos años, cuando los investigadores relizaban minería de datos en textos en reseñas de canciones buscando las palabras que fuesen más significativas y útiles en el contexto de un motor de búsqueda musical.

Si miramos la letra de canciones, hay tantas palabras que no significan nada, que deseas filtrarlas para obtener datos de entrenamiento de calidad, y tener las palabras que describen acústicamente la canción," dijó David Torres, estudiante de ciencias de la computación de UCSD y que está trabajando en su tesis de maestría y autor del artículo.

Los autores proponen un enfoque para la identificación de palabras significativas musicalmente, y mostrar que este tipo de filtrado puede mejorar el rendimiento del sistema de  etiquetado y acceso de música. 

Enfatizan también las complicaciones que pueden surgir del hecho de que la música es subjetiva. "Por ejemplo, una joven adolescente puede pensar que una canción de los Backstreet Boys es "sentimental y poderosa", mientras que un 'dj' de  una estación de radio la considera "abrasiva  y patética," escriben los autores. Para tomar en cuenta esta subjetividad, Luke Barrington estudiante de doctorado en ingeniería eléctrica y autor del artículo, explicó que el equipo consideró el nivel de acuerdo entre humanos para diferentes palabras al realizar el filtrado de las clasificaciones musicales que obtienen.

En el tercer artículo, Turnbull, Lanckriet y  autores del Japan's National Institute of Advanced Industrial Science and Technology, presentaron su trabajo sobre detección de fronteras entre segmentos musicales de una canción, como entre un verso y un coro. La estrategia de los investigadores para automatizar la detección de fronteras o linderos puede ser útil para la generación de iconos descriptivos (thumbails), para un repaso más eficiente de listas musicales y acceso y obtención de información musical.

"Para poder analizar el audio de una canción, es muy útil poder cortarla en segmentos significativos," dijó el primer autor Doug Turnbull.

"Quizás deseas escuchar a los Beatles, pero los Beatles suaves. No quieres "Back in the USSR ." Estamos construyendo un sistema que te permite utilizar búsqueda con lenguaje natural de música con este nivel de detalle," dijó Turnbull.

 

Author Contacts:
Gert Lanckriet: gert@ece.ucsd.edu
Doug Turnbull: douglasturnbull@gmail.com

Papers presented at ISMIR 2007:
A Game-Based Approach for Collecting Semantic Annotations of Music, by Doug Turnbull, Luke Barrington and Gert Lanckriet from UC San Diego’s Jacobs School of Engineering. Published in the Proceedings of the 8th International Conference on Music Information Retrieval, Vienna, Austria (2007).

Identifying Words that are Musically Meaningful, by David Torres, Doug Turnbull, Luke Barrington and Gert Lanckriet from UC San Diego’s Jacobs School of Engineering. Published in the Proceedings of the 8th International Conference on Music Information Retrieval, Vienna, Austria (2007).

A Supervised Approach for Detecting Boundaries in Music using Difference Features and Boosting by by Doug Turnbull, Luke Barrington and Gert Lanckriet from UC San Diego’s Jacobs School of Engineering and Elias Pampalk and Masataka Goto from Japan’s National Institute of Advanced Industrial Science and Technology. Pampalk is currently at Last.fm. Published in the Proceedings of the 8th International Conference on Music Information Retrieval, Vienna, Austria (2007).

Related Links

Listen Game Prototype (Old Version)
UCSD Computer Audition Laboratory 
David Torres' Web page 
Semantic Annotation and Retrieval 
Doug Turnbull's Web page 
Luke Barrington's Web page
Gert Lanckriet profile