Tercer Milenio

En colaboración con ITA

La inteligencia artificial se sienta a componer junto a los músicos

Durante dos años, la escuela de música Xprésate se convertirá en el laboratorio de I+D de un proyecto que busca desarrollar una plataforma afectiva para ayudar a aprender, componer y distribuir música. Entre 100 y 150 alumnos cederán sus bioseñales, que serán analizadas en la Universidad, con quien también colabora la ‘startup’ Emblemotions.

Jesús Domingo Martín monitoriza lo que pasa en su cerebro al tiempo que hace música.
Jesús Domingo Martín monitoriza lo que pasa en su cerebro al tiempo que hace música.
Xprésate

Quieren acercar la neurociencia a la música y cambiar la forma de componer. La empresa hispanoalemana Emblemotions acaba de aterrizar en Las Armas con un proyecto que desarrollará –basándose en inteligencia artificial y análisis de las emociones mediante bioseñales– una plataforma musical afectiva para ayudar a los creadores musicales.

"No pretendemos crear música con inteligencia artificial, sino ayudar al músico a traducir sus emociones a un lenguaje musical", explica Alfonso Paredes, director de Emblemotions. Esta tecnología será "como su compañero o su socio en la producción, que recomienda el sonido acorde o el instrumento más adecuado para que continúe en ese estado de ‘flow’, de flujo, en el que da lo mejor de sí mismo". Para identificar ese patrón de exaltación que sirve para crear, "tenemos que hackear el cerebro", medir con sensores la respuesta emocional del usuario en tiempo real porque, además, el sistema aprenderá de él, para saber qué le encaja y qué no. Porque la emoción que produce la música deja su huella en las señales cerebrales, la frecuencia cardíaca, la respuesta galvánica de la piel...

Pero este es el final de una historia que acaba de empezar y que terminará en forma de ‘plugging’ o de programa de ordenador, aún no se sabe, y de un sensor que buscará no estorbar mucho a un músico que ya trabaja hoy con los cascos, el teclado, el ratón... "Podría ser un guante, un anillo, unificar los sensores en los cascos...". Todo está por ver. "Estratégicamente, en un futuro preferiríamos hacer el hardware nosotros para no depender de terceros", señala Adrián Ligüerre, zaragozano que se encarga de la parte comercial desde Berlín.

Un tesoro de datos

Los alumnos de Xprésate Escuela de Música Avanzada, ubicada en Las Armas, ya han empezado a desempeñar un importante papel inicial. Porque para arrancar la fase de I+D, que se desarrollará en Zaragoza durante dos años, lo primero es hacer acopio de datos, cuantos más mejor, con el fin de "identificar patrones emocionales a partir de la respuesta de cada individuo ante determinados parámetros acústicos". Se utilizarán "sensores EEG (electroencefalógrafo), que miden el foco y la atención a partir de las ondas cerebrales; EDA, que determina la respuesta galvánica de la piel, la sudoración, que denota exaltación, pero no una emoción concreta; electrooculografía, que mide el tamaño de la pupila; electrocardiógrafo, para el ritmo cardíaco; y reconocimiento facial de microexpresiones", concreta Paredes. Colocados sobre los alumnos, capturarán sus bioseñales tanto mientras aprenden como cuando componen, buscando identificar cuándo sienten mayor creatividad. Los datos recogidos serán analizados por el grupo Affective Lab de la Universidad de Zaragoza, que dirige José Ramón Beltrán. La interpretación de estos datos será la base sobre la que se desarrollarán los algoritmos de esta nueva herramienta tecnológica.

Este grupo de investigación trabaja desde hace tiempo en detección de emociones, recomendadores emocionales musicales y medida de señales. Beltrán explica que, "en la interacción persona-ordenador, un elemento clave es la computación afectiva porque, al final, nuestra relación con las máquinas se imbrica también con las emociones. Es un problema complejo no resuelto aún, pero la inteligencia artificial, los sistemas de aprendizaje automático (‘machine learning’) y las redes neuronales profundas –gracias a experiencias como el reconocimiento de imágenes de Google, los reconocedores de habla o los sistemas de síntesis de voz– han abierto un camino científico para abordarlo con mayor fiabilidad".

Planea el temor a que, con este apoyo artificial, los resultados musicales acaben siendo repetitivos. Beltrán apunta que siempre se podrá negar una recomendación y Paredes está convencido de que este producto facilitará la creación musical, dejando más tiempo a la originalidad y la creatividad.

Una muleta para salir del apuro si te quedas atascado que no sustituirá a la creatividad personal
A Jesús Domingo no le importa nada hacer de conejillo de Indias. "Me tienen de cobaya, pero es genial porque este proyecto de I+D mezcla neurociencia y música y tiene la necesidad de recabar datos". Es el primer alumno de la escuela de música Xprésate que comenzó a colocarse encima los sensores que registran su respuesta ante la música. Otros compañeros se van incorporando a esta toma de datos. La información recogida de los más de cien alumnos del centro será la base sobre la que trabajará Emblemotions. Hace un par de semanas, "los chicos del proyecto me pusieron la diadema que mide las frecuencias de cada parte del cerebro". Después, también ha tenido la compañía de cámaras siguiendo sus movimientos faciales. Al principio "es raro hacer música con tantos pingos encima, pero te acostumbras", aunque lleva siete años siendo DJ solo con los cascos puestos. Los próximos días, "llegarán los sensores de cardio, los que miden la respuesta de la piel y los que siguen al ojo, que también se excita con la música". Le recomiendan que no se mueva demasiado para no ensuciar la señal, "y yo bailo mucho pinchando". Colabora con el proyecto de I+D como parte de sus prácticas del último curso del Máster en Sonido y Producción Audiovisual. También produce música electrónica y espera que el producto que salga de esta I+D "sea una muleta, un apoyo que, con sus recomendaciones, te saque del apuro cuando uno se queda atascado y evites pasarte cinco horas frustrado; además, será inteligencia artificial, que aprende de ti; es una idea fascinante". Él, que tiene el grado de Informática, enseguida se entusiasmó con la iniciativa. No obstante, es consciente de que, para no acabar dependiendo de una tecnología así, "habrá que saber usarla". Ve claro que "la creatividad no la va a conseguir un programa, te puede orientar, pero siempre tendrá que estar la persona y su capacidad de crear". Aunque "ya hay prototipos de DJ que son máquinas, no consiguen ‘el calor del DJ’, la psicología de pista, saber qué poner y a quién". ¿Pero qué pasará si les enseñamos? Piensa que "nunca será lo mismo que una persona" y espera que así siga siendo porque "si no, me quedaré sin trabajo".

Paso a paso
El proyecto Emblemotions plantea que, mediante la detección de emociones con sensores biométricos, se puede facilitar el proceso de composición musical.

Para ello hay que:

Capturar la información emocional mediante sensores: pulso cardíaco, conductividad de la piel, electroencefalograma, detección facial... Generar una base de datos con esas señales y las emociones percibidas por los usuarios. Entrenar un sistema de inteligencia artificial que permita detectar el estado emocional del compositor. Proporcionarle los elementos musicales para la composición más adecuados en cada momento: ritmos, timbres, secuencias…-Ir al suplemento Tercer Milenio

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión