Tercer Milenio
En colaboración con ITA
La inteligencia artificial se sienta a componer junto a los músicos
Durante dos años, la escuela de música Xprésate se convertirá en el laboratorio de I+D de un proyecto que busca desarrollar una plataforma afectiva para ayudar a aprender, componer y distribuir música. Entre 100 y 150 alumnos cederán sus bioseñales, que serán analizadas en la Universidad, con quien también colabora la startup Emblemotions.
Quieren acercar la neurociencia a la música y cambiar la forma de componer. La empresa hispanoalemana Emblemotions acaba de aterrizar en Las Armas con un proyecto que desarrollará basándose en inteligencia artificial y análisis de las emociones mediante bioseñales una plataforma musical afectiva para ayudar a los creadores musicales.
"No pretendemos crear música con inteligencia artificial, sino ayudar al músico a traducir sus emociones a un lenguaje musical", explica Alfonso Paredes, director de Emblemotions. Esta tecnología será "como su compañero o su socio en la producción, que recomienda el sonido acorde o el instrumento más adecuado para que continúe en ese estado de flow, de flujo, en el que da lo mejor de sí mismo". Para identificar ese patrón de exaltación que sirve para crear, "tenemos que hackear el cerebro", medir con sensores la respuesta emocional del usuario en tiempo real porque, además, el sistema aprenderá de él, para saber qué le encaja y qué no. Porque la emoción que produce la música deja su huella en las señales cerebrales, la frecuencia cardíaca, la respuesta galvánica de la piel...
Pero este es el final de una historia que acaba de empezar y que terminará en forma de plugging o de programa de ordenador, aún no se sabe, y de un sensor que buscará no estorbar mucho a un músico que ya trabaja hoy con los cascos, el teclado, el ratón... "Podría ser un guante, un anillo, unificar los sensores en los cascos...". Todo está por ver. "Estratégicamente, en un futuro preferiríamos hacer el hardware nosotros para no depender de terceros", señala Adrián Ligüerre, zaragozano que se encarga de la parte comercial desde Berlín.
Un tesoro de datos
Los alumnos de Xprésate Escuela de Música Avanzada, ubicada en Las Armas, ya han empezado a desempeñar un importante papel inicial. Porque para arrancar la fase de I+D, que se desarrollará en Zaragoza durante dos años, lo primero es hacer acopio de datos, cuantos más mejor, con el fin de "identificar patrones emocionales a partir de la respuesta de cada individuo ante determinados parámetros acústicos". Se utilizarán "sensores EEG (electroencefalógrafo), que miden el foco y la atención a partir de las ondas cerebrales; EDA, que determina la respuesta galvánica de la piel, la sudoración, que denota exaltación, pero no una emoción concreta; electrooculografía, que mide el tamaño de la pupila; electrocardiógrafo, para el ritmo cardíaco; y reconocimiento facial de microexpresiones", concreta Paredes. Colocados sobre los alumnos, capturarán sus bioseñales tanto mientras aprenden como cuando componen, buscando identificar cuándo sienten mayor creatividad. Los datos recogidos serán analizados por el grupo Affective Lab de la Universidad de Zaragoza, que dirige José Ramón Beltrán. La interpretación de estos datos será la base sobre la que se desarrollarán los algoritmos de esta nueva herramienta tecnológica.
Este grupo de investigación trabaja desde hace tiempo en detección de emociones, recomendadores emocionales musicales y medida de señales. Beltrán explica que, "en la interacción persona-ordenador, un elemento clave es la computación afectiva porque, al final, nuestra relación con las máquinas se imbrica también con las emociones. Es un problema complejo no resuelto aún, pero la inteligencia artificial, los sistemas de aprendizaje automático (machine learning) y las redes neuronales profundas gracias a experiencias como el reconocimiento de imágenes de Google, los reconocedores de habla o los sistemas de síntesis de voz han abierto un camino científico para abordarlo con mayor fiabilidad".
Planea el temor a que, con este apoyo artificial, los resultados musicales acaben siendo repetitivos. Beltrán apunta que siempre se podrá negar una recomendación y Paredes está convencido de que este producto facilitará la creación musical, dejando más tiempo a la originalidad y la creatividad.
Para ello hay que:
Capturar la información emocional mediante sensores: pulso cardíaco, conductividad de la piel, electroencefalograma, detección facial... Generar una base de datos con esas señales y las emociones percibidas por los usuarios. Entrenar un sistema de inteligencia artificial que permita detectar el estado emocional del compositor. Proporcionarle los elementos musicales para la composición más adecuados en cada momento: ritmos, timbres, secuencias -Ir al suplemento Tercer Milenio