Deconstruyendo la música
- Pliego de cultura
- Tendencias
- Oct 18
- 9 mins
La música es como el agua que se escurre entre las manos: ¿cuál es la naturaleza de esta materia efímera, considerada el lenguaje más abstracto y universal? ¿Existe la fórmula matemática que fije su esencia? Desde la Antigüedad se ha intentado captar la especificidad de este arte presente en todas las culturas sin llegar a ninguna conclusión, y la investigación llega hasta la actualidad en que, pese a los avances de la ciencia, los interrogantes permanecen abiertos.
La musicología es la ciencia que tradicionalmente ha estudiado los fenómenos relacionados con la música, su evolución y la relación con el ser humano y la sociedad, pero en las últimas décadas se han añadido otras disciplinas que han aportado una mirada nueva, rompiendo prejuicios y visiones mitificadas de procedencia romántica. La tecnología musical, la inteligencia artificial, las neurociencias y los estudios sobre la cognición musical son algunos de los ámbitos más innovadores en este sentido. En la actualidad, uno de los expertos en inteligencia artificial aplicada a la música más respetados es el francés François Pachet, director del Spotify Creator Technology Research Lab, donde desarrolla la siguiente generación de herramientas de inteligencia artificial para los músicos.
La primera composición realizada por un ordenador se estrenó en 1956, la Illiac Suite para cuarteto de cuerda, de Lejaren Hiller. Pero Pachet ha ido un paso más allá y ha publicado el primer álbum creado completamente con inteligencia artificial, Hello World. Los artistas participantes utilizaron la tecnología Flow Machines para seleccionar un grupo de canciones (como por ejemplo el Himno a la alegría de Beethoven) y Pachet diseñó un algoritmo que aprendía el estilo con el fin de aplicarlo posteriormente a sus propias composiciones. El resultado, sorprendente, muestra que el talento no es patrimonio exclusivo del ser humano.
El proyecto COSMOS pretende explorar cómo el músico es capaz de definir y expresar las estructuras musicales que, sin embargo, no son inherentes a la obra, sino que cada intérprete las modela durante su interpretación.
Por otro lado, los recursos informáticos dirigidos a los compositores –esta vez de carne y hueso– se han visto multiplicados gracias a la emergencia de nuevas plataformas. Existe, por ejemplo, el Freesound, una página web a la que se puede ir a extraer sonidos que los usuarios cuelgan, o bien el proyecto AcousticBrainz, que ha recogido datos del análisis automático de más de nueve millones de canciones, así como Essentia, una librería de algoritmos para el análisis automático de grabaciones de audio según diferentes aspectos musicales. En la Universidad de Huddersfield (Reino Unido) están desarrollando un sistema para dar soluciones a los artistas que trabajan con los dos entornos más populares, Max y SuperCollider, y ayudarles a encontrar el sonido que más se adapte a sus necesidades creativas. Aquí se abre un campo de posibilidades infinito y en constante evolución. La música acusmática, aquella que se basa en ruidos, ha quedado, desde esta perspectiva, del todo obsoleta.
La propia interpretación musical también se ha visto sacudida a causa de las tecnologías informáticas. Este aspecto es el epicentro del estudio que lleva a cabo la pianista y artista multidisciplinaria Elaine Chew, que dirige el Music, Performance and Expressivity Lab en el Centre for Digital Music, de la Universidad Queen Mary de Londres. Su proyecto, COSMOS, pretende explorar cómo el músico es capaz de definir y expresar las estructuras musicales que, sin embargo, no son inherentes a la obra, sino que cada intérprete las modela durante su interpretación. Incluso hay un estudio ya concluido, liderado por Atau Tanaka de la Goldsmiths University of London, que ha relacionado el movimiento corporal y la gesticulación en la interpretación. De momento ya ha diseñado una pulsera que registra las bioseñales del intérprete y las envía a un ordenador que recoge todos los datos para analizarlos. El objetivo es diseñar instrumentos musicales que se controlen con estos gestos a través de la electromiografía.
Por su parte, Paulo de Assis, del Orpheus Institute de Bélgica, analiza los retos del intérprete a la hora de tocar música clásica europea, y sostiene que el músico no tiene que aproximarse a la partitura como algo fijo, sino más bien como una escritura cambiante y en constante transformación: “El músico no tiene que interpretar una partitura, sino ofrecer un montaje de los diferentes extractos –múltiples ediciones de la partitura, las anotaciones del compositor, críticas y comentarios de la obra, interpretaciones de otros músicos, etc.– y crear así un espacio de problematización alrededor de la obra”, sostiene De Assis.
Interés de las neurociencias
Las neurociencias se han apoderado de la música en su búsqueda para diseñar terapias más eficaces y menos agresivas. Ya se ha demostrado que la música puede ayudar a desarrollar ciertas habilidades cognitivas y también se muestra muy eficaz a la hora de acelerar rehabilitaciones relacionadas con el aparato motriz. Jean-Julien Aucouturier, investigador del IRCAM, Instituto de Investigación y Coordinación Acústica/Música del Centro Pompidou de París, estudia cómo el sonido puede afectar a las emociones de una persona de manera inconsciente. En su investigación ha explorado el ADN emocional de los sonidos y ha creado tecnologías que permiten modificarlos para obtener un estado de ánimo determinado. Las aplicaciones de esta investigación son múltiples, como por ejemplo el tratamiento de personas con autismo o con imposibilidad de comunicación.
Hay un extenso campo de estudio por recorrer, dado que, si bien se ha descubierto que el cerebro posee una zona especializada para la percepción de sonidos, no se ha detectado aún una región específica para la percepción musical.
Paralelamente han desarrollado el software Angus, que permite añadir un componente de aspereza a diferentes tipos de sonidos –voz humana, un instrumento, sonidos de la naturaleza...– con el fin de estudiar su efecto emocional sobre las personas desde un punto de vista neurológico. En el estudio del cerebro destaca también el trabajo de Fang Liu, de la Universidad de Reading, que ha demostrado la relación directa entre el autismo y la amúsia congénita –la incapacidad per reconocer tonos musicales o reproducirlos–, ya que la música y el lenguaje se procesan en zonas superpuestas del cerebro. Aquí hay un extenso campo de estudio por recorrer, dado que, si bien se ha descubierto que el cerebro posee una zona especializada para la percepción de sonidos, no se ha detectado aún una región específica para la percepción musical. De hecho, un equipo de la École Normale Supérieure de París, dirigido por Sam Norman-Haignere, pondrá en marcha una nueva técnica a base de resonancias magnéticas para poder descubrir y estudiar esta zona.
Desde el terreno de la musicología, el más tradicional pero no por eso menos válido, se ha seguido avanzando en diversas líneas de estudio paralelas que aportan nuevos datos sobre el papel de la música. Álvaro Torrente, director del Instituto Complutense de Ciencias Musicales, por ejemplo, ha rastreado las emociones en la ópera barroca italiana del siglo xviii, conocida por su voluntad de “mover emociones”. Torrente ha tomado novecientas óperas de trescientos compositores diferentes basadas en los veintisiete libretos escritos por Pietro Metastasio, poeta y escritor italiano del siglo xviii. El propósito es crear un corpus de cuatro mil arias en formato digital, que serán analizadas informáticamente buscando las conexiones entre situaciones dramáticas concretas y unas características musicales determinadas.
Desde una perspectiva histórica, los investigadores Anna Alberni y Stefano Cingolani, de la Universidad de Barcelona (UB), inician una investigación para determinar el papel que tuvieron los juglares y ministriles en la corte medieval de la Corona de Aragón. Estudiarán cinco mil documentos para determinar su importancia en el desarrollo de la poesía catalana. Margarita Díaz-Andreu, también de la UB, ha puesto la lupa sobre el arte rupestre de las sociedades primitivas que se producía en lugares considerados sagrados, cuevas con características acústicas especiales, como ecos o resonancias. Quiere analizar el efecto psicológico que estas podían tener sobre el ser humano para entender la relación entre sonido, sacralidad y paisaje en las sociedades premodernas.
Otro de los enfoques más sugerentes del estudio musical actual se encuentra en la École Polytechnique Fédérale de Lausanne. Aquí Martin Rohrmeier y su equipo mezclan teoría musical, ciencias de la computación y cognición para analizar los paralelismos de la estructura de las obras de música tonal y la sintaxis lingüística. “La estructura de las obras de música tonal contiene elementos que no se pueden explicar de manera lineal (un elemento depende directamente del que le precede), sino que se insieren unos dentro de otros o se interrelacionan entre sí de manera jerárquica, igual que el lenguaje”, asevera el experto.
El proyecto CompMusic
Estas son algunas de las investigaciones que se presentaron en verano en un encuentro en la Universidad Pompeu Fabra, uno de los epicentros del estudio de la música desde el punto de vista tecnológico. Xavier Serra, responsable de la European Research Music Conference, que reunió a la veintena de ponentes becados por la Unión Europea, dirige el proyecto CompMusic. El objetivo es crear tecnologías de análisis musical que respeten las especificidades culturales, y para ello ha estudiado la música china, india o turca.
“La música hecha por un ordenador, por muy buena que sea, no tiene ningún sentido porque no comunica nada; la música tiene un componente social, tiene que haber un compositor, un intérprete; en caso contrario, no es música, en mi opinión”. Xavier Serra
Una de las curiosidades que su investigación pone de relieve es que las lenguas pueden determinar la sensibilidad musical de las personas. Concretamente las lenguas tonales, como por ejemplo el mandarín, son más musicales; son lenguas en que una misma palabra puede significar una cosa u otra según la entonación: “De manera natural, estos hablantes tienen más sensibilidad por el tono, por la música”. Según Serra, no se puede desvincular, por tanto, la creación musical del contexto cultural del que nace, y defiende que composiciones creadas por algoritmos no presentan ningún interés: “La música hecha por un ordenador, por muy buena que sea, no tiene ningún sentido porque no comunica nada; la música tiene un componente social, tiene que haber un compositor, un intérprete; en caso contrario, no es música, en mi opinión”. El interés que puedan tener experimentos como, por ejemplo, Hello World, que se alimenta de música “analógica”, es, pues, relativo.
Si bien la música tiene una riqueza inherente que ofrece diferentes niveles de profundidad comprensiva –no es lo mismo dejarse arrullar por una música pop de la radio que intentar captar la belleza de la ópera china–, el hecho de que aumente progresivamente su inmediatez y su omnipresencia en nuestra sociedad comporta un claro peligro, apunta Serra: “En general, nos vamos quedando en un nivel de audición cada vez más superficial”. Otro problema viene de la globalización: “Internet y gran parte de los desarrollos tecnológicos que aparecen en torno a él uniformizan y nivelan todas las formas de expresión musical, y sin darnos cuenta estamos empobreciendo la riqueza musical del planeta.”
Del número
N109 - Oct 18 Índice
El boletín
Suscríbete a nuestro boletín para estar informado de las novedades de Barcelona Metròpolis