Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
Puigdemont estira la cuerda pero no rompe con Sánchez
El impacto del cambio de régimen en Siria respaldado por EEUU, Israel y Turquía
OPINIÓN | 'Pesimismo y capitalismo', por Enric González

Francisco J. Vico: “La Inteligencia Artifical puede componer música sin intervención humana”

Francisco J. Vico es experto en Inteligencia Artificial.

Luis Meyer

Madrid —

El arte como capacidad intrínseca y exclusiva del ser humano está en entredicho. La Inteligencia Artificial hace tiempo que dejó de limitarse a ayudarnos en tareas mecánicas para aliviarnos esfuerzo y se sumerge ahora en los derroteros de la creatividad. Avanzados programas de 'software' son capaces de generar obras cada vez más desvinculadas de la creación humana. El robot e-David desarrollado en la Universidad de Constanza, Alemania, pinta sobre lienzo cuadros impresionistas a partir de fotos, con una meticulosidad inaudita. El experto británico en creatividad computacional Simon Colton va un paso más allá con su 'software' The Painting Fool: lee noticias de prensa, reconoce su contenido negativo o positivo y pinta retratos a partir de un estado de ánimo, como demostró a los sorprendidos asistentes a una exhibición en París hace un año. “Su autonomía es tal que puede llegar a negarse a retratar a una persona, aunque eso solo pasa muy puntualmente”, declaraba Colton.

Pero el paso definitivo en que la máquina se suelta de la mano humana para crear arte lo dio hace cuatro años Francisco José Vico, catedrático de Inteligencia Artificial en la Universidad de Málaga y habitual ponente en el campus de Berkley en California. Su ordenador Iamus, creado dentro del proyecto de investigación Melomics en la Universidad de Málaga, es la primera máquina de la historia capaz de componer una pieza de música clásica partiendo de cero.

“Es una obra deliciosa, con reminiscencias de las obras contemporáneas francesas de comienzos del siglo XX”, reseñaba para BBC Peter Russel después de escucharla varias veces. Lo que no sabía el musicólogo era que la partitura de Tránsitos, interpretada por la Sinfónica de Londres, procedía de un 'software' y no de la mente de un músico excelso. Su otra obra, Hello world!, se ha editado en CD de la mano de una orquesta de cámara en Tenerife.

El proyecto Iamus sigue adelante, y a día de hoy el ordenador es capaz de sintetizar los sonidos, además de componerlos. Hablamos con Francisco José Vico (47) de las entrañas tecnológicas y científicas de su creación, pero también del replanteamiento filosófico sobre al arte y la condición humana que provoca la mera existencia de Iamus. Aunque, como dijo Ludwig van Beethoven: “La música constituye una revelación más alta que ninguna filosofía”. Tal vez la respuesta la teníamos ya hace dos siglos, mucho antes de la era digital.

¿Cómo funciona Iamus?

La clave está en el aprendizaje. Como a un niño que empieza a estudiar solfeo, un equipo de expertos en música le ha ido enseñando durante dos años por qué caminos debe tirar para componer. Si, por ejemplo, Iamus crea un acorde de piano con seis notas, el equipo le rectifica ya que una mano no puede tocar más de cinco notas a la vez.

Esto fue un primer paso, pero, ¿a partir de qué momento el ordenador tuvo autonomía para componer su propia música?

Se basa en la bioinspiración. Para crear su software me fijé en la creación de la vida. Una célula evoluciona a base de copiar su propio ADN una y otra vez, pero ninguna copia es exactamente igual a la anterior. Eso es lo que produce el milagro de que una bacteria termine siendo un mamífero, por ejemplo. Iamus sigue el mismo proceso: si le pedimos que componga una obra de 10 minutos con 60 instrumentistas, empieza, por ejemplo, con una nota de oboe que solo dura dos segundos. La siguiente evolución será esa nota más otra de flauta, por ejemplo. Y así, tras miles de evoluciones, llega a la obra acabada. El proceso dura unos minutos.

Esto lo lograron hace cuatro años. ¿En qué punto se encuentra el proyecto ahora?

Empezamos con música clásica contemporánea y ahora estamos investigando con música popular, porque Iamus tiene potencial para crear en cualquier estilo, también rock, electrónica o jazz, por ejemplo. En 2014 grabamos un nuevo disco en el que el ordenador ya no solo escribía partituras que luego interpretaban músicos, también sintetiza la música directamente. Parece una tontería, los sintetizadores virtuales los conocemos desde hace mucho, pero siempre para utilización humana. Ahora hemos con conseguido que un ordenador utilice un aparato pensado para la ergonomía humana, con el que el ordenador es capaz de añadir todos los efectos particulares de cada uno de los elementos de la obra. No era un reto científico como cuando le dimos capacidad creativa a Iamus, sino tecnológico al conseguir que todo funcionara conjuntamente. Empezamos logrando que esas estructuras que hasta ahora solo se le ocurrían al ser humano, se le ocurran también a un ordenador, y teníamos que cerrar el círculo para que también se sintetizaran y fuera totalmente autosuficiente.

La pregunta es inevitable: ¿dónde queda el músico?

En el caso de Iamus no tiene ningún papel porque el ordenador compone cada obra desde cero, sin intervención humana, de una forma azarosa. Pero no tiene por qué ser así siempre. Un artista podrá meter parámetros como “romántica” o “alegre”, y los instrumentos que quiera. El ordenador le presentará al momento miles de propuestas, y solo tendrá que elegir una. Es un cambio de mentalidad. Una nueva forma de componer…. O tal vez a partir de ahora debamos hablar más bien de seleccionar.

Pero es indiscutible que le arrebatan la exclusividad artística al ser humano. ¿Deben preocuparse los artistas?

Cuando apareció la fotografía podíamos pensar que el mundo de la pintura se terminaba: podíamos captar la realidad con solo apretar un botón. Evidentemente no ha sido así. Los ordenadores los veo como herramientas. El artista utiliza muchos programas para editar fotos e incluso para pintar. Y para crear y editar música. ¿Por qué no añadir un botón a esa aplicación para que el ordenador aporte algo genial y maravilloso? Puede darnos ideas con que solo introduzcamos unos parámetros: que sea estilo rock, pop, o dance, que sea estimulante, o que se parezca a un tema simplemente. Podemos hasta inventar nuevos géneros. Ahora avanzamos musicalmente al ritmo humano, incluso en ciertos estilos estamos algo estancados. Las fusiones de géneros que hacemos, por ejemplo cuando un flamenco se pone a tocar con un músico de jazz ¿Cómo sería eso si pudiéramos acelerar esta evolución por cien o por mil?.

¿Iamus será capaz de crear nuevos estilos musicales?

Y lo hará de forma masiva. Nuestro enfoque es genético: codificamos las composiciones musicales como si tuvieran genomas. Y esos genomas dan lugar a estructuras y a su vez a organismos que son las composiciones finales. Imagínate que tienes el genoma de un estilo de música y a su vez el de otro. Y los mezclas, como si fuera una recombinación genética. Pero no aleatoriamente, sino de una forma coherente. Esto aceleraría el proceso. Igual que en los 80 la gente se puso a crear musicalmente, y en esa década y en lo 90 se abrieron campos que ni imaginábamos, ahora estamos un poco más estancados. Una solución como esta podría reavivar el proceso de encontrar nuevos géneros. Se puede acelerar esto dramáticamente.

Aparte de sustituir y acelerar la creatividad artística, ¿qué otras aportaciones hará Iamus al género humano?

Iamus podrá trabajar con formatos musicales que solo entiende el ordenador, donde hay tanta información que el ser humano podría intervenir muy poco. Es como el paso de la célula procariota a la eucariota. Eran células las dos, pero la segunda era mucho más complicada y dio lugar a los seres multicelulares, y de ahí la complejidad se disparó. De la misma manera, el ordenador será capaz de gestionar formatos mucho más complejos y aportar una riqueza a la música no conocida hasta ahora.

Dejamos el futuro de la música en manos de máquinas.

En breve lo contaremos en Seúl, en un evento que es como el TED asiático, donde precisamente nos han invitado para contar cómo vemos el futuro de la música. Demostraremos cómo la música se puede adaptar a constantes fisiológicas. Ahora la música viene enlatada, se reproduce lo que hay en tu iPod o en tu móvil, o lo que te pongan por la radio. Si quieres cambiar tienes que hacerlo manualmente, y hacia algo preconcebido. Lo ideal sería que la música se fuese adaptando a lo que llamamos ‘bio feedback’: dolor crónico, trastornos del sueño... En función de la intensidad necesitará un tipo de terapia musical u otra. Si tienes un nivel bajo de dolor, te irá bien una música relajante. Pero si es alto, quieres una evasiva, que te quite la percepción del dolor. No es un efecto curativo, pero sí el de bloquear un estímulo, el dolor lo interpretamos en el cerebro. Ese el futuro: la música diseñada para la situación.

Pero la persona tiene que comunicar al ordenador esa situación.

En un futuro lo podrá percibir el propio aparato. Ya hemos creado ‘apps’ para móvil de Iamus, y hay móviles como el iPhone que a través de su acelerómetro pueden detectar si te mueves mucho cuando duermes e interpretar que tienes un sueño inquieto, aunque no llega a la exactitud del registro encefalográfico, claro, pero todo se andará. En función de esa señal que hace la persona de forma pasiva, la música va cambiando, se va volviendo más relajante, porque va cambiando tempos e instrumentos: donde había un sonido más percutivo se introduce ahora una flauta, o un violín. No se trata de cambiar de tema, sino de que la misma música vaya variando.

Es muy difícil hacer eso con música humana. Necesitarías muchísimas versiones de un mismo tema para empezar. Hemos hecho ensayos con un equipo de músicos que se pusieron a generar temas que fueran válidos para las especificaciones dadas, cada tema con diferentes versiones. Eso les agotaba: una persona que se considera artista no quiere hacer algo tan condicionado. Aparte, después de componer dos o tres variantes, la imaginación y la creatividad se van agotando. Muchos necesitaban parar uno o dos días para volver de nuevo más inspirados. Se puede hacer, pero hace falta un regimiento de compositores.

El ordenador llega a lo mismo de manera mucho más fácil: basta con decirle que te haga la misma canción, pero con unos parámetros diferentes para que vaya siendo más relajante, y en pocos minutos tienes infinidad de composiciones totalmente distintas, partiendo de la misma canción en todas sus variantes. Y no viene en el formato tradicional de un mp3, sino de forma troceada de manera que mientras se reproduce puede ir variando y tú no notas la transición. Un ser humano no puede hacer que una canción cambie con el tiempo. En breve veremos reproductores que ya no tendrán música enlatada, sino música que se adapta al usuario.

¿Considera un hito que la inteligencia artificial ya tenga capacidad creativa? ¿O es el inicio del fin de la diferenciación humana?

El problema de la inteligencia artificial es que nos hemos pasado décadas tratando de imitar el cerebro humano. Así logramos, por ejemplo, que un ordenador nos superarse jugando al ajedrez, pero ahí todo dependía de la potencia y capacidad de cálculo del procesador. La novedad de Iamus es que no tiene nada de inspiración cerebral, tomamos una serie de patrones que tienen éxito musicalmente y funcionan, ponemos esa restricción y de ahí el ordenador evoluciona a composiciones que son válidas. Un músico nos decía sobre las piezas de Iamus que es como abrir un cofre y encontrarse ahí partituras guardadas durante un montón de siglos. Lo nuestro es el software, no el hardware. Es un software inspirado en la biología. Y eso se podría haber hecho hace años, ya había hardware lo suficientemente potente.

Me dicen los más agoreros que esto va a ser como Skynet, el superordenador de Terminator que acababa con la especie humana. Hay que mantener un ojo en el tema ético, por supuesto, pero no hay que alarmarse: por ahora todo está bajo nuestro control. Internet, algo mucho más cotidiano donde también se incluye inteligencia artificial, por ejemplo en la gestión de tus datos, está mucho más descontrolado.

Etiquetas
stats