Mariko Macksey de cuatro años escucha a un robot tocar el violín en el Centro de Ciencia de Ontario en 1989.

Inteligencia artificial: ¿el futuro de la música?

Existen varios programas digitales capaces de crear composiciones musicales relativamente originales casi complemente por su cuenta. Para muchos, estos son una ayuda para los artistas a la hora de componer. Para otros, un avance que amenaza con reemplazar la creatividad humana.

2018/02/22

Por RevistaArcadia.com

En el punto más álgido de la película 2001: Odisea del espacio, la supercomputadora HAL 9000 le canta una canción al astronauta David Bowman. “Mi instructor era el señor Langley y él me enseñó una canción. Si quiere oírla, se la puedo cantar”, le cuenta HAL y, ante la respuesta afirmativa de Dave, entona: “Daisy, Daisy, dame tu respuesta, di. Estoy medio loco de amor por ti…”

Más allá de la mención a la locura —que habla mucho de la lógica fallida de este antagonista virtual—, la alusión a esa melodía no es accidental: Daisy Bell, la canción original,compuesta en 1892 por el británico Harry Dacre, fue la primera canción cantada por un computador en la vida real. En 1961, unos ingenieros programaron la IBM 7094 para que reprodujera esta canción, como prueba de su capacidad de sintetización de voz.

Desde entonces, mucho se ha avanzado en computación. Hoy, incluso, las máquinas pueden crear canciones. Los avances en Inteligencia Artificial (I.A.) permiten que un computador sea capaz de idear por sí solo una composición musical relativamente original. Compañías discográficas como Sony o Warner Music están trabajando en software capaz de producir música autónomamente.  Todo parece indicar que hacia allá va el futuro de la industria.

Le puede interesar: Siri ganará la partida

¿Cómo funciona?

La Inteligencia Artificial no es necesariamente lo que la gente se imagina. El término tiene varias acepciones, pero Ronald Gutiérrez, docente en la maestría de Informática Educativa de la Universidad de la Sabana, lo define como “la toma de decisiones basadas en argumentos de un sistema computacional”. Hay varias maneras de lograr esto, pero la idea general es programar algoritmos que “aprenden” a identificar patrones después de leer una larga base de datos y luego toman decisiones con base en estos. Entre más información reciben, más se ajustan a lo que se espera de ellos. Algo medianamente similar a un bebé aprendiendo a hablar. En ese sentido, la I.A. no es demasiado inteligente. Aún.

Pero sí puede componer melodías musicales. En 2016 la compañía de tecnología IBM creó Watson Beat, un software que ha analizado millones de canciones y es capaz de producir una melodía artificial. La idea es que los músicos la utilicen como guía cuando se sientan estancados o que quieran probar cosas distintas. Estos le pueden pedir al programa un ritmo cualquiera sobre el que pueden construir su propio tema musical. Watson incluso puede sugerir frases y palabras populares para elaborar las letras de la canción.

La canción Not Easy de Alex Da Kid (una canción en donde, en palabras de la revista Rolling Stone, “lo primero que te golpea es la emoción, la guitarra nostálgica, los coros emotivos”) fue creada usando esta tecnología.

Watson es, quizás, el programa de I.A. más reconocido. Pero está lejos de ser el único. Jukedeck, por ejemplo, crea canciones según el género, los instrumentos, la duración y velocidad que prefiera  el usuario. Luego venden la licencia de uso por $0,99 USD para personas naturales o $21,99 USD para grandes empresas. También se pueden comprar los derechos de autor por $199 USD. Hoy, la compañía ha creado más de 500.000 canciones y la usan varias empresas (como Coca-Cola o Google) que buscan música de fondo para sus comerciales.

Le puede interesar: En código abierto

Un programa competidor, Amper, está componiendo, junto a la youtuber Taryn Southern, el primer álbum hecho por I.A. El único trabajo humano que requiere Amper es que alguien ingrese los beats por minuto, el ritmo, el tono y el estilo de música preferido. Y queda listo. Southern solo le agregó su propia voz a la melodía de Amper para terminar el producto.

El álbum I Am AI saldrá, tentativamente, en la primera mitad de 2018. Pero ya está disponible en YouTube la primera muestra:

Esta revolución tecnológica no afecta solo a la producción músical. El programa Landr, por ejemplo, utiliza la I.A. para masterizar canciones automáticamente. Según los testimonios de algunos usuarios en internet, este no alcanza la calidad de una masterización dirigida por un humano, pero los resultados son bastante aceptables.

Gracenote, por otro lado, usa la I.A. no para hacer música, sino para distribuirla. Esta herramienta digital identifica los sentimientos subyacentes en cada canción así como los gustos musicales de los usuarios y le vende esa información a servicios de música por streaming como Apple Music, Amazon Music o Amazon Groove Music. Las “recomendaciones del día” de plataformas como Spotify se basan en este tipo de tecnología.

Le puede interesar: La mafia de Spotify y YouTube

La nueva apuesta de la industria

No es de extrañar que la industria musical esté bastante interesada en estas herramientas. El Laboratorio de Investigación de Sony Music, con apoyo del Consejo Europeo de Investigación, creó un software de inteligencia artificial para producir canciones llamado Flow Machines. El resultado, que publicaron en  diciembre de 2016, fue de dos canciones, una inspirada en The Beatles y otra en la música de Johann Sebastian Bach, suena así:

Y no es solo Sony. Grandes disqueras como Warner y Universal han invertido en startups de programas similares. El legendario estudio de grabación Abbey Road Studios ha impulsado diversas plataformas de Inteligencia Artificial como I.A. Music o Humtap por medio de su incubadora de innovaciones tecnológicas.

En Colombia, IBM trabaja con Andrés Cepeda para componer la primera canción cooperativa entre humano e Inteligencia Artificial de América Latina. “Nuestro sistema estaba ya muy alimentado con música norteamericana, pero no tanto con pop latinoamericano como el que hace Cepeda”, cuenta Jorge Vergara, CTO de IBM en Colombia. “Ha sido muy interesante ver como al principio el software hacía cosas verdaderamente desastrosas a nivel musical, como un niño chiquito está aprendiendo a hablar y dice algunas incoherencias, pero que va aprendiendo. Ha sido un trabajo muy enriquecedor”, agrega. Todavía no hay fecha de lanzamiento del tema, pero Vergara asegura que está casi listo y que el resultado lo tiene bastante satisfecho.

“El hecho de poder contar con una ayuda como la que me brinda Watson es como tener un productor a mi lado que además está mucho más informado que yo”, dijo Cepeda en la presentación del proyecto el noviembre pasado. “La posibilidad de comunicarme tan de cerca con las emociones de la gente que escucha mi música es una gran oportunidad. Watson, cuando yo le propongo un tema, empieza a explorar, a decirme cómo reacciona la gente que me escucha y esa información privilegiada es valiosísima a la hora de componer”.

Los creadores de estas herramientas tecnológicas son muy enfáticos en afirmar que esto no reemplazará a los artistas. “No creo que algún día llegue a hacerse música del mismo nivel por ahí. Siempre hará falta la inspiración que nace de un sentimiento específico de una persona y que toca a otra persona de la misma manera. Por eso es imposible que esta tecnología reemplace al artista. Nosotros tenemos capacidades artísticas que una máquina no puede reproducir”, asegura Vergara.

“Puede que la Inteligencia Artificial nunca sea capaz de hacer muy buena música como la de las composiciones humanas. ¿Por qué? Hacer canciones que muevan a las personas, que las haga saltar y bailar, llorar y reir, requiere tocar ciertas fibras y entender las emociones”, agrega Mark Mulligan, consultor de la industria musical, en conversación con el diario londinense The Guardian.

Sin embargo, no deja de ser irónico que una de las funciones de estos programas sea, justamente, conectar a los artistas con los que más les gusta y sienten sus oyentes según un estudio analítico de lo que dicen en las redes sociales.

Por otro lado, la música producida por robots sí podría llegar a ocupar un lugar importante en la producción de música de fondo o de productos audiovisuales. “Christopher Nolan no va a dejar de trabajar con Hans Zimmer por ahora” dijo Cliff Fluet, quien trabaja con varias empresas de producción por Inteligencia Artificial, a The Guardian. “Pero a las personas que, por ejemplo, hacen videos para YouTube y no quieren que les quiten su material por violar derechos de autor, seguramente la I.A. les será muy útil”.

De todas formas, esta tecnología está en una etapa muy incipiente de desarrollo. Faltará más tiempo para poder ver cuáles serán sus verdaderos alcances dentro de la industria musical. Hasta ahora los avances son bastante promisorios. En el momento, si un usuario le pregunta a Siri, el asistente virtual de los sistemas operativos de Apple, si conoce a la popular súpercomputadora de 2001: Odisea del espacio, dirá: “Me temo que HAL tomó unas muy malas decisiones. Pero sí que sabía cantar”. 

Este contenido hace parte de la edición impresa. Para leerlo, debe iniciar sesión:

Les informamos a todos nuestros lectores que el contenido de nuestra revista impresa en nuestro sitio web será exclusivo para suscriptores.

Queremos conocerlo un poco,
cuéntenos acerca de usted:

Maria,

Gracias por registrarse en ARCADIA Para finalizar el proceso, por favor valide su correo a través del enlace que enviamos a:

correo@123.com

Maria,

su cuenta aun no ha sido activada para poder leer el contenido de la edición impresa. Por favor valide su correo a través del enlace que enviamos a:

correo@123.com

Para verificar su suscripción por favor ingrese la siguiente información:

No tiene suscripción. ¡Adquierala ya!

Si usted tiene algún inconveniente por favor comuniquese con nosotros en Bogotá al 7421340 o a la línea nacional gratuita 018000-911100 (Lunes a Viernes de 7:00 am a 8:00 pm, Sábados de 09:00 am a 12:00 m).

Su código de suscripción no se encuentra activo para esta publicación