MISTERIO

Inteligencia artificial de Meta comienza a generar música a partir de texto

En las últimas décadas, la música creada exclusivamente por seres humanos ha experimentado un declive significativo, y actualmente la inteligencia artificial generativa podría ser la última estocada.

Crédito: MysteryPlanet.com.ar.

El filósofo del siglo XIX Thomas Carlyle declaró una vez: «Se dice que la música es el habla de los ángeles», atribuyendo a esta un poder espiritual y elevado, comparándola con la forma de comunicación de los seres divinos.

Uno se pregunta qué pensaría ahora el buen Tom sobre la era contemporánea, con el reguetón, el trap y la música pop. ¿Qué habría tenido que decir sobre esta música con autotune compuesta no gracias a los ángeles sino a CPUs y memorias RAM? Tal vez su reacción se quedaría corta considerando lo que se viene.

Hace pocos días, Meta anunció que ha desarrollado un procesador de IA que genera música basada en descripciones de lenguaje natural.

Llamado MusicGen, sigue los pasos del lanzamiento de enero de Google de MusicLM que genera música basada en mensajes de texto o tarareos, y fue entrenado en 20.000 horas de música. Su código fuente abierto está disponible en Github y el modelo se puede probar en línea en Hugging Face.

Los usuarios ingresan una breve descripción de la música que quieren escuchar, como «Una combinación dinámica de hip-hop y elementos orquestales, con instrumentos de cuerda y metales que evocan la energía vibrante de la ciudad». O la descripción podría ser más simple: «canción de rock de los 90 con un riff de guitarra».

Opcionalmente, se puede cargar una canción para ayudar a guiar la creación del contenido deseado.

MusicGen genera un clip de 12 segundos en un par de minutos.

Según sus evaluaciones del programa, Meta descubrió que MusicGen obtuvo mejores resultados tanto en medidas objetivas como subjetivas que otros programas comparables, como MusicLM, Diffusion y Noise2Music.

«MusicGen produce muestras de alta calidad que están mejor alineadas melódicamente con una estructura armónica dada, mientras se adhieren a una descripción textual», informó Meta en un artículo publicado el 8 de junio en el servidor de preimpresión arXiv.

Menos es más

Meta probó tres versiones de su modelo. Varían en la cantidad de detalles musicales proporcionados —300 millones, 1500 millones y 3300 millones de parámetros—.

En las evaluaciones, se descubrió que los humanos preferían los resultados del modelo de rango medio (1500 millones de parámetros). Esto quizás refleja la teoría del productor francés de música y electrónica Rone para una producción musical exitosa: «Menos es más».

Sin embargo, el modelo con la mayor cantidad de parámetros generó una salida que reflejó con mayor precisión la entrada de texto y audio.

Música ex machina

Por el momento, la compañía se Zuckerberg asegura que su herramienta representa «una ayuda potencialmente invaluable para compositores e intérpretes». Pero el cantante y compositor australiano Nick Cave no está muy de acuerdo con eso.

«Las canciones surgen del sufrimiento… se basan en la compleja lucha humana interna de la creación», comentó al abordar el tema. «Hasta donde yo sé, los algoritmos no sienten. Los datos no sufren. ChatGPT no tiene un ser interior, no ha estado en ninguna parte, no ha soportado nada, no ha tenido la audacia de ir más allá de sus limitaciones, y por lo tanto no tiene la capacidad de una experiencia trascendente compartida, ya que no tiene límites desde los cuales trascender».

De manera similar, el editor musical Ben Beaumont-Thomas de The Guardian afirmó recientemente que la IA siempre será como una banda tributo. «Puede ser un tributo muy bueno, del tipo que, si fuera un humano, obtendría reservas durante todo el año en cruceros y en casinos de Las Vegas».

Con otra perspectiva, el CEO de Spotify, Daniel Ek, es más optimista sobre esta nueva música.

«Esto podría ser potencialmente enorme para la creatividad… Eso debería conducir a más música que creemos que es genial culturalmente», dijo.

Preocupaciones

Inevitablemente, como ocurre con gran parte de los proyectos de IA en otros campos, surgirán preocupaciones. Los más importantes en este campo son los problemas legales relacionados con el uso de material protegido por derechos de autor. Dado que Meta permite a los usuarios cargar también una canción para ayudar a dar forma al resultado final, la línea entre el contenido original y el copiado se vuelve borrosa. Aunque, por otro lado, podría representar una ventaja para los creadores de contenido en plataformas digitales, quienes generarían sus propias canciones sin que la musicalización de algo represente un problema.

La otra preocupación, y tal vez la más grave, es a la que hicimos alusión al principio de esta nota. Dado que la música pasará a ser un proceso no creado propiamente por un cerebro —y si se quiere, espíritu— humano, ni tampoco requerirá de emociones o etéreas musas, este arte perderá uno de sus pilares fundamentales: la experiencia personal. En su lugar, nos encontraremos escuchando e influenciados por la fría «experiencia» de las máquinas.

Fuente: Felix Kreuk/Meta/TechXplore. Edición: MP.