Sónar+D: Inteligencia Artificial y Música

Entre el infinito catálogo de actividades de Sónar+D ponemos el foco de atención en una tímida conferencia anunciada dentro de la sección Diálogos para el Futuro, la inteligencia artificial y la música.

Hace unos días la Inteligencia Artificial fue portada, pues dos programadores, Vladimir Veselov y Eugene Demchenko, diseñaron el programa Eugene Goostman que consiguió convencer a varios científicos de que se trataba de un joven real de 13 años, siendo el primer artificio que pasaba el Test de Turing, que hasta ahora definía el límite entre la inteligencia natural humana y la inteligencia artificial.

Sonar+D Inteligencia Artificial

Por definición se entiende por Inteligencia Artificial cualquier programa artificial que consiga resolver problemas que sólo se pudieran resolver mediante inteligencia humana. Tomado así, podríamos entender como Inteligencia Artificial la primera calculadora, o incluso una hoja de Excel. Entonces, ¿ya ha llegado la inteligencia artificial? Digamos que se redefine continuamente como la solución artificial a los problemas más complejos.

En este sentido, el ponente de la sesión, Josep Lluís Arcos del Instituto de Investigación en Inteligencia Artificial del CSIC nos detalló un breve recorrido de la Inteligencia Artificial en la música. Las primeras pruebas o experimentos se realizaron en 1990 con un programa capaz de emular una nueva composición tomando como base las composiciones de Juan Sebastian Bach, y ciertamente suena a Bach una vez oído. Desde 2003 constan pruebas con algoritmos evolutivos que componían música pero carecida de melodía por parte de Christopher Dobrian.

praise_crop

¿Cuál es el siguiente paso? En realidad ya se ha dado. Los algoritmos de recomendación de canciones de iTunes, Spotify, Deezer, etc. Utilizan programas que toman en cuenta las canciones escuchadas, el momento en el que se ha hecho cada día o las canciones que escuchan los conocidos, para recomendar contenido. Eso también es Inteligencia Artificial.

¿Y el análisis en 3D de los movimientos de un guitarrista? En el proyecto GuitarLab del CSIC, el análisis de movimiento y acordes no sólo servirá como base para composiciones, sino que también se puede detectar las causas de lesiones en los guitarristas.

El futuro para los investigadores es encontrar una máquina/algoritmo/programa que, en función del aprendizaje basado en patrones o melodías, realicen nueva creaciones diferenciadas de los anteriores.

¿Y el futuro para el resto de los mortales? El CSIC ya colabora en proyectos que permiten integrar piezas de diferentes plataformas para realizar mezclas, o insertar comentarios al estilo SoundCloud, de modo que el aprendizaje de los alumnos de música sea colaborativo y mejore los resultados. Se trata del proyecto PRAISE.

La Inteligencia Artificial no es un mito ni una quimera, es un hecho.

RELACIONADOS

ChatGPT asistente de voz

Cómo usar la voz de Papa Noel en ChatGPT

Durante la temporada navideña, muchas compañías optar por hacer un guiño especial en algunos de sus servicios o plataformas. Google, por ejemplo, activa un...