La inteligencia artificial (IA) de Google, llamada Brain2Music, tiene la capacidad de convertir la actividad cerebral de una persona en música personalizada.
Los investigadores han desarrollado un sistema basado en IA que utiliza datos de imágenes cerebrales para generar música que se asemeja a fragmentos de canciones que la persona estaba escuchando durante el escaneo cerebral.
El proceso involucró el uso de resonancia magnética funcional (fMRI) para registrar la actividad cerebral de cinco participantes mientras escuchaban fragmentos de canciones de diferentes géneros.
La IA fue entrenada para identificar patrones en la actividad cerebral y relacionarlos con elementos musicales como género, ritmo, estado de ánimo e instrumentación.
El objetivo de esta investigación es comprender cómo el cerebro procesa la música y explorar la posibilidad de reconstruir canciones que las personas imaginan en sus mentes.
Los resultados mostraron que la IA pudo reconstruir fragmentos musicales que se asemejaban a las canciones originales en aproximadamente un 60%. La IA tuvo una mayor precisión al distinguir música clásica.
Además, el estudio reveló que diferentes regiones del cerebro, como la corteza auditiva primaria y la corteza prefrontal lateral, desempeñan roles importantes en el procesamiento de la música.
Investigaciones futuras podrán explorar cómo el cerebro procesa música de diferentes géneros y estados de ánimo, además de investigar la capacidad de la IA para reconstruir música imaginada por las personas.