L’IA lit dans les pensées pour recréer de la musique !
L’avenir de la musique IA est sur le point de s’améliorer considérablement. Imaginez pouvoir recréer une chanson simplement en y pensant ! Grâce à l’intelligence artificielle, ce concept futuriste devient réalité. Les scientifiques ont réalisé un exploit révolutionnaire en utilisant l’IA pour reproduire la musique en fonction des modèles d’activité cérébrale, ouvrant ainsi la voie à une nouvelle ère de compréhension de l’interaction de l’esprit humain avec la musique.
TL;DR :
- L’IA est utilisée pour recréer de la musique basée sur des modèles d’activité cérébrale, permettant de reproduire des chansons simplement en y pensant.
- Des chercheurs de l’Université de Californie ont utilisé l’IA pour générer un son reconnaissable de « Another Brick in the Wall, Part 1 » de Pink Floyd en analysant les signaux cérébraux des patients épileptiques.
- Les modèles d’IA entraînés peuvent générer des représentations audio de musique basée sur la pensée, offrant des applications potentielles pour faciliter la parole des patients paralysés ou capturer les attributs mélodiques de la parole naturelle. Cette avancée est prometteuse pour le décodage des pensées et des interactions musicales.
Musique générée par l’IA utilisant des données cérébrales
Dans une étude récente publiée dans PLOS Biology, des chercheurs de l’Université de Californie à Berkeley ont utilisé avec succès l’IA pour recréer l’audio reconnaissable de la chanson emblématique de Pink Floyd « Another Brick in the Wall, Part 1 » en analysant l’activité cérébrale. La recherche impliquait la surveillance des signaux électriques directement provenant du cerveau de patients épileptiques soumis à un traitement contre les crises. Ensuite, pendant que ces patients écoutaient la chanson, des électrodes à la surface de leur cerveau ont capturé l’activité des régions de traitement auditif.
Les données cérébrales enregistrées ont ensuite été introduites dans des algorithmes d’apprentissage automatique. Ces algorithmes ont déchiffré les modèles de réponses du cortex auditif du cerveau aux composants musicaux tels que la hauteur, le tempo, le chant et les instruments. Ainsi, les modèles d’IA ont appris à associer une activité neuronale spécifique aux caractéristiques acoustiques correspondantes. Pour le dire simplement. – des électrodes enregistraient des données cérébrales lors de l’écoute d’une chanson. Ensuite, les données ont été introduites dans des algorithmes d’apprentissage automatique. Suite à cela, les modèles d’IA ont associé les données cérébrales (activité neuronale) aux aspects musicaux.
Désormais, les modèles d’IA entraînés peuvent générer de nouvelles représentations « spectrographiques » à partir des seules données cérébrales. Ces représentations peuvent ensuite être transformées en formes d’onde puis en audio. L’audio, bien qu’imparfait, ressemble clairement à la chanson à laquelle une personne pense. Dans cette étude, l’audio ressemblait clairement à « Another Brick in the Wall, Part 1 ».
L’avenir de l’IA
Alors qu’est-ce que tout cela veut dire? Eh bien, cette réalisation marque une avancée significative dans le décodage de stimuli musicaux complexes basés uniquement sur le traitement cérébral. Si cela est confirmé par des recherches plus approfondies, cela pourrait révolutionner le décodage de la pensée, qui était auparavant limité à des mots ou des lettres individuels.
Le Dr Robert Knight, neuroscientifique à l’Université de Berkeley et auteur principal de l’étude, a expliqué que l’instrumentation complexe de la chanson choisie de Pink Floyd servait de cas de test approprié. Cependant, cette approche présente un potentiel pour n’importe quel genre de musique et même pour capturer les attributs mélodiques de la parole naturelle.
De plus, les chercheurs envisagent des applications au-delà des loisirs musicaux. Cette technologie pourrait éventuellement aider les patients gravement paralysés ou victimes d’un accident vasculaire cérébral à retrouver leurs capacités d’élocution grâce à la pensée. Des interfaces cerveau-ordinateur sont déjà en cours pour décoder le texte provenant d’analyses cérébrales non invasives, et l’ajout de dimensions mélodiques et prosodiques pourrait permettre une reconstruction plus complète de la pensée. Les interfaces pensée-parole pourraient donner la parole aux personnes déficientes en parole. Au-delà des applications cliniques, les techniques de décodage offrent des opportunités d’étudier la mémoire, l’apprentissage et la créativité en lisant les pensées, nous rapprochant ainsi de la compréhension de ce qui se passe dans l’esprit.
Comme l’a si bien dit le Dr Robert T. Knight : «Aujourd’hui, nous avons reconstitué une chanson ; peut-être que demain nous pourrons reconstituer l’intégralité de l’album de Pink Floyd. Cette avancée monumentale comble le fossé entre les subtilités de la musique, le cerveau humain et le potentiel de l’IA.