Les scientifiques utilisent l’IA pour reconstruire Pink Floyd en utilisant l’activité cérébrale des patients chirurgicaux

Les scientifiques utilisent l'IA pour reconstruire Pink Floyd en utilisant l'activité cérébrale des patients chirurgicaux

Les scientifiques ont réussi à reconstituer « Another Brick in the Wall Part 1 » de Pink Floyd en décodant l’activité cérébrale des patients qui ont écouté la chanson en attendant une opération au cerveau. On espère que la recherche aidera un jour à accorder aux personnes souffrant de paralysie et de troubles du développement ou neurologiques une voix plus expressive.

Les données utilisé dans l’étude a été capturé en 2008 et 2015 par une collection de 2 379 électrodes qui ont été attachées directement au cerveau de 29 personnes qui attendaient une chirurgie de l’épilepsie au Albany Medical Center à New York. Pendant ce temps, les patients ont écouté passivement la chanson classique de Pink Floyd « Another Brick in the Wall, Part 1 », dans l’espoir que les données aideraient les chercheurs à mieux comprendre comment le cerveau perçoit la musique.

Dans un nouvel article publié dans la revue PLOS Biology, des scientifiques ont révélé qu’ils avaient réussi à décoder l’activité électrique du cortex auditif afin de reconstruire une version reconnaissable de la chanson de Pink Floyd. La version reconstruite de la chanson, qui a été décodée à partir des lectures d’électrodes et réencodée en une pièce musicale reconnaissable à l’aide d’un programme d’IA, peut être écoutée ici.

« Le décodage à partir des cortex auditifs, qui sont plus proches de l’acoustique des sons, par opposition au cortex moteur, qui est plus proche des mouvements qui sont effectués pour générer l’acoustique de la parole, est super prometteur », a expliqué le postdoctorant Ludovic Bellier. de l’Université de Californie à Berkeley, qui était l’un des auteurs de la nouvelle étude. « Cela donnera un peu de couleur à ce qui est décodé. »

Un tout nouveau domaine pour les interfaces cerveau-machine

Les chercheurs espèrent que leur travail contribuera un jour à la création d’un système cerveau-parole qui aiderait les personnes souffrant de paralysie à communiquer avec une voix riche en éléments musicaux comme le stress et l’intonation, qui aident à transmettre un sens au-delà de la portée des mots prononcés par robot. .

« Au fur et à mesure que tout ce domaine des interfaces cerveau-machine progresse, cela vous donne un moyen d’ajouter de la musicalité aux futurs implants cérébraux pour les personnes qui en ont besoin, quelqu’un qui a la SLA ou un autre trouble neurologique ou développemental invalidant compromettant la sortie de la parole », a expliqué l’étude co- l’auteur Robert Knight, qui est professeur de psychologie à l’Université de Californie à Berkeley.

« Cela vous donne la capacité de décoder non seulement le contenu linguistique, mais une partie du contenu prosodique du discours, une partie de l’affect. Je pense que c’est ce sur quoi nous avons vraiment commencé à déchiffrer le code. »

Knight espère que les progrès futurs des capteurs d’enregistrement du cerveau permettront à un tel système de fonctionner en lisant rapidement les signaux électriques de l’extérieur du crâne, plutôt que via des électrodes placées directement sur la surface du cerveau par une chirurgie invasive, comme c’est actuellement le cas.

Les chercheurs ont également pu confirmer que l’hémisphère droit du cerveau humain est plus impliqué dans la perception de la musique que le côté gauche du cerveau, tout en identifiant les régions qui traitent de la détection des rythmes musicaux.

Anthony est un contributeur indépendant qui couvre l’actualité scientifique et vidéoludique pour IGN. Il a plus de huit ans d’expérience dans la couverture de développements révolutionnaires dans de multiples domaines scientifiques et n’a absolument pas le temps pour vos manigances. Suivez-le sur Twitter @BeardConGamer

Source-58