Alcuni studiosi hanno raggiunto un traguardo importante attraverso la decodifica dell’attività elettrica cerebrale correlata all’ascolto di una canzone. In altre parole, hanno tradotto le registrazioni neurali dell’elettroencefalogramma in musica, basandosi sulle onde cerebrali generate dal ritmo, dalla melodia e dalle parole di una canzone, mentre veniva ascoltata. Il brano ricostruito è un frammento di 14 secondi dalla celebre canzone dei Pink Floyd “Another Brick in the Wall, Part 1”, tratto dall’album “The Wall” pubblicato nel 1979.

Questo innovativo studio è stato condotto da un team di scienziati americani guidati dall’Istituto di Neuroscienze “Helen Wills” dell’Università della California di Berkeley, in collaborazione con il J. Crayton Pruitt Family Department of Biomedical Engineering dell’Università della Florida e il Dipartimento di Neurologia dell’Albany Medical College. I ricercatori, guidati dai professori Robert T. Knight e Ludovic Bellier, hanno tradotto in musica le onde cerebrali di 29 pazienti con epilessia, registrate durante uno studio precedente. A questi partecipanti, sono stati impiantati alcuni elettrodi sulla testa, per raccogliere dati tramite elettroencefalografia intracranica (iEEG) e le registrazioni neurali sono state effettuate mentre veniva riprodotta la canzone dei Pink Floyd. “Another Brick in the Wall, Part 1” è stata scelta per due motivi: era amata dai partecipanti allo studio e aveva una chiara suddivisione tra la parte cantata e quella strumentale, il che permetteva di individuare le regioni specifiche del cervello attivate dalle parole e dalle parti strumentali.
Utilizzando l’intelligenza artificiale, il professor Knight e il suo team sono riusciti a decodificare l’attività elettrica del cervello dei partecipanti e a ricostruire una parte della canzone. Il risultato è stato straordinario poiché non solo rappresenta il tono, il ritmo e la melodia della canzone in modo riconoscibile, ma riproduce anche le parole, seppur in modo leggermente distorto. “È un risultato meraviglioso”, ha spiegato in un comunicato stampa il professor Knight, neurologo e docente di psicologia presso l’ateneo californiano. “Una delle cose importati per me della musica è che ha prosodia (l’insieme del ritmo, del tono, dell’accento e delle altre sfumature del linguaggio scritto e parlato NDR) e contenuto emotivo”. Questo studio può aiutare a comprendere meglio come il cervello risponde al ritmo, alla melodia e al tono di una canzone, aprendo la strada per incorporare queste sfumature nelle future neuroprotesi.
Lo scopo principale di questa ricerca è di avanzare nella comprensione delle interfacce cervello-computer ,così come quella che ha permesso al defunto astrofisico Stephen Hawking di comunicare attraverso una voce sintetica generata dal suo pensiero. All’uopo, studiando come il cervello risponde al ritmo, alla melodia e al tono della musica, gli scienziati potrebbero acquisire una comprensione più profonda della “prosodia” e utilizzare queste importanti informazioni per sviluppare neuroprotesi più avanzate.
“Con il progredire di questo intero campo delle interfacce cervello – macchina, questo ti dà un modo di aggiungere musicalità ai futuri impianti cerebrali per le persone che ne hanno bisogno, qualcuno che ha la SLA o qualche altro disturbo neurologico o dello sviluppo invalidante che compromette l’output vocale. Ti dà la possibilità di decodificare non solo il contenuto linguistico, ma parte del contenuto prosodico del discorso, parte dell’affetto. Penso che sia quello che abbiamo davvero iniziato a decifrare codice attivato”, ha continuato il professor Knight. I dettagli di questa innovativa ricerca “Music can be reconstructed from human auditory cortex activity using nonlinear decoding models”, sono stati pubblicati sulla prestigiosa rivista scientifica PloS Biology.
