Le onde cerebrali sintetizzate direttamente in parole

Accetta pagamenti in oltre 45 criptovalute
Le onde cerebrali sintetizzate direttamente in parole
Condividi l'Articolo
RSS
Facebook
Facebook

Segnali cerebrali tradotti in parole. Un algoritmo informatico, addestrato su pazienti epilettici che ascoltavano voci registrate, è riuscito per la prima volta a tradurre schemi di attivazione cerebrale in un linguaggio parlato sintetizzato. È il primo passo verso la realizzazione di dispositivi di ausilio per soggetti colpiti da deficit neurofisiologici.

Quando una persona parla o quando ascolta parlare qualcun altro, nel suo cervello si evidenziano schemi di attivazione specifici.  Dopo decenni di ricerche, i neuroscienziati sono riusciti a registrare e decodificare questi schemi. E l’ultimo risultato è di un gruppo di neuroingegneri della Columbia University, guidato da Nima Mesgarani: un sistema in grado di tradurre schemi di attivazione cerebrale direttamente in parole comprensibili e riconoscibili.

Descritto in un articolo sulla rivista “Scientific Reports”, il sistema si basa su un algoritmo chiamato vocoder, simile a quello utilizzato da Amazon Echo e Apple Siri per fornire risposte verbali alle domande degli utenti.

Brain and brain waves in epilepsy, illustration
Brain and brain waves in epilepsy, illustration

Il sistema è in grado di emettere una voce sintetizzata dopo un’opportuna fase di addestramento con registrazioni di persone che parlano.

In questo caso, l’addestramento è stato condotto su alcuni pazienti con epilessia grave, sottoposti periodicamente a interventi chirurgici al cervello. Gli autori hanno chiesto ai pazienti di ascoltare un altoparlante che pronunciava le cifre da 0 a 9 mentre registravano i loro segnali cerebrali.

Le registrazioni ottenute sono poi state utilizzate per addestrare il vocoder, che alla fine ha prodotto una voce che pronunciava una sequenza di numeri. Il suono prodotto dal vocoder in risposta a quei segnali è stato in seguito analizzato e ripulito da reti neurali, sistemi d’intelligenza artificiale che imitano la struttura dei neuroni nel cervello biologico. Per testare l’accuratezza della registrazione, Mesgarani e colleghi hanno infine chiesto agli stessi soggetti di ascoltarla e di indicare ciò che avevano udito.

“Abbiamo scoperto che le persone potevano capire e ripetere i suoni nel 75 per cento circa dei casi, un valore decisamente migliore rispetto a quelli ottenuti in ogni precedente ricerca”, ha sottolineato Mesgarani. Il miglioramento del grado di comprensibilità della voce è stato particolarmente evidente confrontando le nuove registrazioni con i precedenti tentativi basati su tecnologie differenti. “La sensibilità del vocoder e la potenza delle reti neurali riproducevano i suoni che i pazienti avevano originariamente ascoltato con sorprendente accuratezza”.

Il risultato è considerato un incoraggiante passo in avanti per mettere a punto tecnologie di ausilio alla comunicazione per soggetti con gravi disabilità neurofisiologiche, prodotte per esempio dalla sclerosi laterale amiotrofica o da un ictus.

“La voce ci consente di comunicare con i nostri amici, con la famiglia e con il mondo che ci circonda: perderla a causa di lesioni o malattie è devastante”, ha concluso Mesgarani. “Noi abbiamo dimostrato che, con la giusta tecnologia, i pensieri di queste persone potrebbero essere decodificati e compresi da qualsiasi ascoltatore”.

Condividi l'Articolo
RSS
Facebook
Facebook
Inviami gli Articoli in Email:

Be the first to comment

Leave a Reply

L'indirizzo email non sarà pubblicato.


*


Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.