Un algoritmo informatico, addestrato su pazienti epilettici che ascoltavano voci registrate, è riuscito per la prima volta a tradurre schemi di attivazione cerebrale in un linguaggio parlato sintetizzato. È il primo passo verso la realizzazione di dispositivi di ausilio per soggetti colpiti da deficit neurofisiologici (red)
Quando una persona parla o quando ascolta parlare qualcun altro, nel suo cervello si evidenziano schemi di attivazione specifici. Dopo decenni di ricerche, i neuroscienziati sono riusciti a registrare e decodificare questi schemi. E l'ultimo risultato è di un gruppo di neuroingegneri della Columbia University, guidato da Nima Mesgarani: un sistema in grado di tradurre schemi di attivazione cerebrale direttamente in parole comprensibili e riconoscibili.
Science Photo Library RF / AGF
Descritto in un articolo sulla rivista “Scientific Reports”, il sistema si basa su un algoritmo chiamato vocoder, simile a quello utilizzato da Amazon Echo e Apple Siri per fornire risposte verbali alle domande degli utenti.
Il sistema è in grado di emettere una voce sintetizzata dopo un'opportuna fase di addestramento con registrazioni di persone che parlano.
In questo caso, l'addestramento è stato condotto su alcuni pazienti con epilessia grave, sottoposti periodicamente a interventi chirurgici al cervello. Gli autori hanno chiesto ai pazienti di ascoltare un altoparlante che pronunciava le cifre da 0 a 9 mentre registravano i loro segnali cerebrali.
Le registrazioni ottenute sono poi state utilizzate per addestrare il vocoder, che alla fine ha prodotto una voce che pronunciava una sequenza di numeri. Il suono prodotto dal vocoder in risposta a quei segnali è stato in seguito analizzato e ripulito da reti neurali, sistemi d'intelligenza artificiale che imitano la struttura dei neuroni nel cervello biologico. Per testare l'accuratezza della registrazione, Mesgarani e colleghi hanno infine chiesto agli stessi soggetti di ascoltarla e di indicare ciò che avevano udito.
"Abbiamo scoperto che le persone potevano capire e ripetere i suoni nel 75 per cento circa dei casi, un valore decisamente migliore rispetto
a quelli ottenuti in ogni precedente ricerca", ha sottolineato Mesgarani. Il miglioramento del grado di comprensibilità della voce è stato particolarmente evidente confrontando le nuove registrazioni con i precedenti tentativi basati su tecnologie differenti. "La sensibilità del vocoder e la potenza delle reti neurali riproducevano i suoni che i pazienti avevano originariamente ascoltato con sorprendente accuratezza".
Il risultato è considerato un incoraggiante passo in avanti per mettere a punto tecnologie di ausilio alla comunicazione per soggetti con gravi disabilità neurofisiologiche, prodotte per esempio dalla sclerosi laterale amiotrofica o da un ictus.
"La voce ci consente di comunicare con i nostri amici, con la famiglia e con il mondo che ci circonda: perderla a causa di lesioni o malattie è devastante", ha concluso Mesgarani. "Noi abbiamo dimostrato che, con la giusta tecnologia, i pensieri di queste persone potrebbero essere decodificati e compresi da qualsiasi ascoltatore".
Dopo aver tracciato le azioni della Regione per affrontare l’autunno della pandemia, ora…
Questo sito utilizza coockie esclusivamente a fini statistici. In qualsiasi momento è possibile rivedere e revocare i consensi dati in precedenza. AccettaRifiutaPiù informazioni
Cookie
Tipo
Durata
Descrizione
AddToAny
Third party
24 ore
AddToAny è il plugin che permette agli articoli di questo sito di essere condivisi sui social networks.
È compatibile per impostazione predefinita con il Regolamento europeo sulla protezione dei dati generali e con la California Consumer Privacy Act.
In base alla progettazione, AddToAny non memorizza i dati personali. I fornitori di tecnologia sono conformi e possono memorizzare temporaneamente un indirizzo IP e impostare un cookie client per motivi di sicurezza, come consentito dalle normative.
histats.com
third party
365 giorni
Contatore di visite.
Cookies
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
HOME > Segnali cerebrali tradotti in parole
Segnali cerebrali tradotti in parole
Un algoritmo informatico, addestrato su pazienti epilettici che ascoltavano voci registrate, è riuscito per la prima volta a tradurre schemi di attivazione cerebrale in un linguaggio parlato sintetizzato. È il primo passo verso la realizzazione di dispositivi di ausilio per soggetti colpiti da deficit neurofisiologici (red)
Quando una persona parla o quando ascolta parlare qualcun altro, nel suo cervello si evidenziano schemi di attivazione specifici. Dopo decenni di ricerche, i neuroscienziati sono riusciti a registrare e decodificare questi schemi. E l'ultimo risultato è di un gruppo di neuroingegneri della Columbia University, guidato da Nima Mesgarani: un sistema in grado di tradurre schemi di attivazione cerebrale direttamente in parole comprensibili e riconoscibili.
Descritto in un articolo sulla rivista “Scientific Reports”, il sistema si basa su un algoritmo chiamato vocoder, simile a quello utilizzato da Amazon Echo e Apple Siri per fornire risposte verbali alle domande degli utenti.
Il sistema è in grado di emettere una voce sintetizzata dopo un'opportuna fase di addestramento con registrazioni di persone che parlano.
In questo caso, l'addestramento è stato condotto su alcuni pazienti con epilessia grave, sottoposti periodicamente a interventi chirurgici al cervello. Gli autori hanno chiesto ai pazienti di ascoltare un altoparlante che pronunciava le cifre da 0 a 9 mentre registravano i loro segnali cerebrali.
Le registrazioni ottenute sono poi state utilizzate per addestrare il vocoder, che alla fine ha prodotto una voce che pronunciava una sequenza di numeri. Il suono prodotto dal vocoder in risposta a quei segnali è stato in seguito analizzato e ripulito da reti neurali, sistemi d'intelligenza artificiale che imitano la struttura dei neuroni nel cervello biologico. Per testare l'accuratezza della registrazione, Mesgarani e colleghi hanno infine chiesto agli stessi soggetti di ascoltarla e di indicare ciò che avevano udito.
"Abbiamo scoperto che le persone potevano capire e ripetere i suoni nel 75 per cento circa dei casi, un valore decisamente migliore rispetto
a quelli ottenuti in ogni precedente ricerca", ha sottolineato Mesgarani. Il miglioramento del grado di comprensibilità della voce è stato particolarmente evidente confrontando le nuove registrazioni con i precedenti tentativi basati su tecnologie differenti. "La sensibilità del vocoder e la potenza delle reti neurali riproducevano i suoni che i pazienti avevano originariamente ascoltato con sorprendente accuratezza".
Il risultato è considerato un incoraggiante passo in avanti per mettere a punto tecnologie di ausilio alla comunicazione per soggetti con gravi disabilità neurofisiologiche, prodotte per esempio dalla sclerosi laterale amiotrofica o da un ictus.
"La voce ci consente di comunicare con i nostri amici, con la famiglia e con il mondo che ci circonda: perderla a causa di lesioni o malattie è devastante", ha concluso Mesgarani. "Noi abbiamo dimostrato che, con la giusta tecnologia, i pensieri di queste persone potrebbero essere decodificati e compresi da qualsiasi ascoltatore".
----
Articolo scritto sulla rubrica MIND in www.lescienze.it
Nuova tecnica di imaging migliorerà diagnosi e cura dell’epilessia
Tg, radio e giornali per la Giornata Internazionale dell’epilessia 2021
Tutte le opere del concorso “Una giornata particolare”
Mancano pochi giorni alla Giornata Internazionale dell’epilessia!
50 milioni di passi per l’epilessia
Stato di male epilettico e trattamento precoce con Midazolam. Lo studio
Lo sport come mezzo per dare a tutti la consapevolezza sull’epilessia
L’Assemblea Generale dell’Organizzazione Mondiale dalle Sanità (OMS) ha approvato un piano d’azione decennale per chi convive con l’epilessia e altre patologie neurologiche
Come si affronta l’autunno con l’epilessia?