Rubriche

Un chip impiantabile nel cervello legge il pensiero

Il primo test, decodifica i segnali muscolari usati per parlare

Sulla sinistra un chip tradizionale con 128 elettrodi, a destra il nuovo chip (fonte: Dan Vahaba/Duke University)

Redazione Ansa

Sperimentato un chip impiantabile nel cervello che permette di comunicare solo con il pensiero: decodifica i segnali provenienti dall'area cerebrale che controlla i muscoli usati per parlare e prevede i suoni che si sta cercando di pronunciare. Il risultato, descritto sulla rivista Nature Communications, si deve a Gregory Cogan e Jonathan Viventi, dell'Università Duke negli Stati Uniti, si è dimostrato efficiente solo per pochi suoni e parole senza senso, ma è un primo importante passo per aiutare in futuro chi ha disturbi del linguaggio. Ci sono molti disturbi, tra cui la sclerosi laterale amiotrofica, che colpiscono i neuroni per il controllo motorio e limitano tra le altre cose la capacità di parlare, e gli attuali sistemi per aiutare chi ne è colpito sono ancora molto lenti poco efficaci.

Per cercare di aiutarli i ricercatori americani hanno sviluppato una nuova tipologia di chip impiantabile nel cervello capace di riconoscere i segnali prodotti dai neuroni coinvolti nel coordinamento motorio per il linguaggio, circa un centinaio di muscoli che controllano ad esempio il movimento della lingua e delle labbra. Per testarne il funzionamento i ricercatori hanno chiesto l'autorizzazione a pazienti che dovevano sottoporsi a interventi chirurgici senza sedazione profonda per altri motivi, ad esempio per rimuovere tumori, e approfittato dell'intervento per testare il dispositivo anche solo pochi minuti: come una sorta di pit-stop nelle gare automobilistiche, hanno detto gli stessi autori.

Pochi minuti durante i quali l'impianto è stato poggiato sopra la zona di corteccia cerebrale interessata e chiesto ai pazienti di ascoltare e ripetere alcuni suoni e parole senza senso. I dati ottenuti, impulsi elettrici relativi al controllo dei muscoli del linguaggio, sono poi stati inseriti in un algoritmo di apprendimento automatico per vedere con quanta precisione poteva prevedere quale suono il paziente avrebbe voluto produrre. Il metodo ha dimostrato una precisione dell'84% per alcune tipologie di suoni fino a un minimo del 40% con altri suoni: un primo passo incoraggiante, anche se ancora lontano da una reale applicabilità, per futuri chip impiantabili capaci di dare nuovamente la parola leggendo semplicemente il pensiero

Leggi l'articolo completo su ANSA.it