Un micro impianto cerebrale per permettere di esprimersi anche alle persone con problemi di linguaggio su uno schermo del computer. È il risultato di un esperimento i cui risultati sono stati pubblicati su Nature portato avanti da ricercatori della Stanford University. La protagonista di questa storia è Pat Bennett, 68enne ex direttrice delle risorse umane ed ex sportiva, che volontariamente ha acconsentito a farsi impiantare un gruppo di sensori delle dimensioni di un’aspirina nel suo cervello.

Da anni la paziente aveva perso la capacità di parlare in modo comprensibile. Nel 2012 le è stata diagnosticata una sclerosi laterale amiotrofica (SLA), che può provocare anche difficoltà nel linguaggio. Nel suo caso infatti la malattia si è manifestata inizialmente non nel midollo spinale ma nel tronco cerebrale provocando la difficoltà a pronunciare chiaramente i fonemi, unità sonore come “sh”. Pat Bennett non riesce più a farsi comprendere perché i suoi muscoli non riescono a eseguire i comandi.

Training per paziente e software

L’utilizzo dei sensori, componenti di un’interfaccia cervello-computer intracorticale, o iBCI, combinato con un software per la decodifica, aveva l’obiettivo di tradurre l’attività cerebrale in parole visualizzate su uno schermo. Circa un mese dopo l’intervento chirurgico, un team di scienziati di Stanford ha iniziato sessioni di ricerca bisettimanali per addestrare il software che interpretava il suo linguaggio e dopo quattro mesi, le tentate enunciazioni di Bennett venivano convertite in parole su uno schermo del computer a 62 parole al minuto, più di tre volte più veloce del record precedente per la comunicazione assistita da BCI. Il training della paziente è consistito in circa 25 sessioni di allenamento, ciascuna di quattro ore, durante le quali ha tentato di ripetere frasi scelte casualmente da un ampio set di dati costituito da campioni di conversazioni tra le persone che parlano al telefono.

Oggi il ritmo di Bennett viaggia verso le 160 parole al minuto, un dato normale per le conversazioni, ha detto Jaimie Henderson, il chirurgo che ha eseguito l’intervento chirurgico. “Abbiamo dimostrato che è possibile decodificare il linguaggio intenzionale registrando l’attività da una piccola area sulla superficie del cervello“, ha aggiunto, professore di neurochirurgia presso il dipartimento di neurochirurgia John e Jean Blume-Robert che con Ruth Halperin, è co-autore dell’articolo.

La tecnologia utilizzata prevede che ogni matrice contenga 64 elettrodi, disposti in griglie di 88 e separati l’uno dall’altro da una distanza di circa la metà dello spessore di una carta di credito. Gli elettrodi penetrano nella corteccia cerebrale a una profondità pari a circa due quarti impilati. Le matrici impiantate sono attaccate a sottili fili d’oro che escono attraverso piedistalli avvitati al cranio, che vengono poi collegati tramite cavo a un computer.

Un algoritmo di intelligenza artificiale riceve e decodifica le informazioni elettroniche provenienti dal cervello di Bennett, imparando infine a distinguere le distinte attività cerebrali associate ai suoi tentativi di formulare ciascuno dei 39 fonemi che compongono l’inglese parlato.

Il sistema è addestrato per sapere quali parole dovrebbero venire prima delle altre e quali fonemi compongono quali parole“, ha spiegato Willett. “Se alcuni fonemi sono stati interpretati in modo errato, è comunque possibile fare una buona ipotesi“.

Si tratta di una prova scientifica del concetto, non di un dispositivo reale che le persone possono utilizzare nella vita di tutti i giorni“, ha concluso Willett. “Ma è un grande passo avanti verso il ripristino di una comunicazione rapida per le persone paralizzate che non possono parlare“.