Il computer che trasforma gli impulsi nervosi in parole

Per molte persone che non possono parlare i segnali di ciò che vorrebbero dire si nascondono nel loro cervello. Nessuno finora è stato in grado di decifrare direttamente quei segnali. Di recente tre gruppi di ricerca hanno fatto progressi nel trasformare i dati degli elettrodi posizionati nel cervello in un discorso generato al computer.

In futuro l’intelligenza artificiale potrà aiutare chi non è in grado di parlare

Per molte persone che non possono parlare i segnali di ciò che vorrebbero dire si nascondono nel loro cervello. Nessuno finora è stato in grado di decifrare direttamente quei segnali. Di recente tre gruppi di ricerca hanno fatto progressi nel trasformare i dati degli elettrodi posizionati chirurgicamente nel cervello in un discorso generato al computer.

Molte persone in tutto il mondo vivono senza la possibilità di parlare. Oggi queste persone, che magari hanno perso la capacità di parlare in seguito a un ictus o per un’altra patologia, possono usare gli occhi o fare altri piccoli movimenti per controllare un cursore o selezionare le lettere su uno schermo. La tecnologia vuole andare oltre e costruire un'interfaccia cervello-computer in grado di ricreare direttamente il discorso di queste persone. In questo modo il malato potrebbe riacquistare molto di più, il controllo del tono e della flessione della voce, per esempio, o la capacità di interagire rapidamente in una conversazione.

Negli ultimi mesi tre gruppi di ricercatori sono riusciti a compiere passi importanti per convertire i dati grezzi catturati dalle reti di elettrodi (impiantati chirurgicamente nel cervello) in parole e frasi computerizzate. Tuttavia, nessuna delle tre squadre, utilizzando modelli computazionali noti come reti neurali, è riuscita a sviluppare un sistema in grado di verbalizzare quello che i soggetti studiati stavano pensando.
Il team guidato da Nima Mesgarani della Columbia University di New York ha studiato cinque persone con epilessia. Un altro team, guidato dai neuroscienziati Miguel Angrick dell'Università di Brema e Christian Herff dell'Università di Maastricht, si è basato sui dati di sei persone sottoposte a chirurgia per tumori cerebrali. Infine, il neurochirurgo Edward Chang e il suo team della University of California, San Francisco, hanno ricostruito intere frasi dell'attività cerebrale di tre pazienti epilettici.

I risultati sono incoraggianti, ma i problemi da affrontare sono complessi.

  1. Il modo in cui questi impulsi nervosi sono tradotti in suoni del parlato varia da una persona all'altra. Quindi l’intelligenza artificiale dovrà essere addestrata per ogni individuo in particolare.
  2. L'intelligenza artificiale funziona meglio quando è alimentata con dati estremamente precisi, il che spiega perché è necessario aprire il cranio per installare gli elettrodi. Al momento i ricercatori possono eseguire i loro esperimenti solo approfittando di interventi neurochirurgici programmati per altri scopi (tumori cerebrali, schizofrenia, ecc.).
  3. Come funzioneranno queste intelligenze artificiali quando lavoreranno direttamente con persone che non possono parlare? I segnali cerebrali non accompagnati da un suono esterno corrispondente all’attività cerebrale potranno essere difficili da interpretare per un computer (ad esempio, sarà difficile riconoscere dove questo "discorso interno" inizia e finisce).

La decodifica del parlato immaginato richiederà un salto enorme, dicono gli esperti. Al momento il lavoro è affascinante, ma non è proprio chiaro come condurlo a termine.


Fonte: Servick K. Computers turn neural signals into speech. Science. 2019 Jan 4;363(6422):14. doi: 10.1126/science.363.6422.14.