Letture
9 minuti
Tech & Innovazione
Tech & Innovazione

Perché nel nostro cervello le parole hanno un suono? Un gruppo di scienziati italiani ha scoperto i segreti del pensiero.

30 novembre 2020
autore:

Quando pensiamo o quando leggiamo silenziosamente nella nostra testa risuonano le parole anche senza pronunciarle. Perché questo accada o come avvenga fino a poco fa sembravano quesiti irrisolvibili. Come facciamo ad associare i suoni alle parole anche senza dirle ad alta voce? Un team dell’Università di Pavia ha provato a dare una risposta, dopo una lunga ricerca che ha visto la collaborazione di diversi ambiti di competenze: hanno partecipato, infatti, studiosi provenienti dal Dipartimento di Scienze Clinico-chirurgiche, Diagnostiche e Pediatriche, da quello di Ingegneria Elettronica, Informatica e Biomedica e dal Centro di Ricerca Neurocognitiva e di Sintassi Teoretica dell’Istituto di Studi Avanzati di Pavia. I risultati hanno aperto nuovi affascinanti scenari e una serie di domande che potranno fornire la base di partenza per gli approfondimenti futuri.

La domanda da cui gli scienziati sono partiti – perché nel nostro cervello le parole hanno un suono? – è la stessa che molto probabilmente si è posto ognuno di noi almeno una volta. Per rispondere, come racconta Andrea Moro – il linguista e neuroscienziato che ha partecipato alla ricerca e autore del libro Impossible languages –, gli scienziati sono partiti dal definire cosa è il linguaggio. Da un punto di vista linguistico e comunicativo, il linguaggio consiste in parole e regole per usarle (la grammatica e la sintassi), mentre da un punto di vista fisico si concretizza in due diversi spazi: fuori e dentro il cervello. Al di fuori del cervello, il linguaggio è costituito da onde acustiche di molecole d’aria rarefatte (cioè il suono); nel nostro cervello, invece, si tratta di onde elettriche, i canali di comunicazione per i neuroni. Il suono consente al contenuto di un cervello, espresso attraverso le parole, di raggiungere un altro individuo tramite la comunicazione: il suono raggiunge il cervello dell’ascoltatore tramite le orecchie, viaggiando attraverso la membrana timpanica, i tre ossicini (i più piccoli dell’intero corpo umano) e l’organo del Corti, situato nel condotto cocleare, l’organo a forma di chiocciola alla base di questo processo.

Questo complesso sistema serve a tradurre le vibrazioni meccaniche del suono in impulsi elettrici, scomponendole in frequenze più semplici che vengono poi “mappate” dal cervello all’interno della corteccia uditiva primaria. Ecco come le onde elettriche sostituiscono quelle sonore. Il funzionamento di questo meccanismo era noto da tempo agli scienziati, almeno da quando l’elettrofisiologo lord Edgar Adrian ha condotto il suo pionieristico lavoro sui meccanismi di conduzione nervosa che l’avrebbe portato a vincere il premio Nobel per la medicina nel 1932. Quello che la squadra di ricercatori di Pavia ha scoperto è qualcosa di più sofisticato, ossia che le onde elettriche che costituiscono l’attività cerebrale mantengono la stessa forma delle onde sonore corrispondenti, anche in aree non preposte all’acustica del cervello, come l’area di Broca, impegnata nella produzione del linguaggio articolato e così chiamata dal nome del medico che per primo la descrisse, Paul Broca. È per questo che, anche senza pronunciarle, “sentiamo” le parole nella nostra testa: il linguaggio può essere presente anche in assenza di suono, proprio come succede quando leggiamo o pensiamo, momenti in cui siamo impegnati in attività endofasica.

Il risultato è stato raggiunto focalizzandosi sul capire quali neuroni si “accendono” quando parliamo, più che sul luogo in cui la loro attività si svolge. Questo è stato possibile grazie a delicati e impegnativi esperimenti: è stata infatti impiegata la awake surgery, un tipo di operazione chirurgica che viene svolta con il paziente sveglio, stimolando direttamente l’attività corticale dei pazienti e vedendo subito e in modo diretto le conseguenze della stimolazione. Durante l’operazione – svolta nei casi in cui il chirurgo ha bisogno di sapere se può intervenire con sicurezza su una certa parte della corteccia del paziente – il paziente viene svegliato per 5-10 minuti, durante i quali il medico gli chiede di fare un’azione semplice; mentre il paziente la svolge, il chirurgo stimola la parte di corteccia interessata usando dei piccoli elettrodi e osservando se la stimolazione interferisce con l’azione o meno. In questo modo si può stabilire con precisione la posizione dei “comandi” associati a una specifica attività all’interno del cervello, che può variare da persona a persona e che con altre tecniche di indagine – per esempio nel neuroimaging – non è sempre possibile individuare con la stessa precisione.

Nel corso dell’esperimento è stato chiesto a 16 pazienti di leggere delle espressioni linguistiche ad alta voce, sia parole isolate che frasi intere, per poi confrontare la forma delle onde acustiche con quella delle onde elettriche nell’area di Broca. I ricercatori, come prevedevano, hanno notato un’analogia. Ma a essere sorprendente è stato il secondo step, in cui ai pazienti è stato chiesto di leggere di nuovo le stesse espressioni, questa volta senza farlo ad alta voce. Anche in questo caso l’analogia si è presentata, proprio come con la lettura a voce alta: il segnale che interagiva con il loro cervello non era di tipo acustico, ma veicolato da onde elettromagnetiche. Uno stimolo veicolato dalle lettere alfabetiche che utilizziamo per rappresentare le parole.

Mettendo a confronto la forma delle onde elettriche che caratterizzano l’attività dell’area di Broca con la forma delle onde sonore – non solo quando si parla, ma anche quando si leggono espressioni linguistiche in silenzio: cioè quando l’input non è acustico –  si è visto che le due tipologie mantengono la stessa struttura. Di fatto, le due diverse famiglie di onde sono strettamente legate, tanto da poter essere sovrapposte, indipendentemente che si produca il suono o meno. L’informazione acustica non viene “impiantata” in un secondo momento – quando una persona comunica con un’altra –, ma fa parte della codificazione fin dall’inizio, o almeno esiste anche prima del suono stesso. La sensazione di sfruttare la rappresentazione sonora quando leggiamo o pensiamo, quindi, non è un’illusione, ma un’azione che il nostro cervello porta avanti in concreto. Il suono, in definitiva, gioca un ruolo molto più centrale nel processo linguistico di quanto si pensasse fino a oggi.

Il risultato raggiunto dai ricercatori pavesi ci avvicina a capire più nel dettaglio i meccanismi di decodificazione del linguaggio e del pensiero. Allo stesso tempo suscita una serie di nuove domande, che spingono le potenziali aree di ricerca verso applicazioni rivoluzionarie nel campo della medicina. Per esempio: quale attività elettrica si riscontrerebbe analizzando le aree del cervello di persone che non sono state mai in grado di sentire alcun suono fin dalla nascita? Oppure, è possibile sfruttare le informazioni delle onde elettriche nella corteccia cerebrale per comprendere il pensiero linguistico di pazienti che sono afasici a causa di danni all’apparato articolatorio, e sentirli tornare a esprimersi, per esempio attraverso un device artificiale? E, ancora, possiamo arrivare a comprendere il linguaggio usato nei sogni? La balbuzie grave può essere considerata come una forma di coordinazione errata tra diverse rappresentazioni sonore in diverse reti ed è, quindi, possibile intervenire per risolverla? Un grande risultato è stato raggiunto grazie al lavoro dell’equipe multidisciplinare di Pavia, ma le strade che ora si aprono davanti ai ricercatori e i nuovi possibili campi di indagine sono i più variegati che si possa immaginare. La sfida nel capire i segreti di come parliamo e, di fondo, come pensiamo, è appena agli inizi.

Vuoi informazioni sulla nostra consulenza e sui nostri servizi?

Naviga il sito e vedi tutti i contenuti di tuo interesse