Quante volte si sarà sentito qualcuno dire “non è tanto quello che dici a offendermi, a darmi fastidio, ma il modo in cui lo dici”, e quante altre volte siamo stati noi a farlo, quando il tono e l’espressione di una frase ci hanno offeso o ferito più delle parole stesse. È una constatazione di senso comune che ora viene confermata dalla ricerca scientifica.
È stato realizzato per la prima volta uno studio che dimostra che il cervello codifica gli accenti di tono separatamente dai suoni che compongono le parole. La regione delle circonvoluzioni di Heschl, dove si realizza una fase preliminare dell'elaborazione uditiva, svolge un ruolo molto più importante di quanto si pensasse in precedenza.
Le scoperte potrebbero trasformare la logopedia, il riconoscimento vocale basato sull'intelligenza artificiale e la comprensione di ciò che rende unica la comunicazione umana.
Lo studio è stato condotto dalla School of Communication della Northwestern University, dall'Università di Pittsburgh e dall'Università del Wisconsin-Madison ed è stato pubblicato su Nature Communications.
Vi si sostiene che la suddetta regione del cervello non si limita a elaborare i suoni, ma trasforma i sottili cambiamenti di tono, noti come prosodia, in informazioni linguistiche significative. Questi elementi guidano il modo in cui gli esseri umani comprendono enfasi, intento e concentrazione in una conversazione.
Per anni, gli studiosi hanno creduto che tutti gli aspetti della prosodia fossero elaborati principalmente nel giro temporale superiore, una regione del cervello nota per la percezione del parlato. Bharath Chandrasekaran, co-ricercatore principale dello studio e professore alla Northwestern University, ha affermato che i risultati sfidano le ipotesi consolidate su come, dove e con quale velocità la prosodia venga elaborata nel cervello.
"I risultati ridefiniscono la nostra comprensione dell'architettura della percezione del parlato. Abbiamo trascorso decenni a studiare le sfumature di come il parlato viene astratto nel cervello, ma questo è il primo studio a indagare come le sottili variazioni di tono che comunicano significato vengano elaborate".
Il professor Chandrasekaran ha collaborato con il dottor Taylor Abel, primario di neurochirurgia pediatrica all'Università di Pittsburgh, per studiare l'elaborazione delle informazioni uditive in undici pazienti adolescenti sottoposti a trattamento neurochirurgico per epilessia grave.
Tutti avevano elettrodi impiantati in profondità nella corteccia cerebrale, fondamentale per la funzione linguistica.
"In genere, la ricerca sulla comunicazione e la linguistica si basa su registrazioni non invasive dalla superficie della pelle, il che la rende accessibile ma non molto precisa" ha affermato Abel. "Una collaborazione tra neurochirurghi-scienziati e neuroscienziati ci ha permesso di raccogliere registrazioni di alta qualità dell'attività cerebrale, altrimenti impossibili".
Per esplorare come il cervello decifra la melodia del discorso, i ricercatori hanno lavorato con un raro gruppo di pazienti con elettrodi impiantati nel cervello. Mentre ascoltavano una registrazione di Alice nel paese delle meraviglie, gli scienziati hanno monitorato l'attività cerebrale in tempo reale.
Cosa hanno scoperto i ricercatori
Utilizzando le registrazioni intracerebrali, i ricercatori hanno notato che la sezione del giro di Heschl elaborava sottili cambiamenti nel tono della voce non solo come suoni, ma come unità linguistiche significative.
"Il nostro studio mette in discussione le ipotesi consolidate su come e dove il cervello coglie la “melodia” naturale nel parlato", ha affermato G. Nike Gnanataja, co-primo autore dello studio. "Sebbene queste caratteristiche di tono varino ogni volta che parliamo, il nostro cervello crea rappresentazioni stabili per comprenderle".
La ricerca ha anche rivelato che il livello nascosto di significato trasmesso dai contorni prosodici (l’ascesa e la discesa del discorso) viene codificato nell'elaborazione uditiva molto prima di quanto si pensasse.
Perché è importante
Svelando il livello nascosto del linguaggio, Chandrasekaran e il suo gruppo di ricerca hanno dimostrato come il cervello elabora gli accenti, con implicazioni profonde in diversi campi.
"Le nostre scoperte potrebbero trasformare la riabilitazione del linguaggio, il riconoscimento vocale AI e la comprensione della comunicazione umana".
La comprensione dell'elaborazione prosodica precoce potrebbe portare a nuovi interventi per i disturbi del linguaggio e della parola, come l'autismo, la disprosodia nei pazienti post-ictus e le difficoltà di apprendimento legate al linguaggio.
Lo studio evidenzia anche il ruolo unico dell'esperienza linguistica nella comunicazione umana, poiché i primati non umani non hanno la capacità di elaborare gli accenti tonali come categorie astratte.
Inoltre, queste scoperte potrebbero migliorare significativamente i sistemi di riconoscimento vocale AI, consentendo una migliore gestione della prosodia e avvicinando l’elaborazione del linguaggio naturale alla percezione umana.
A livello quotidiano, queste conoscenze aiutano a comprendere perché il modo in cui si dice qualcosa ha un impatto maggiore rispetto al contenuto stesso, soprattutto nei giovani, che hanno meno capacità di elaborazione e controllo emotivo immediato.