In che modo il cervello associa sensazioni alla musica? Risultati delle ricerche condotte all'Università Milano-Bicocca

A volte le domande che ti poni da una vita trovano risposta. Penso a questi miei due interrogativi decennali: perché ci sono musiche che classifico come allegre e altre tristi? E perché queste sensazioni non sono solo mie ma sembrano essere le stesse per tutte le persone?

Di recente ho vissuto un'esperienza che ha riacceso con forza queste mie curiosità. Ho visitato la Pinacoteca Nazionale di Cagliari con una guida semplicemente straordinaria: Marco Peri. Durante la visita Marco ha fatto provare a tutti i partecipanti sensazioni diverse, di fronte a uno stesso quadro, cambiando la musica di sottofondo. Anche questa breve ma intensa esperienza sinestetica mi ha mostrato ancora una volta la contaminazione tra sensi e sensazioni. E di conseguenza ha rafforzato la mia voglia di sapere perché ciò accade.

Uno degli ambiti in cui questa sensazione mi è affiorata più spesso è ovviamente il cinema. Negli ultimi anni la visione di film sottotitolati mi ha esposto alla descrizione dell'audio delle scene. E mi ha aiutato a cercare di individuare elementi comuni tra le diverse esperienze. In particolare ho constatato che la dicitura "Musica di tensione in sottofondo" era sempre associata a composizioni dominate dai semitoni. Ho iniziato anni fa con ossessive prove alla chitarra acustica, poi con l'elettrica e svariati effetti e più recentemente con i tasti del pianoforte. L'esperienza diretta, come sempre è impagabile, ma purtroppo non ti permette di capire tutto. Ho trovato molto utile in questo il blog di Susanna Quagliariello Musica Digitale, ad esempio il post Comporre musica da film: Horror e Thriller che spiega l'associazione tra gli effetti di tensione nei film e il ricorso ai semitoni o alle dissonanze. E, come spesso capita, cercando di dissetare le nostre curiosità possiamo incappare nell'aiuto inatteso di qualcuno che avrebbe litri di informazioni interessanti: dopo aver letto il post Lo squalo: la colonna sonora del film di Spielberg («Il famoso, quanto terrificante, motivetto che fa da sfondo alla pellicola è composto dall'alternanza di due sole note, Mi e Fa, ed ancora oggi è il leit motiv di tutte le situazioni di pericolo imminente. Uno studio condotto dall'Università della California ha evidenziato che la sensazione di pericolo legata al brano dipende in buona parte dai suoni non lineari che la caratterizzano, tra cui le urla dei bagnanti terrorizzati che cercano di sfuggire all'attacco del gigantesco squalo bianco») ho letto un commento di Maurizio Giovanni Caschetto: «il tema dello squalo è strutturato su uno scarto di semitono (Re/Mi bemolle), ossia l'intervallo più breve esistente in musica, a cui si aggiunge una terza nota (un Do grave) per due volte nella terza e quarta misura. Williams poi aggiunge una sinuosa linea ascendente affidata alla tuba, creando così ulteriore suspense e mistero»).

Ed ecco che finalmente le risposte a queste mie domande affiorano su IScience (ERP markers of valence coding in emotional speech processing) e su European Journal of Neuroscience (“Shared neural mechanisms for processing emotions in music and vocalizations”). Il cervello percepisce la musica come triste o allegra nello stesso modo in cui decodifica le emozioni della voce umana sotto forma di linguaggio verbale e di vocalizzazioni. Si tratta dei risultati di una serie di ricerche condotte all'Università Milano-Bicocca, grazie alle quali si è ora in grado di comprendere la capacità del cervello di interpretare la musica in modo innato e universale. Proprio quello che mi chiedevo da anni.


I ricercatori del gruppo di ricerca del Dipartimento di Psicologia di Milano-Bicocca, coordinato dalla professoressa Alice Mado Proverbio, hanno registrato la risposta bioelettrica cerebrale spontanea in 60 studenti universitari, mente altri 32 studenti hanno valutato la componente emotiva degli stimoli stabilendone la valenza negativa oppure positiva, per un totale di 92 partecipanti al progetto, durato più di 2 anni.
L'analisi era combinata con immagini anatomiche di risonanza (realizzate dal Montreal Neurological Institute).
Gli stimoli erano di carattere verbale, vocale o musicale. Si trattava di 200 enunciati verbali con valenza emotiva (per es.: “Tutti mi disprezzano…”, oppure “Assolutamente fantastico!”, oltre a 25 frasi neutre contenenti un nome, tutti pronunciati da speaker professionisti. Inoltre sono stati proposti ai partecipanti 64 file audio di vocalizzazioni spontanee di uomini e donne adulti e bambini (gridolini di gioia, grida di sorpresa, risate, pianti, grida di paura, lamenti di tristezza). Sia le voci che il linguaggio sono stati poi trasformati digitalmente in melodie eseguite al violino o alla viola/violoncello e presentati in cuffia. I partecipanti all'esperimento sono risultati in grado di riconoscere le sfumature emotive distinguendole in negative e positive – per le vocalizzazioni tra i 150 e i 250 millisecondi dopo l’inizio dell’emissione, verso i 350 millisecondi per linguaggio verbale – e a partire dai 450 ms per la musica strumentale. A partire da tale istante il cervello esibiva risposte bioelettriche simili per i 3 tipi di segnale (voce, musica, linguaggio), nella comprensione del loro significato emotivo.
Le aree del cervello attivate dalla musica sono tre: area paraippocampale destra, lobo limbico e corteccia cingolata destra; quelle attivate dalle vocalizzazioni: corteccia temporale superiore sinistra BA39; nel caso del linguaggio verbale la corteccia temporale superiore sinistra BA42/BA39.
Le aree comuni attive nel comprendere la loro natura emotiva, a prescindere dalla tipologia di suoni, per gli stimoli negativi erano il giro temporale mediale dell’emisfero destro, per quelli positivi la corteccia frontale inferiore (si veda la fig. 1 allegata). La notazione ottenuta trasformando i segnali acustici in note musicali ha mostrato come i suoni emotivamente negativi tendevano ad essere in tonalità minore o a contenere più dissonanze di quelli positivi.
«Questi dati - secondo Alice Mado Proverbio - indicano in che modo il cervello sia in grado di estrarre e comprendere le sfumature emotive dei suoni attraverso popolazioni neurali specializzate della corteccia fronto/temporale, e dedicate a comprendere il contenuto prosodico e affettivo delle vocalizzazioni e del linguaggio umano. Questo spiega la relativa universalità di certe reazioni innate alla musica, che prescindono dall’età e dalla cultura dell’ascoltatore».

Materiale audio-video fornito dall'Università Milano-Bicocca

Andrea Mameli, blog Linguaggio Macchina, 22/12/2019

Commenti

Post popolari in questo blog

Ogni cosa è collegata: Gabriella Greison a Sant'Antioco il 24 giugno (e non è un caso)

La tavoletta di Dispilio. Quel testo del 5260 a.C. che attende di essere decifrato

Solar system genealogy revealed by extinct short-lived radionuclides in meteorites. Astronomy & Astrophysics, Volume 545, September 2012.