Nuove pubblicazioni
"Due contatori, una soluzione": come il cervello combina suono e immagine per premere un pulsante più velocemente
Ultima recensione: 18.08.2025

Tutti i contenuti di iLive sono revisionati o verificati da un punto di vista medico per garantire la massima precisione possibile.
Abbiamo linee guida rigorose in materia di sourcing e colleghiamo solo a siti di media affidabili, istituti di ricerca accademici e, ove possibile, studi rivisti dal punto di vista medico. Nota che i numeri tra parentesi ([1], [2], ecc.) Sono link cliccabili per questi studi.
Se ritieni che uno qualsiasi dei nostri contenuti sia impreciso, scaduto o comunque discutibile, selezionalo e premi Ctrl + Invio.

Quando sentiamo un fruscio nell'erba e un'ombra tremolante, reagiamo più velocemente che se ci fosse solo un suono o un lampo. Classico. Ma cosa succede esattamente nel cervello in quelle frazioni di secondo? Un nuovo articolo su Nature Human Behaviour dimostra che vista e udito accumulano prove separatamente e, al momento della decisione, la loro "somma" attiva un singolo meccanismo motorio. In altre parole, ci sono due accumulatori sensoriali nella testa che co-attivano un singolo meccanismo motorio.
Sfondo
Come il cervello prenda decisioni rapide in un "mondo rumoroso" di suoni e immagini è una domanda vecchia di secoli, ma senza una risposta chiara. Dalla fine del XIX e XX secolo, l'"effetto dei segnali ridondanti" (RSE) è noto in psicofisica: se un bersaglio viene presentato simultaneamente in due modalità (ad esempio, un lampo e un suono), la reazione è più rapida rispetto a un singolo segnale. La disputa verteva sul meccanismo: una "gara" di canali indipendenti (modello di gara), in cui vince il processo sensoriale più veloce, o una coattivazione, in cui le prove provenienti da diverse modalità si sommano prima di innescare una risposta. Test formali (come la disuguaglianza di Miller) hanno aiutato a livello comportamentale, ma non hanno mostrato dove si verifica esattamente la "piega" se sul lato degli accumulatori sensoriali o già al momento dell'attivazione motoria.
Negli ultimi 10-15 anni, la neurofisiologia ha offerto marcatori affidabili di queste fasi latenti. In particolare, la positività centro-parietale (CPP), un segnale EEG sovramodale di "accumulo a soglia" che ben si adatta ai modelli di drift-diffusione del processo decisionale, e la riduzione beta (~20 Hz) sulla corteccia motoria sinistra come indice di preparazione al movimento. Questi segnali hanno permesso di collegare i modelli computazionali ai circuiti cerebrali reali. Tuttavia, permangono lacune fondamentali: le prove audio e visive vengono accumulate in uno o due accumulatori separati? Ed esiste un'unica soglia motoria per il processo decisionale multimodale, oppure ogni modalità viene "giudicata" in base a criteri distinti?
Un'ulteriore complicazione è la tempistica. In condizioni reali, vista e udito presentano desincronie dell'ordine di microsecondi-millisecondi: un leggero sfasamento temporale può mascherare la vera architettura del processo. Pertanto, sono necessari paradigmi che controllino simultaneamente la regola di risposta (per rispondere a qualsiasi modalità o solo a entrambe contemporaneamente), varino l'asincronia e consentano di combinare le distribuzioni comportamentali dei tempi di reazione con la dinamica dei marcatori EEG in un'unica modellazione. È questo approccio che ci permette di distinguere la "somma di accumulatori sensoriali con successivo avvio motorio singolo" dagli scenari di "gara di canali" o "fusione precoce in un unico flusso sensoriale".
Infine, ci sono motivazioni pratiche che vanno oltre la teoria di base. Se gli accumulatori sensoriali sono effettivamente separati e l'attivazione motoria è condivisa, allora in gruppi clinici (ad esempio, parkinsonismo, ADHD, disturbi dello spettro autistico) il collo di bottiglia potrebbe risiedere a livelli diversi: nell'accumulo, nella convergenza o nella preparazione motoria. Per le interfacce uomo-macchina e i sistemi di allarme, la fase e la tempistica degli stimoli sono fondamentali: la corretta sincronizzazione di suono e immagine dovrebbe massimizzare il contributo congiunto alla soglia motoria, e non semplicemente "aumentare il volume/la luminosità". Queste domande sono il contesto di un nuovo articolo su Nature Human Behaviour, che esplora la rilevazione multimodale simultaneamente a livello di comportamento, dinamica EEG (CPP e beta) e modellazione computazionale.
Cosa hanno scoperto esattamente?
- In due esperimenti EEG (n=22 e n=21), i partecipanti hanno rilevato cambiamenti in un'animazione di punti (visione) e in una serie di toni (uditivo) premendo un pulsante quando uno dei due cambiava (rilevamento ridondante) o solo quando entrambi cambiavano (rilevamento congiuntivo).
- I ricercatori hanno monitorato un "contatore" di prove neurali - la positività centro-parietale (CPP) - e la dinamica dell'attività beta dell'emisfero sinistro (~20 Hz) come marcatore della preparazione al movimento. Questi segnali sono stati confrontati con le distribuzioni dei tempi di reazione e i modelli computazionali.
- In conclusione: le prove uditive e visive si accumulano in processi separati e, quando vengono rilevate in modo ridondante, il loro contributo cumulativo co-attiva in modo subadditivo (meno di una semplice somma) un processo motorio soglia, ovvero il vero e proprio "innesco" dell'azione.
Un dettaglio importante è il controllo "fuori sincrono". Quando i ricercatori hanno introdotto una piccola asincronia tra i segnali audio e visivi, un modello in cui gli accumulatori sensoriali prima si integrano e poi informano il sistema motorio ha spiegato i dati meglio degli accumulatori che "corrono" l'uno contro l'altro. Ciò rafforza l'idea che i flussi sensoriali scorrano in parallelo ma convergano verso un unico nodo decisionale motorio.
Perché è necessario saperlo (esempi)
- Clinica e diagnostica. Se gli accumulatori sensoriali sono separati e la soglia motoria è comune, diversi gruppi di pazienti (con ASD, ADHD, parkinsonismo) possono aspettarsi diversi "nodi di rottura" - nell'accumulo, nella convergenza o nell'attivazione motoria. Questo aiuta a progettare con maggiore precisione biomarcatori e training di attenzione/reazione.
- Interfacce uomo-macchina: la progettazione di segnali di avvertimento e interfacce multimodali può trarre vantaggio dalla sfasatura ottimale di segnali sonori e visivi, in modo che la co-attivazione motoria sia più rapida e stabile.
- Modelli neurali del processo decisionale. I risultati collegano le "controversie" comportamentali a lungo termine (razza vs. co-attivazione) a specifici marcatori EEG (PPC e ritmo beta della corteccia motoria), avvicinando i modelli computazionali alla fisiologia reale.
Come è stato fatto (metodologia, ma brevemente)
- Paradigmi: ridondanti (rispondono a qualsiasi modalità) e congiuntivi (rispondono solo a entrambe contemporaneamente): una tecnica classica che consente di "pesare" il contributo di ciascuna branca sensoriale. Più un esperimento separato con una data asincronia tra audio e video.
- Neurosegnali:
- CPP - indice "sovramodale" di accumulo di evidenze sensoriali fino alla soglia;
- La diminuzione della beta nella corteccia motoria sinistra è un indice di preparazione al movimento. Il confronto dei loro profili temporali ha mostrato ampiezze di CPP diverse per i target uditivi rispetto a quelli visivi (segno di accumulatori separati) e un'azione congiunta del meccanismo beta (segno di una soglia motoria comune).
- Simulazione: adattamento congiunto delle distribuzioni comportamentali del tempo di reazione e delle dinamiche EEG. Il modello con integrazione degli accumulatori sensoriali prima del nodo motorio ha vinto il confronto, soprattutto in presenza di asincronia.
Cosa cambia nel quadro cerebrale?
- Multimodalità ≠ "mescola e dimentica". Il cervello non riversa tutte le prove in un unico contenitore; mantiene registrazioni parallele su più canali e l'integrazione avviene più vicino all'azione. Questo spiega perché gli stimoli multimodali accelerano i tempi di reazione: attivano insieme lo stesso segnale motorio.
- La subadditività è la norma. La "somma" degli input sensoriali è inferiore alla semplice aritmetica, ma è sufficiente per raggiungere più velocemente la soglia motoria. Quindi, l'obiettivo dell'interfaccia non è "aggiungere volume e luminosità", ma sincronizzare la convergenza.
- Un ponte tra psicofisica e neurofisiologia: i vecchi effetti comportamentali “ridondanti” ricevono una spiegazione meccanicistica tramite i marcatori CPP e beta.
Limitazioni e passo successivo
- Il campione è costituito da adulti sani sottoposti a prove di laboratorio; le conclusioni cliniche sono la fase successiva. Sono necessari test su pazienti e in ambienti naturali multimodali.
- L'EEG fornisce un'eccellente immagine temporale ma spaziale limitata; è logico integrarla con la registrazione MEG/invasiva e modelli di connettività efficaci.
- La teoria prevede che l'allenamento alla sincronizzazione degli stimoli audiovisivi dovrebbe migliorare selettivamente la fase motoria senza modificare gli accumulatori sensoriali: si tratta di un'ipotesi verificabile in compiti applicati (sport, aviazione, riabilitazione).
Riepilogo
Il cervello ha "contatori" separati per la vista e l'udito, ma decide con un solo pulsante. Comprendendo esattamente dove avviene il "ripiegamento" delle informazioni sensoriali in azione, possiamo adattare con maggiore precisione diagnostica, interfacce e riabilitazione, dai caschi dei piloti alla telemedicina e alla neuroeducazione dell'attenzione.
Fonte: Egan, JM, Gomez-Ramirez, M., Foxe, JJ et al. Accumulatori audio e visivi distinti co-attivano la preparazione motoria per il rilevamento multisensoriale. Nat Hum Behav (2025). https://doi.org/10.1038/s41562-025-02280-9