Un algoritmo per stabilire lo stato di coscienza. Stabilire se un paziente con una lesione cerebrale è consapevole di se stesso o dell’ambiente è un compito complesso, anche a causa delle incertezze sulla reale natura della coscienza. Un algoritmo di apprendimento automatico usa i tracciati dell’EEG per calcolare le probabilità che un paziente in coma si risvegli, ma il suo utilizzo solleva diversi interrogativi.
La coscienza è un’idea particolare, anche misteriosa. Da un chilo e mezzo di carne emerge la consapevolezza del corpo che la ospita e del mondo che la circonda. Tutti noi riconosciamo la coscienza quando la vediamo, ma che cos’è veramente? E dove va quando non c’è più?
Le neuroscienze non hanno gli strumenti per rispondere a queste domande – se pure è possibile farlo – ma in un ospedale i medici devono essere in grado di stabilirne la presenza. Devono sapere se un paziente con una lesione cerebrale è consapevole di se stesso o dell’ambiente circostante. Questa diagnosi per lo più è ancora fatta con un semplice esame al capezzale. Il paziente esegue i comandi? Sta gesticolando o verbalizzando intenzionalmente, eccetera?
Per i pazienti sul limitare della coscienza, non lucidi ma non comatosi, definire lo stato di coscienza è difficile. Movimenti e suoni casuali possono somigliare molto a quelli intenzionali. La consapevolezza va e viene.
In molti casi, la posta in gioco con la diagnosi è molto alta. Il paziente si trova in uno stato di minima coscienza, dove c’è una certa probabilità di guarigione, o il paziente è colpito da sindrome di veglia aresponsiva, in cui le azioni sono ritenute casuali e prive di intenzionalità e in cui c’è ben poca speranza di recupero? Purtroppo, in ben il 40 per cento dei casi la diagnosi è problematica.
Considerata la posta in gioco, un studio da poco pubblicato sulla rivista “Brain” cerca di dare ai medici un piccolo aiuto. L’articolo descrive in dettaglio un algoritmo di apprendimento automatico che distingue la sindrome di veglia aresponsiva dallo stato di minima coscienza usando le registrazioni.
Se fosse adottato, l’algoritmo ridurrebbe la necessità di affidarsi a congetture per formulare la diagnosi e probabilmente funzionerebbe meglio della maggior parte dei medici umani. Ma diagnosticare lo stato mentale con un algoritmo solleva preoccupazioni etiche. Fino a che punto ci sentiamo tranquilli ad affidare una diagnosi di vita o morte a una macchina, soprattutto pensando alla ben scarsa chiarezza su cosa sia la coscienza?
L’idea di scrutare il cervello alla ricerca di tracce di coscienza non è nuova. Per decenni, i ricercatori hanno vagliato la possibilità di usare tecniche di scansione del cervello come la PET e la fMRI per studiare il limite della coscienza.
In un importante studio del 2014, le scansioni PET hanno dimostrato che in alcuni pazienti a cui era stata diagnosticata (sbagliando) la sindrome di veglia aresponsiva il cervello poteva rispondere alle indicazioni. Inoltre, i pazienti con una PET attiva avevano maggiori probabilità di ottenere un recupero significativo.
Questo risultato indica che in caso di dubbi sullo stato di coscienza di un paziente si dovrebbe ricorrere alle scansioni PET. Queste scansioni, però, non sono disponibili in tutti gli ospedali, e sono costose, soggette ad artefatti e difficili da interpretare.
Un’alternativa più accessibile è l’elettroencefalografia, in cui sensori elettrici sono collocati sul cuoio capelluto del paziente per rilevare l’attività cerebrale attraverso il cranio. L’EEG registra l’attività cerebrale sotto forma di onde quando un numero sufficiente di neuroni si attiva all’unisono. In una persona sana, queste onde hanno frequenze prevedibili. Dopo una lesione cerebrale, il loro schema è meno prevedibile.
Nel nuovo studio, un gruppo dell’ospedale Pitié-Salpêtrière di Parigi ha effettuato registrazioni EEG su 268 pazienti ai quali era stata diagnosticata la sindrome di veglia aresponsiva o uno stato di minima coscienza.
Gli EEG sono stati registrati prima e durante un compito di ascolto progettato per rilevare l’elaborazione cosciente dei suoni. Decine di aspetti dei dati sono stati inseriti in un algoritmo di apprendimento automatico chiamato DOC-Forest.
In questo complesso compito DOC-Forest si è comportato piuttosto bene. Circa 3 casi su 4 sono stati diagnosticati correttamente. (Nota: per valutare le prestazioni invece della classica accuratezza, gli autori hanno usato una metrica più sofisticata chiamata AUC. La AUC tiene conto del tasso di falsi positivi, che in questo caso ha conseguenze significative.)
Gli autori hanno testato DOC-Forest anche in scenari realistici, introducendo nei dati del rumore casuale in modo da simulare l’effetto di possibili differenze nelle procedure di raccolta dei dati. Hanno considerato la diversa disposizione dei sensori sul cranio, e hanno anche usato l’algoritmo su un secondo gruppo di pazienti. DOC-Forest ha dato sempre buoni risultati, fornendo valori di prestazione simili.
Sotto un certo profilo, questo algoritmo di apprendimento automatico rappresenta un progresso significativo. I dati EEG sono complessi e hanno molte dimensioni – tempo, frequenza, condizioni di prova, posizione dei sensori, e via discorrendo – che si sviluppano sul monitor schermata dopo schermata.
In genere, i ricercatori si concentrano su una manciata di caratteristiche di facile interpretazione, per esempio la comparsa di una specifica onda cerebrale durante l’attività di ascolto. Questa focalizzazione sull’interpretazione esclude però aspetti potenzialmente importanti dei dati. L’apprendimento automatico non ha questo pregiudizio umano a favore dell’interpretabilità e della comunicabilità. Si concentra solo sulla classificazione corretta dei dati, che è tutto ciò che serve in questo caso.
Se usato nella pratica clinica, DOC-Forest potrebbe essere uno strumento utile per un neurologo alle prime armi, scandagliando le sinuose tracce elettroencefalografiche e fornendo le probabilità che il paziente abbia un certo livello di coscienza, sfuggito al medico inesperto durante i test al capezzale.
Qui però c’è un circolo vizioso. L’algoritmo è addestrato su casi che i neurologi umani hanno diagnosticato proprio con test al capezzale. Mentre il gruppo di Pitié-Salpêtrière ha potuto seguire i pazienti per un certo tempo così da ridurre al minimo gli errori diagnostici, l’algoritmo associa comunque solo i segnali EEG a quelle diagnosi al capezzale, sia pure fatte da esperti. Che cosa ci può però dire di una qualche forma di coscienza che non sia rivelata da nessuno di questi test, EEG o altro?
Teniamo a mente che in realtà non sappiamo dove e come emerga la coscienza. Al di fuori di quelle che sperimentiamo su noi stessi, non abbiamo un’idea delle forme che può assumere l’esperienza cosciente.
Si potrebbe sostenere che la nostra ridottissima comprensione del problema significa che non dovremmo ancora coinvolgere le macchine. D’altra parte, non è chiaro se avremo mai risposte soddisfacenti a queste domande. Quindi, perché non lasciare che uno strumento attentamente progettato, come DOC-Forest, aiuti a prendere decisioni nel quadro della nostra attuale comprensione della coscienza? Non c’è una risposta facile, ma la questione probabilmente dovrebbe essere discussa perché l’ora dell’uso quotidiano di questi strumenti si avvicina.
(L’originale di questo articolo è stato pubblicato su “Scientific American” il 18 dicembre 2018. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati.)
Lascia un commento