“Sei il presidente del Cicap? Devi essere molto scettico…”, dice
un’analista al suo paziente.
“No”, risponde il paziente, “non ne sono convinto”.
“No”, risponde il paziente, “non ne sono convinto”.
A raccontare questa storiella è Sergio Della Sala, direttore
dell’unità di Human cognitive neuroscience dell’Università di Edimburgo e,
appunto, presidente del
Cicap (Comitato italiano per il controllo delle affermazioni
sulle pseudoscienze).
Il Cicap è l’assai meritevole organizzazione che Piero Angela ha fondato,
insieme a un gruppo di scienziati, alla fine degli anni ottanta. Obiettivo:
valutare e demistificare i fenomeni paranormali e le credenze prive di
fondamento, dal creazionismo alla chiaroveggenza, dai cerchi nel grano alle
bufale mediche.
Della Sala interviene in apertura del convegno del Cicap intitolato “Il
valore dei fatti nell’era della post-verità”. Dice cose utili e interessanti.
Spiega alcuni meccanismi cognitivi che stanno alla base della diffusione delle
bufale, e specialmente delle bufale mediche. Quel che dice merita di essere
condiviso. Dunque, prendo appunti.
Atti di fede
Della Sala ricorda che tutti possiamo autoingannarci. E invita a essere sì scettici, ma non faziosi. La faziosità non funziona, nemmeno per smontare le notizie false. Molto meglio argomentare la propria posizione, restare vicino ai fatti e provare a capire quel che accade nella mente delle persone.
Della Sala ricorda che tutti possiamo autoingannarci. E invita a essere sì scettici, ma non faziosi. La faziosità non funziona, nemmeno per smontare le notizie false. Molto meglio argomentare la propria posizione, restare vicino ai fatti e provare a capire quel che accade nella mente delle persone.
D’altra parte, perfino credere nei fatti è un atto di fede – “if you are a
scientific believer you too are taking almost all of it on trust”, scrive
Michael Brooks su New Scientist. E non basta neppure cercare le evidenze,
perché spesso siamo di fronte a evidenze non abbastanza nette, o
contraddittorie. Insomma: bisogna essere cauti, ma cauti davvero.
Ma che cos’è un’evidenza? Il senso comune (per esempio, il detto moglie e
buoi dei paesi tuoi) non è un’evidenza, e può essere inquinato da semplificazioni
o pregiudizi. Un cliché (per esempio, le donne non sanno guidare) non è
un’evidenza. Una dichiarazione promozionale (per esempio, “col dentifricio
Brillodent sorridi al mondo intero”) non è un’evidenza. Affermazioni di questo
tipo possono essere facilmente smontate. Se ne può, cioè, dimostrare
scientificamente l’infondatezza e la falsità.
Quando le evidenze non sono nette le cose si complicano. Della Sala fa
l’esempio di uno specifico farmaco per curare l’Alzheimer, una malattia
straziante, che affligge le persone anziane e destabilizza le famiglie. Bene:
alcune ricerche sembrano sostenere che quel farmaco funziona. Altre ricerche
dicono l’opposto. Come procedere?
Se si fa una
meta-analisi delle ricerche (cioè, se si confrontano tutti i
dati emersi dai differenti studi) si vede che c’è discrepanza tra i risultati
degli studi finanziati dalle industrie farmaceutiche (assai più favorevoli) e
quelli degli studi indipendenti. Ciò significa che perfino quando esaminiamo
una ricerca scientifica dobbiamo considerare tutti i dati, compresa la
provenienza dei finanziamenti.
Un altro esempio: la Columbia university dà ampia risonanza a uno studio
secondo il quale “il cioccolato cura la demenza”. Lo studio viene ripreso da
diverse testate, alcune molto autorevoli. Peccato che lo studio goda
di finanziamenti senza limiti da parte di un’azienda produttrice di cioccolato.
Questo fatto, forse, dovrebbe farci venire qualche dubbio. E farci venir voglia
di cercare ricerche indipendenti sullo stesso tema (ammesso che ce ne siano)
per vedere che cosa dicono.
E ancora.
È importante tenere conto non solo di che cosa, ma di come pensano le
persone. La nostra mente è costantemente alla ricerca di senso, e tende a
vedere schemi, strutture, legami di causa-effetto anche in ciò che è del tutto
casuale. È il fenomeno della patternicity: la
ricerca di schemi (pattern) a ogni costo.
L’esempio di Dante Alighieri
Della Sala fa l’esempio della neuroscienziata inglese che sostiene l’esistenza di un legame tra uso di internet e autismo, in base al fatto che negli ultimi tempi è aumentato l’uso infantile di internet, e sono contamporaneamente aumentate le diagnosi di autismo.
Della Sala fa l’esempio della neuroscienziata inglese che sostiene l’esistenza di un legame tra uso di internet e autismo, in base al fatto che negli ultimi tempi è aumentato l’uso infantile di internet, e sono contamporaneamente aumentate le diagnosi di autismo.
È una falsa correlazione, diventata
virale nel Regno Unito. Una falsa correlazione consiste nel fraintendere in
termini di causa-effetto la semplice coincidenza casuale tra due fenomeni, uno
dei quali (ripetiamolo) non è causa dell’altro. D’altra parte, si può correlare
falsamente anche la crescita dell’autismo con la crescita del
consumo di cibo biologico.
Le false correlazioni sono tanto seducenti quanto insidiose. Se volete
immunizzarvi, date un’occhiata al magnifico sito spurious correlations.
Anche se viene dimostrata la totale falsità di un messaggio, cancellarlo
dalla mente è difficilissimo
Oggi le persone tendono a prestare fede a referenti fidati, invece che a
referenti esperti. E uno degli errori che fanno gli esperti è confidare nel
fatto che fornire più informazioni possa cambiare le cose. Purtroppo questo non
succede, nella misura in cui le persone vogliono (o hanno bisogno di) continuare a
credere in ciò in cui credono, riducendo il più velocemente
possibile il disagio provocato dalla dissonanza
cognitiva (cioè dal dover fare i conti con informazioni
contrastanti).
Oggi chiamiamo bias di
conferma il fenomeno per cui tendiamo a considerare solo i
fatti che corrispondono alle nostre opinioni pregresse. Ma già Dante lo
descrive perfettamente, nel Paradiso: “Più volte piega / l’opinion corrente in
falsa parte / e poi l’affetto l’intelletto lega” (cioè: spesso l’opinione
corrente si rivolge al falso, e l’attaccamento a quell’opinione imbriglia l’intelligenza).
C’è un ulteriore effetto con cui fare i conti: una volta che un messaggio è
stato diffuso e recepito, e anche se ne viene dimostrata la totale falsità,
cancellarlo del tutto dalla mente è difficilissimo. Questo è particolarmente
pericoloso oggi, in tempi di grande diffusione delle “riviste predatorie” (qui un articolo
su lavoce.infovi spiega bene di che si tratta).
In sostanza, si tratta di riviste online che si fingono scientifiche, hanno
nomi che appaiono scientifici, ma pubblicano a pagamento qualsiasi articolo
inviato da qualsiasi ricercatore o sedicente tale, senza alcuna revisione o
verifica. Il fatto è stato
dimostrato dal corrispondente di Science John Bohannon, che ha
spedito lo stesso paper pieno di errori marchiani a 304 riviste, ritrovandoselo
pubblicato nel 60 per cento dei casi.
Il fatto è stato nuovamente dimostrato di recente, quando un neurobiologo è
riuscito a farsi pubblicare un assurdo articolo
sui midicloriani, entità che vivrebbero nelle cellule degli Jedi
(sì, siamo in pieno Star Wars) e sarebbero responsabili dei loro poteri. E ci
sono anche due scienziati che sono riusciti a farsi pubblicare su una rivista
“scientifica” un articolo costituito da una singola frase, “Get me off your
fucking mailing list”, replicata cinquemila volte e corredata di schema
esplicativo. Qui l’articolo.
Dunque: è cruciale stare attenti alle fonti, perché non tutte le riviste
“scientifiche” lo sono davvero. Inoltre, prima di dare una notizia riguardante
la salute, sarebbe necessario aspettare che sia confermata da più ricerche.
Infine, i ricercatori dovrebbero usare cautela e limitare l’enfasi nel
divulgare i propri risultati, fino a quando non sono replicati e certificati.
C’è differenza nel dire che i vaccini funzionano (migliaia di ricerche lo
confermano) e dire che il cavolo rosso cura il cancro: se ad affermarlo è un
singolo studio condotto sui topi, essere scettici non è un’opzione. È un
obbligo.
Nessun commento:
Posta un commento