Quest’epoca
sta condannando il principio di causalità all’irrilevanza.
Questo
è il frutto del prevalere, in ogni campo, della statistica, fiorita rigogliosamente
da alcuni decenni grazie alla capacità dei computer di immagazzinare miliardi
di dati, di confrontarli, incrociarli e ottenerne statistiche mastodontiche. E
più grande è la mole dei dati di cui si dispone, più veridico sarà il risultato
del calcolo statistico.
Ma
perché questo fenomeno condanna all’irrilevanza il principio di causalità?
Se
al fenomeno A consegue il fenomeno B in una percentuale di casi giudicata
sufficiente (statisticamente significativa, si dice), questo basta a collegare
i due fenomeni, anche qualora non si riesca a stabilire logicamente un nesso di
causalità fra A e B.
Questa
impostazione mi pare si stia imponendo in una serie di campi, non ultima la
medicina, ove la evidence based medicine, che della statistica fa il suo strumento
d’indagine principale, non cerca nessi causali, ma rapporti di probabilità fra
fenomeni, senza porsi il problema della causalità, ovvero del come due eventi
siano logicamente collegati – secondo un nesso causalità appunto.
Porsi
il problema del perché, del come, in una parola del nesso causale che
legherebbe A a B (e di eventuali altri fattori che possono interferire,
rendendolo più o meno efficace) viene visto, bene che vada, come ricerca
puramente speculativa e dunque come perdita di tempo. Se un numero, una
probabilità contempla già la causalità biologica, ed in esso siano
implicitamente contemplati anche i possibili fattori favorenti o e quelli al
contrario interferenti perché perdere tempo a cercare meccanismi causali,
logicamente plausibili? C’è già il dato statistico che lega i due fenomeni
secondo una percentuale di probabilità indiscutibile, e tanto basta, almeno sul
piano operativo, a trarne le debite conseguenze.
Ovviamente
si possono affinare i calcoli statistici all’infinito: si sa, ad esempio che
dall’evento A segue il problema B nel 90 % dei casi; ma il nostro paziente
soffre di una ben determinata malattia e in questi casi dall’evento A segue B
solo nel 76 % dei casi: quella malattia interferisce dunque in qualche modo in
quella concatenazione di eventi che da A porta a B, rendendola più improbabile
(chissà perché? E chissà come avviene tale interferenza? Ma questo non
interessa!); inoltre quel paziente ha il gene Z, e in pazienti che presentino
quell’allele Z da A segue B addirittura nel 99% dei casi, perché quel gene, al
contrario, favorisce la catena di eventi che da A porta a B (di nuovo: il perché, il come e con quale
meccanismo ciò avvenga non interessa): facciamo ora quattro calcoli rigorosamente
statistici, teniamo conto del dato generale, della malattia di quel paziente e
del fatto che il paziente presenta l’allele Z e sapremo che in quel preciso
paziente da A seguirà B con una probabilità del 89%!
Ecco,
a cosa ci serve, a questo punto capire come e perché?
Tutto
questo può agevolmente essere trasporto anche in campi totalmente diversi da
quello medico: se nell’ambito del marketing si vede che statisticamente gli
acquisti di macchine sono più frequenti il mercoledì pomeriggio, questo basta
per indirizzare il mercato in modo da fare meglio affari, indipendentemente
dalla causa di questo fenomeno: inutile perdervi tempo a pensarci,
affrettiamoci a vendere più macchine il mercoledì pomeriggio.
Ovviamente
questa impostazione è possibile da quando disponiamo di elaboratori capaci di immagazzinare
miliardi di dati, di collegarli e farci quasi istantaneamente complicatissimi
calcoli statistici.
In
quest’ottica possiamo interpretare il principio di causalità come un brillante
strumento che permetteva di cortocircuitare questi complicati calcoli: un
cervello incapace di memorizzare, confrontare e elaborare milioni di dati non
poteva che stabilire, dopo qualche osservazione empirica, un nesso di causalità
fra due fenomeni che, se appariva logicamente plausibile, veniva dato per
acquisito e permetteva di interrompere l’osservazione e rivolgere la mente ad
altro.
Ovviamente
l’errore è, in questi casi dietro l’angolo, e nessi causali sbagliati ne sono
stati formulati tanti. Molto più sicuro, e dunque efficiente, stabilire un
nesso consequenziale (in senso puramente temporale) fra fenomeni osservati
miliardi di volte, stabilire una percentuale di probabilità che all’evento A
consegua l’evento B piuttosto che scoprire dubbi nessi causali.
Ovviamente
con questa visione verrebbe a cadere la distinzione fra certezza e probabilità:
ogni consequenzialità sarebbe corredata da un grado di probabilità (un oggetto lasciato
andare cade a terra: probabilità 99,99 periodico %; Tizio beve acqua e spegne
la sete, probabilità 99 %; Caio calcia la palla e fa gol, probabilità 15 %
ecc). Probabilità calcolate per ogni singolo individuo tramite il profilo
tracciato dal suo PC che ne riflette perfettamente azioni, successi, risultati,
qualità, difetti ecc.
Ma
saputo che il fenomeno A segue con estrema probabilità l’evento B, e
riorganizzatisi di conseguenza, cosa ci serve sapere se da A segua SEMPRE B,
ovvero se ci sia un effettivo nesso causale o meno? Certo, ci saranno casi in
cui da A non seguirà B (il calcolo è sulle probabilità, non sulle certezze), ma
questo non scuote le fondamenta di questa nuova impalcatura mentale: da sempre
alcuni sporadici insuccessi sono considerati effetti collaterali inevitabili di
qualsiasi teoria o sistema, ovvero un prezzo equo da pagare per il buon
funzionamento globale di un sistema efficiente. E soprattutto, a cosa servirà
sapere PERCHE’ ad A segua B?
Insomma,
oggi con i computer potenti, il principio di causalità è condannato
all’irrilevanza.
Mi
sembra fra l’altro che questa impostazione ricalchi perfettamente quella di
Hume, secondo il quale anche se due fenomeni si accompagnano costantemente
l’uno all’altro, non potremo mai sapere se sono legati effettivamente
reciprocamente da un nesso di causalità. Potremo solo dire: finora ho sempre
visto che da A segue B, ma non posso prevederlo con certezza anche per il
futuro.
Ecco
dunque una nuova declinazione della vittoria dell’empirismo inglese sul
razionalismo continentale.
Come
questo cambierà il cervello degli uomini ed i suoi meccanismi ragionativi è
ovviamente difficile da prevedere, anche se già emerge qualche allarmante
fenomeno: gli studenti di medicina accolgono di solito con indifferenza le
spiegazioni fisiopatologiche – ovvero quelle spiegazioni che permettono di
capire come da A, evento iniziale della malattia, si passi a B e poi a C fino a
giungere, secondo una catena di nessi causali, ai sintomi e segni della
malattia - mentre imparano con entusiasmo i risultati degli ultimi lavori
scientifici che documentano alcuni fenomeni esclusivamente si base statistica,
senza domandarsi minimamente il perché di quei fenomeni.
Certamente
perderemo la capacità speculativo-filosofica, e chissà quanto altro con essa. E
certamente il ragionamento in quanto tale perderà il suo fascino: basterà
praticamente sapere che A comporta quasi sempre B e ci si regolerà di
conseguenza. E con la categoria della causalità cadranno magari anche altre
categorie kantiane.
Il
mondo votato al mito efficientista non necessiterà più di considerazioni sul
perché.
Il
perché diventerà una domanda obsoleta, vana e forse considerata retrograda.