Come NON leggere una ricerca scientifica

Chi ci legge in genere commenta i fatti pseudoscientifici facendo riferimento alla non conoscenza degli argomenti scientifici.

“Ah, se solo studiassero o sapessero le cose…”

Questo in genere viene chiamato “deficit model”. In sostanza, si pone enfasi sul fatto che le persone non siano abbastanza informate/istruite, e se solo a esse venissero fornite informazioni in più, si risolverebbe il problema (generando però un altro problema nella divulgazione: un conto è spiegare ad accademici o studenti, un altro a non accademici, e bisogna cercare di scendere dalla cattedra per poter essere compresi, evitando di fare “lezioni” ampollose e imparando ad essere chiari).

Le cose però sono più complesse. Contrariamente a quel che si potrebbe pensare, molte delle controversie, dei proclami alternativi e delle affermazioni parascientifiche non nascono perché ci si inventano le cose ignorando la scienza e le scoperte empiriche. Anzi, spesso molte affermazioni vengono giustificate proprio, a detta delle teorie alternative, con la scienza stessa e trovano la loro diffusione a partire da alcuni contenuti dei canali scientifici. Esistono siti della cosiddetta controinformazione che riportano stuole di riferimenti bibliografici alle loro affermazioni.
Cosa vuol dire questo e come sarebbe possibile tutto ciò?

I motivi sono vari e hanno a che fare generalmente sia con la malafede, sia con l’ingenuità o il pressapochismo.

Riguardo la malafede, uno studio potrebbe rivelarsi truffaldino, oppure è l’ente che incensa il ciarlatano ad essere truffaldino. Difatti, diversi sostenitori delle teorie alternative legittimano i loro proclami facendo riferimento proprio a pubblicazioni che si rivelano in seguito esser state bugiarde – hanno mentito. L’ingenuità invece potrebbe portare a dare credito a qualcosa che non lo merita senza fare controprove, il pressapochismo invece può portare a errori banali o gravi nello studio.
Ma, obietterete voi, si tratta di singoli e isolati truffatori che falsificano i propri dati o pagano per ricevere la certifica dal misconosciuto ente pseudoscientifico, o di pochi incompetenti che faranno poca strada prima di essere bloccati e fare danni perché si nota subito l’eventuale stupidaggine. Una volta scoperti, il loro castello di carte crolla, gli studi vengono ritirati dalle riviste scientifiche e bisogna lasciare solo chi si è sottoposto ad una verifica trasparente. Vero?

Beh, sì e no.

Nel senso, non basta che i dati siano quelli veri, perché si può dire tutto e il contrario di tutto ANCHE presentando i dati nudi e crudi, a seconda di quanto uno sia superficiale o rigoroso nel trattarli. Infatti, gran parte degli studi scientifici che si possono trovare in letteratura non necessariamente sono attendibili, e questo fattore non viene sfruttato solo dai sostenitori delle verità alternative, ma anche da chi si professa un’autorità scientifica.
Innanzitutto una ricerca non è automaticamente scienza, bisogna prima saperla condurre e soprattutto analizzare; la teoria deve essere solida quando si confrontano i dati e questi ultimi non devono essere distorti per dire tutto ciò che l’autore vuole dire.

Un problema pernicioso con cui spesso si ha a ce fare è un’approssimazione analitica molto (troppo) diffusa, quella che possiamo chiamare correlazione forzata o correlation bias, simboleggiato dalla famosa frase “correlation is not causation”.

Per chiarire meglio prima cosa significhi, c’è questa simpatica immagine:

correlation

In parole povere, schiocchiamo le dita e non ci sono tigri nei dintorni, quindi schioccare le dita tiene lontane le tigri. Oppure, più banalmente, quando abbiamo giocato al lotto e abbiamo vinto indossavamo un braccialetto speciale, quindi il braccialetto porta fortuna.
Ma solo perché due cose avvengono in simultanea (“cum hoc ergo propter hoc”), o un avvenimento accade in seguito ad un altro, non vuol dire che un fatto sia causato dall’altro (“post hoc ergo propter hoc“). Per prendere un  paio di esempi veritieri, dopo che ho mangiato salato mi è venuta sete, quindi il sale fa venire sete. Dopo che Pierino ha regalato una rosa alla sua fidanzata Pieretta, lei è arrossita, quindi Pieretta si emoziona per le galanterie del suo fidanzato.

Ora, ogni buon investigatore sa che gli indizi sono uno spunto su cui indagare, una pista da provare a seguire nella speranza di acciuffare il colpevole, ma non delle prove. Una correlazione non è un’associazione, è condizione necessaria, ma non sufficiente per stabilire un nesso. Potrei, per esempio, dire che la diffusione dei mobili in legno e degli alcolici in Svezia oppure della musica nu metal e dell’obesità negli Stati Uniti sono aumentate, ma ciò non vorrebbe dire che l’Ikea e i Korn causino la vendita di alcolici nei traghetti svedesi o l’obesità negli americani.

Il vino, d’altro canto, negli anni ’60 venne santificato come il responsabile del cosiddetto “paradosso francese”: i francesi, cioè, nonostante mangiassero molti alimenti grassi come i formaggi e assumessero molto colesterolo, avevano una minore incidenza di malattie cardiovascolari. La spiegazione si trovò nella presenza di molecole come il resveratrolo nel vino (di cui i francesi erano assidui bevitori) con proprietà antiossidanti e protettive. Studi successivi hanno successivamente ridimensionato il ruolo protettivo di questa molecola e altri antiossidanti, in alcuni casi parlando addirittura di frode (forse esageratamente). Ma che qualcosa non tornasse al 100% era evidente già dal fatto che la dose necessaria di antiossidanti per avere tali supposti benefici era talmente alta che avrebbe richiesto una quantità di vino eccessiva che avrebbe potuto dare problemi per via dell’etanolo (in maniera analoga al caffè con gli effetti presuti tossici dell’aspartame citati nel precedente articolo), richiedendo di rivedere l’approccio a queste ricerche per meglio chiarire e meglio controllare quanto sia effettivamente benefico il vino.

Prima di stabilire cause ed effetti, quindi, bisognerebbe avere evidenze più forti a supporto e tenere conto di altri fattori. Dell’errore di correlazione ne ha già fatto una bella dissertazione Dario Bressanini su LeScienze, qui, quindi non ci dilungheremo troppo su di essa. Ci limiteremo a dire che molto, molto, molto spesso si abusa di correlazioni per convincere la gente di rapporti di causalità. E che la gran parte dei proclami che stabiliscono un nesso tra due cose, fanno riferimento a studi scientifici che in realtà parlano di semplici correlazioni, spesso statisticamente deboli (ma vengono pubblicati lo stesso, per questioni spinose come il publish or perish, i paywall e altre cose di cui parleremo in futuro).

Il problema però potrebbe essere a monte, come nel caso vi sia un errore nella selezione del campione di persone da analizzare.

Si tratta in poche parole della rappresentatività.

Un esempio banale di ciò potrebbe essere un qualsiasi sondaggio di opinione politica. Dato che è un poco complicato intervistare tutti gli italiani sulle loro preferenze elettorali, questi sondaggi vengono svolti in genere su campioni ristretti di persone. Per esempio, qualche migliaio di intervistati. Spesso nei dibattiti televisivi si assiste a lamentele perché le aspettative alla vigilia di una importante votazione, basate sugli esiti dei sondaggi, vengono disattese; e qualcuno più polemico insinua che i sondaggi siano falsi, allo scopo di influenzare l’opinione pubblica facendogli credere che un particolare candidato riscuota molto consenso.

Complottismi a parte, è evidente che un sondaggio d’opinione è limitato al ristretto campione di intervistati, il quale può oltretutto essere influenzato da vari fattori (luogo di intervista, censo, regione ecc.) in misura maggiore quanto più il campione è ristretto. Non c’è nulla che vieti che in quel migliaio di interviste siano casualmente capitati più elettori di un partito che di un altro, è un problema insito al momento di stabilire campione quello di rappresentare l’intero universo della popolazione. Per questo è importante valutare la dimensione del campione e la sua rappresentatività. Non bisogna prendere ogni risultato ottenuto per oro colato, esistono possibili fonte di errore che minano l’affidabilità della statistica se non ci si attiene ad una rigorosa campionatura randomica e ogni indagine andrebbe presa con un grano di sale.

Facciamo un esempio più relativo al mondo delle scienze naturali: la famigerata frase “test clinici hanno mostrato che”, magari accompagnata da un asterisco che rimanda ad una nota in piccolissimo, che troviamo associata a diecimila prodotti dermatologici, integratori alimentari e simili.
Spesso però si scopre che i famigerati test clinici sono stati condotti su poche dozzine di persone, ma chiaramente questo non è sufficiente per determinare la bontà o meno del prodotto! Spesso si tratta infatti di formulazioni blande e dai risultati discutibili, ma la pubblicità può risultare ingannevole cingendosi dell’aura sacrale della scientificità. Il discorso non cambia in caso si facesse riferimento a studi percentuali, poiché a noi dice poco sapere che il tal prodotto ha lasciato soddisfatto l’80% dei partecipanti ad un campione se si trattava di 10 soli individui.
Allo stesso modo, molti studi sulla presunta efficacia dell’omeopatia si rivelano condotti su davvero poche persone, un campione troppo piccolo per escludere che i casi positivi individuati siano dovuti ad un effetto placebo rispetto al gruppo di controllo. Ma in generale ogni tipo di ricerca va analizzata con attenzione per tener conto della significatività dello studio. Ciò che vale per alcune persone non è detto che valga per tutti.

Va anche notato che in questi casi pubblicitari il prodotto viene accompagnato da frasi come “potrebbe aiutarti nel”, oppure associato al mantenimento di un corretto stile di vita, un’alimentazione sana ed un’attività all’aria fisica. Questo è un altro punto importante, perché (salvo casi particolari come la salute cagionevole o altro) è chiaro che una persona che conduce un determinato stile di vita avrà un livello di benessere e di salute consono. E’ questo che permette di ottenere determinati benefici, non la crema o la pillolina!
Il discorso vale naturalmente anche per molti seguaci delle terapie alternative, che somministrano il loro rimedio a persone in salute (o che stanno guarendo grazie a terapie convenzionali) e attribuiscono l’effetto benefico al loro preparato.
Se abbiamo 100 individui che assumono il farmaco omeopatico contraendo meno raffreddori e 100 che non lo assumono e si ammalano più spesso, si potrebbe dedurre che il merito è del rimedio omeopatico. Ma i 100 osservati sani potrebbero essere di costituzione più robusta degli altri, o condurre una vita attiva all’aria aperta assumendo molta frutta, cosa che lo studio non ci dice.

Chi fa parte di un campione d’indagine statistica può influenzare l’interpretazione dei risultati. Un campione potrebbe non risultare rappresentativo per il semplice motivo che i soggetti studiati non sono adeguati, oppure si sono mal interpretati i risultati.
Durante gli anni ’90 gli studi mostravano che le terapie ormonali HRT non solo ritardavano gli effetti della menopausa, ma mostravano un certo grado di protezione da osteoporosi e malattie cardiovascolari. Si è però scoperto successivamente che in realtà avevano un effetto peggiorativo: i risultati degli studi erano falsati dal fatto che facevano parte dei campioni donne che cercavano a ogni costo di mantenersi in forma e sembrare più giovani e belle.

La rappresentatività del campione di riferimento può essere resa confusa dalla questione della correlazione-causa.
Se analizzassimo l’incidenza di malattie cardiovascolari o tumori gastrointestinali fra la popolazione americana, quella francese e quella cinese, non potremmo sapere immediatamente se eventuali differenze sono dovute a caratteristiche genetiche di resistenza o maggiore suscettibilità, oppure allo stile di vita o all’impatto ambientale. Vedremo solo gli effetti, ma li attribuiremo ad altre cose che stiamo misurando: se ci interessa l’alimentazione, indicheremo gli idrocarburi aromatici policiclici nella bistecca alla griglia, il resveratrolo nel vino, i fitoestrogeni nella soia, gli antiossidanti nel tè nero, l’alimentazione rurale piuttosto che processata e così via.

Ci sono tanti altri esempi.

Per ovviare a questi problemi si svolgono i cosiddetti studi clinici controllati randomizzati, che però sono più costosi e difficili da condurre, e si deve ripiegare su più semplici studi prospettici. In ogni caso è sempre possibile che il ricercatore poco scrupoloso o il giornalista poco diligente possano mal cavare i dati dal buco. In questi casi, analizzando un gruppo di riferimento, si potrebbe in pratica scegliere solo quei termini o quei casi che fanno comodo alla propria tesi, una pratica che in gergo viene detta “cherry picking”, cioè cogliere le ciliegie, come quando dai nostri alberi di ciliegio cogliamo solo i frutti buoni e non quelli marci, dando con le nostre ceste l’impressione che tutto era buono.

Questa pratica viene spesso fatta in maniera involontaria, nel qual caso si parla di bias di conferma: se io credo già in una tesi preconcetta, automaticamente selezionerò tutti quegli studi o argomenti che la supportano, glissando superficialmente sul resto. In alcuni casi però viene fatto di proposito, per far vincere una tesi, per chissà quale fine. Ciò viene fatto tanto dai sostenitori delle pseudoscienze, quanto da molti personaggi dubbi parte della “scienza ufficiale” che però hanno interessi in ballo che vogliono difendere.

Molta della sfiducia verso il mondo farmaceutico, per esempio, è dovuta a comportamenti scorretti tenuti dalle aziende del settore in passato. Gran parte di questi comportamenti sono stati l’inondazione della letteratura scientifica di studi deboli, poco convincenti se non proprio fallaci o addirittura manipolati, per far apparire un nuovo farmaco sviluppato come efficace (quando in realtà non era migliore dei predecessori più economici, o non aveva più effetto di un placebo), per venderlo a peso d’oro. Oppure, per nascondere effetti collaterali, magari per non pagare richieste di risarcimento dopo qualche danno, dicendo “non potevamo saperlo, gli studi che le autorità sanitarie e le agenzie di sicurezza hanno consultato prima di darci l’autorizzazione alla vendita non mostravano rischi”. Citeremo alla fine un po’ di letteratura in merito.

Naturalmente questo non significa che tutti gli studi delle aziende farmaceutiche siano fallaci o in malafede. Né significa che allora le proposte “alternative” siano migliori o più sicure e affidabili. Carl Sagan disse che solo perché un aeroplano cade, non vuol dire che bisogna credere ai tappeti volanti. D’altronde, gli studi che dicono che l’omeopatia funziona sono promossi dalle aziende omeopatiche, ingigantiscono piccoli bruscolini facendoli sembrare grandi cose e citano fischi per fiaschi in maniera perfettamente analoga.

Facciamo alcuni esempi di frasi banali che sicuramente avreste sentito dire qualche volta:

“Questo farmaco ha abbassato il rischio di contrarre la malattia del…”

“La molecola contenuta in questo alimento riduce il rischio di insorgenza della patologia di…”

“Questa sostanza garantisce un aumento delle prestazioni del…”

“L’analisi epidemiologica conferma che l’incidenza dell’evento in tale campione è di…”

Quante volte abbiamo letto notizie del genere, soprattutto legate alla sfera della salute? Riviste di nutrizione, giornali di fitness, promotori del farmaco, importanti test clinici e analisi chimiche laboratoriali snocciolano dati percentuali che sembrano mostrare risultati enormi.

Questi riferimenti detti così però sono incompleti. Non sono menzogneri, anzi magari dicono proprio la verità: magari tal integratore ha veramente aumentato le prestazioni del 50%, il farmaco ha realmente ridotto il rischio di metastasi del 30% ed in presenza dell’impianto wifi c’è veramente un aumento dei casi di tumore del 40%.
Siamo sicuri che il campione in esame è vasto e rappresentativo, e abbiamo passato la revisione tra pari più ostica.

Ma allora dove vogliiamo arrivare a parare? Il punto è che presentare le precentuali così dice solo una parte della verità: si omette di specificare che si tratta di percentuali relative. Un trucco, purtroppo, diffuso proprio nei settori “ufficiali”, e non solo fra i sostenitori delle verità alternative, in cui si gioca col rischio relativo. I matematici statistici, o chi deve in continuazione fare i conti con questi proclami, riconoscono spesso questi casi.

L’ambito della nutrizione e della vendita di farmaci in particolare sono parecchio a rischio di distorsioni simili e bisogna farci attenzione. Nessuno comprerebbe a prezzo pieno di brevetto nuovo un medicinale che rispetto alla precedente formula ora libera dai diritti migliora la speranza di guarire di un punto percentuale. E numerose aziende alimentari non potrebbero reclamizzare tanto i loro prodotti senza poter vantare le proprietà benefiche di una molecola contenuta nel cibo (o quelle dannose della concorrenza). Le conseguenze di una eventuale distorsione comunicativa possono essere economicamente rilevanti quando applichiamo il discorso ad un ipotetico farmaco che diminuisca la probabilità di morire dal 2 % all’1 % (in fondo sarebbe ben il 50, uao! senza citare però gli effetti collaterali), che i test clinici sul prodotto (un dentifricio, una crema per le rughe, qualcosa per perdere peso) hanno confermato un’efficacia maggiore del 20 % (magari il dimagrante ha fatto perdere 120 g invece di 100 ad un uomo di 90 kg, ed il prezzo è maggiorato ma che volete: è determinato scientificamente in laboratorio!) o che mangiando un determinato cibo della propria ideologia alimentare il rischio di contrarre un tumore passa dal 4 % al 3 %. Sperando di non incappare mai in casi simili, può essere utile fare attenzione ai proclami e buttarci uno sguardo critico. Bisogna vendere, dopotutto. E per vendere, bisogna mostrare risultati.

Che cosa vuol dire che si tratta di “percentuali relative”?

Facciamo direttamente un esempio pratico: il caso delle stazioni generatrici di onde elettromagnetiche.

Se in una regione di spazio si propagano onde elettriche e magnetiche, si dice che in essa sono presenti campi elettromagnetici.
Queste onde si propagano e sono generate sia da sorgenti naturali che da apparecchi di uso comune. Di conseguenza, ne siamo costantemente esposti. Le onde elettromagnetiche penetrano nel corpo umano e il loro principale effetto consiste nel riscaldamento dei tessuti, ma i livelli a cui siamo normalmente esposti sono talmente bassi che questo fenomeno è pressoché intangibile. Tuttavia, spesso è stata espressa la preoccupazione che possano causare gravi malattie come la leucemia, in alcuni casi in maniera autorevole, in altri generando bufale (come nel caso del wifi assassino o del caso Muos).

Studi di correlazione tra esposizione a campi elettromagnetici e aumento del rischio di cancro sono ancora in corso, soprattutto per valutare eventuali effetti a lungo termine. Gli organi sanitari internazionali, come lo IARC e l’Organizzazione Mondiale della Sanità, raccomandano un continuo controllo e monitoraggio del fenomeno. I campi elettromagnetici sono stati così classificati come possibili cancerogeni, ma le numerose ricerche epidemiologiche e di laboratorio non hanno fornito prove di una relazione diretta di causa-effetto tra campi elettromagnetici e insorgenza del cancro. (approfondimento: AIRC) Tuttavia molti articoli hanno insistito sul fatto che gli studi confermerebbero con assoluta certezza il nesso di causalità, purtroppo a volte commettendo errori grossolani.

Immaginiamo prima un esperimento mentale. Poniamo di avere, in media 2 casi di leucemia ogni 10000 persone nel campione all’anno. Ciò corrisponderebbe ad una percentuale dello 0.02 % della popolazione presa in esame. Mettiamo però che, all’improvviso, dopo aver installato un elettrodotto insorga un caso in più in zona, quindi 3 casi di leucemia ogni tot. Che non è molto, e corrispondono pur sempre ad uno 0.03 % del totale, cioè potrebbe benissimo essere capitato per caso. La nostra indagine epidemiologica osservazionale ci direbbe che, nei pressi dell’emettitore, la quantità di casi è aumentata del 50 %, perché effettivamente il numero di nostri casi è aumentato della metà (da 2 a 3). La percentuale del 50 % è relativa, mentre quella assoluta rimane 0.03 %.

Ed ecco un inghippo, perché potrei sfruttare questa ambiguità per montare un articolo scandalistico sfruttando solo la percentuale relativa. Dire “i casi di leucemia sono aumentati del 50 % dopo l’installazione dell’elettrodotto!!!” non è falso, anzi nel nostro esperimento mentale è pure giustissimo in un certo senso. Solo che detta così sembra una cosa spropositata, l’opinione pubblica non conosce il discorso delle percentuali e omettendo lo 0.03 % assoluto distorciamo la percezione del dato.

Facciamo un esempio più preciso: abbiamo condotto un’indagine nazionale, sappiamo che mediamente possiamo incontrare 0.16 casi di leucemia in un territorio entro 2 km di raggio da un emettitore nel quale ci aspettiamo, statisticamente, di incontrare sempre un numero di casi in linea con la media fino ad allora. Tuttavia, in questa zona è insorto un singolo caso di leucemia, uno solo. Anche questo potrebbe essere benissimo una casualità, ma prendendo in esame questo singolo territorio potremmo dire che i casi di leucemia sono aumentati di 6 volte!

leucemia
Immagine tratta da: http://www.ge.infn.it/~squarcia/DIDATTICA/MSB/2_Decisione_clinica.pdf

 

Ecco come utilizzando la dialettica, sfruttando l’emotività delle affermazioni e facendo esercizio di retorica posso fare affermazioni che però spiegandole appaiono assurde. Questo non è nemmeno un esperimento mentale, è stato un vero e proprio claim, che ha fatto inorridire gli statistici – sfortunatamente, le obiezioni matematiche hanno suscitato l’indignazione di chi cercava un capro espiatorio.

Analizzando razionalmente i fatti diventa difficile in questi casi sostenere scientificamente una correlazione di causa-effetto o un suo essere significativa, altrimenti, potremmo attribuire i più disparati effetti benefici o malefici a qualsiasi cosa (cosa che in effetti viene fatta in molti titoloni).

Facciamo ora un altro esempio più clamoroso, per introdurre un altro argomento: l’autorevolezza della fonte. Oppure, oste, il vino è buono? Cui prodest?

In ambito biomedico, in genere viene spesso citato il noto PubMed. Si tratta di una banca dati di pubblicazioni scientifiche del settore e in genere è il primo riferimento per chi ha bisogno di ricerche da studiare o usare come fonte. Chi scrive ha visto spesso molte persone (spesso giovani studenti o neolaureati che hanno appena scoperto l’esistenza dello scontro scienza vs pseudoscienza, oppure seguaci di debunkers) argomentare nelle discussioni che se qualcosa non è su PubMed allora non è vero. Si puntualizza così che gli scienziati seri, o chi per loro, usano come fonte PubMed, non un blog scandalistico o un post su Facebook.

Ora citeremo una cosa insolita, riguardo un noto complottista. Proprio su Pub Med trovate per esempio gli studi del figlio di Di Bella che dimostrerebbero l’efficacia del metodo anticancro omonimo alternativo alle terapie oncologiche. L’ultimo per esempio è questo, risalente all’appena trascorso inverno. Visto che è indicizzato su PubMed come paper su rivista scientifica, allora dovrebbe avere credibilità, ma analizzando più a fondo troviamo alcun cose che lasciano perplessi.

Lo studio pieno zeppo di errori anche solo formali. Per esempio, non spiega come sono stati fatti gli esami o quali parametri sono stati usati. Non ci sono analisi statistiche (per esempio sulla significatività), non si capisce che fine facciano i pazienti esclusi, vengono comunque usati dei chemioterapici ed è presente una terapia ormonale. Bisognerebbe andare sulla fiducia. È materiale molto debole, per essere gentili e non dire che sono semplicemente numeri a caso messi assieme da qualcuno incompetente o in malafede. La risposta tipica in molti casi come questo, quando vengono citati nelle discussioni, a questo punto è in genere “hai il paraocchi, chi ti paga, io sono un genio incompreso come Galileo mentre tu sei un venduto servo di big pharma”…

Oltretutto lo “studio” viene pubblicato su di una rivista di basso profilo (non viene presa come riferimento da nessuno, ha cioè un valore bassissimo del cosiddetto impact factor), lo stesso Di Bella è parte del consiglio d’amministrazione della rivista stessa, cioè in pratica la legittimità del suo studio viene basata su lui stesso. Sarebbe come se io dicessi che la scienza approva una mia teoria secondo cui l’influsso magico di Giove favorisce le partite della Juventus, citando come prova la mia stessa rivista su cui ho pubblicato lo studio. Cioè, ciò che dico è vero, la prova è che lo dico io. Ovviamente tutto ciò non ha senso. Il conflitto d’interessi tra chi propone lo studio e chi lo pubblica o finanzia deve essere sempre un campanello d’allarme per chiunque legga, sia che si tratti di “big pharma” quando vuole piazzare un nuovo farmaco influenzale, sia quando si tratta di chi si autoelegge a paladino dei deboli contro le malvagie e corrotte case farmaceutiche. Cambiando settore, l’azienda petrolifera Exxon, pur sapendo dei dati sul riscaldamento globale, finanziò ricercatori per dire il contrario e manipolare così il consenso scientifico a riguardo.

Tornando a Di Bella, in questo caso non abbiamo (almeno per quanto ne sappiamo) mistificazioni, bensì uno studio debole e fallace, che però è comunque finito in letteratura pronto per essere citato da stuole di complottisti o da giornalisti fuorvianti che potrebbero dare l’idea che un’opinione isolata abbia la stessa rilevanza e diffusione di quelle che definiscono “ufficiali”.

Ciò ci rivela anche un’altra cosa: PubMed è solamente un database e non una Bibbia – nonostante ogni tanto qualcuno lo prenda come fonte della Verità. E non è neanche IL database per eccellenza che non ha alternative (basti pensare a Google Scholar).

Allo stesso modo, i sostenitori di una terapia alternativa potrebbero fare riferimento a studi condotti su riviste screditate o sconosciute, diffuse al di fuori della comunità scientifica internazionale, da parte di ricercatori altrettanto screditati o sconosciuti; oppure essere autoreferenziali citando le proprie stesse fonti.  Non è infrequente che blog di controinformazione, siti alternativi e giornalisti approssimativi d’inchiesta facciano riferimento a studi che divengono dubbi e inattendibili una volta osservati più in precisione. La qualità, le credenzialità e l’affidabilità sia della rivista che dell’università e del ricercatore NON vengono esplicitate quando un qualsiasi articolo scandalistico inizia a citare i luminari più disparati. Allo stesso tempo, NON è detto che lo studioso citato abbia detto effettivamente quello e non sia stato distorto. Ne è un esempio la questione di Otto Warburg, le cui scoperte sono state distorte in recenti articoli di controinformazione, nonché abbinate alle parole di studiosi che non erano studiosi o avevano detto corbellerie.

Ciò che è necessario a questo punto è saper giudicare questi dati, affinché non passi di tutto ma si abbia uno standard qualitativo sulle ricerche. In teoria, il meccanismo della revisione tra pari (“peer review”) dovrebbe agire come giudice invisibile, che verifica gli errori provvedendo che la scienza si corregga da sé; e quando una pubblicazione si rivela fallace, fa presto ad essere smentita da altre pubblicazioni e a divenire screditata all’interno del mondo scientifico. In realtà la peer review è solo un punto di inizio e non uno di arrivo. Una volta ottenuta la tanto agognata pubblicazione, non si ha decretato la Verità, si ha semplicemente passato un primo vaglio editoriale: a quel punto sarà la comunità scientifica a iniziare a giudicare il lavoro, tentando di replicare gli esperimenti o meglio di confutarli per valutarne la bontà. E di fronte a un solo studio che dice A, possono ben essercene altri 10 che dicono B o persino non-A. Solo quando un buon numero di pubblicazioni di qualità inizia a orientarsi verso una conclusione, si può iniziare a pensare di avere imboccato la strada giusta.

Ma in molti altri casi bisogna tenere gli occhi bene aperti.

Approfondimenti (consigliati):

PTI – abc di uno studio, parte 1 (la scelta delle fonti)
PTI – abc di uno studio, parte 2 (come è fatto uno studio scientifico?)
PTI – abc di uno studio, parte 3 (come si legge uno studio?)

MedBunker – la saga del dottor Wakefield
MedBunker – l’incredibile fatto del dottor Benveniste.
MedBunker – il caso emblematico del dr. Massimo Della Serietà

Paolo Attivissimo – Bad Pharma, il libro che documenta il grande inganno delle case farmaceutiche

Query – Ben Goldacre e Bad Pharma

Vedere anche il nostro articolo Cancro, acidosi e dieta alcalina

Alessandro Tavecchio – I giornali open access, la pper review e altre cose poco divertenti ((qui)

 

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: