Tutto causa il cancro (il bias dei cappelli bianchi)

Nota: pubblicato originariamente su Prosopopea.

Avete mai notato come le sezioni salute della maggior parte dei giornali (e blog) siano ormai intente nell’impresa titanica  di dividere ogni singolo alimento e ingrediente in cosa fa venire il cancro e cosa no?

E, non fraintendetemi, capisco il principio che c’è dietro. Il cancro è probabilmente una delle cose più terrificanti per la maggior parte delle persone, e sei vuoi leggere, o beccarti il click, o sei genuinamente interessato a morire il più tardi possibile e vivere nel mentre restando il più in salute possibile, ecco che la nutrizione diventa sproporzionatamente importante.

Così, su nelle torri eburnee è stata inventata l’epidemiologia nutrizionale, una disciplina legittima che si trasforma in circa un migliaio di pubblicazioni scientifiche l’anno, che, apparentemente, si trasformano in un migliaio di articoli pop che senza la benché minima nuance si trasformano in articoli tipo “Il cibo x fa venire il cancro” e “l’ingrediente y protegge dalle malattie cardiache”, etc. E di conseguenza non c’è da meravigliarsi se i consumatori sono confusi sotto questo bombardamento di informazioni, e vanno o in panico per ogni nuovo “rivoluzionario studio” o ad un certo punto diventano scettici e cominciano a sbattersi le palle.

A questo si può aggiungere che in Italia non serve quasi nessuna qualifica specifica per farsi chiamare Nutrizionista; secondo l’Ordine dei Biologi, basta essere iscritti all’albo per poter potersi definire tale; il che significa che sebbene io mi occupi di evoluzione e genetica di popolazione domani potrei mettere “Dott.  Biologo Nutrizionista” forte dei 3 crediti scarsi di alimentazione umana nella mia carriera accademica, e nessuno potrebbe legalmente dirmi niente. Il fatto di ottenere prima una specifica qualifica in ambito di alimentazione è semplicemente un consiglio o una raccomandazione dell’ordine. Questo non significa che i biologi nutrizionisti (o i dietologi, a cui si applicano più o meno le stesse regole, con l’aggravante che il termine non è legalmente protetto) siano necessariamente profittatori incompetenti e senza scrupoli, ma, ad esempio l’Associazione Nazionale Dietisti ha recentemente pubblicato un report, in cui esprime preoccupazione  per  ” […] l’eterogeneità e la numerosità degli accessi (ai master in nutrizione, ndr), aperti contemporaneamente a molteplici tipologie di laureati con provenienze formative e ambiti professionali molto diversi tra loro, e molti dei quali senza alcuna competenza di base in ambito nutrizionale e sanitario “. E per quanto improvvisarsi senza il benché minimo di qualifiche sia più o meno il tema conduttore del mio blog scientifico personale [Prosopopea – Scienza con saccenza, ndr], farlo per profitto sparlando di nutrizione penso sia come minimo poco etico; e anche quando viene fatto in buona o buonissima fede e non per mero guadagno, rischia di perpetuare  perniciosi miti da una supposta posizione di autorità.

(N.B: Non sono assolutamente sicuro che sia ancora così da quando esistono le lauree specialistiche in biologia della nutrizione, ma lo era appena 4-5 anni fa e quelle lauree già esistevano, quindi se dovessi sbagliarmi non c’è bisogno di divorarmi nei commenti: al massimo quello che sto dicendo è out-of-date. se così fosse, fatemi sapere)

E ovviamente, questa cacofonia di consigli e questa iper-medicalizzazione della dieta crea una nuova enorme nicchia per ciarlatani e pseudoscienziati di ogni tipo per approfittarsi di chi vorrebbe solo stare meglio (o essere più magro).

Breve parentesi metodologica su come funzionano gli studi epidemiologici sulla nutrizione: se già sapete come funziona, e siete familiari con termini come studi longitudinali o meta analisi, skippate con gusto la prossima parte.

Un gattino puccioso segna l’inizio e la fine della parte skippabile dai lettori “avanzati”. Photocredits: ” <3KawaiiCloud<3 ” via Flickr

Un gattino puccioso segna l’inizio e la fine della parte skippabile dai lettori “avanzati”.

Il problema della causa e dell’effetto dovrebbe essere noto a tutti. È difficile distinguere causalità, correlazione e sequenzialita, quasi sempre, e particolarmente nell’epidemiologia. Abbiamo tutta una serie di fallacie logiche che si basano sul fatto che intuitivamente siamo scarsi a capire causa -effetto. Esempio: cum hoc ergo propter hoc, che sarebbe “quando avevo le mutande blu ho sempre vinto la partita, ergo le mutande blu portano fortuna”. Post hoc ergo propter hoc: ogni volta che mangio fagioli poi scorreggio, quindi i fagioli fanno scorreggiare. Correlazione e causazione: quando a Roma ci sono più turisti si mangia anche più gelato, quindi i turisti fanno venir voglia di gelato.

Non è un problema semplice da risolvere, quello della correlazione e della causazione, e un sacco di superstizioni si basano sul fatto che l’intuito fa schifo per queste cose. E l’epidemiologia, come disciplina, è particolarmente ingarbugliata proprio per queste difficoltà che abbiamo nel distinguere correlazione e causazione.

Diciamo che c’è una correlazione tra cancro e mangiare uno specifico alimento (facciamo, per comodità, le mele, che dovrebbero scacciare i medici; sia chiaro che è un esempio del tutto ipotetico.). Come facciamo a dimostrare che c’è causa ed effetto?

Con l’osservazione e basta non si può sapere. Se la gente a cui viene il cancro è, per caso, lo stesso tipo di gente che mangia mele, l’osservatore non può facilmente distinguerlo. Ma è importante, perché se non c’è causa ed effetto non mangiar mele non ridurrà il tuo rischio di cancro. La premessa sulla gente e sul caso vi sembra irrealistico? Beh, nel primo mondo la gente mangia più mele e muore più di cancro. Nel terzo mondo, si mangiano meno mele e si muore meno di cancro. Se avessi solo questa osservazione potrei sentirmi giustificato nel dare la colpa alle mele, ma nel mondo reale sappiamo che è una cosa insensata: mille altre cose influiscono sull’incidenza del cancro ben più delle mele, non in ultimo il fattore specifico “Non morire prima di altre malattie prevenibili”.

Quando fai uno studio di epidemiologia nutrizionale puoi far 3 cose: studio osservazionale, uno prospettico o un RCT.

Nello studio osservazionale prendi due gruppi con due diete diverse per ragioni loro e retroattivamente cerchi di capire che cambia. Ad esempio confronti le cartelle cliniche e le diete di 300 americani e 300 cinesi e guardi le differenze tra i due gruppi. Vedi che i cinesi hanno meno cancro e mangiano meno mele e concludi che la colpa è delle mele. Ma è una inferenza debole, una prova scrausa, che funziona solo quando l’effetto è molto grande. Con uno studio del genere vedi che le sigarette causano il cancro, ma se le mele aumentano il rischio non lo puoi dire con convinzione, perché hai poca sensibilità.

Quanta poco attendibili sono gli studi osservazionali? C’è un famoso articolo di epidemiologia che viene tipicamente riassunto sarcasticamente con “Ogni affermazione che viene da uno studio osservazionale è probabilmente falsa “. Lo studio in questione prendeva in considerazione 52 affermazioni derivate da studi osservazionali, e cercava di verificare quante di queste fossero poi ripetibili in studi più precisi e rigorosi, come gli RCT (spiego dopo). Nessuna, ovvero 0/52, aveva avuto riscontro in studi successivi che utilizzassero metodologie più rigorose.

Puoi fare uno studio prospettico allora. Segui un singolo gruppo per un lungo periodo annotando che fa o non fa, e poi registri le malattie e le morti che saltano fuori. Questo è ben meglio di uno studio osservazionale perché puoi seguire le stesse persone nel tempo invece che trarre conclusioni da una fotografia su gruppi diversi: ma ancora ha il problema che non è randomizzato. La gente sceglie cosa fare e mangiare,e quindi i gruppi sono ancora sbilanciati. Se i cinesi hanno una resistenza genetica al cancro che gli americani non hanno, con uno studio prospettico non te ne accorgi: magari vedrai l’effetto ma lo attribuirai ad altre cose che stai misurando, tipo il consumo di té verde.

La maggior parte degli studi in ambito di epidemiologia nutrizionale sono osservazionali o prospettici, perché difficilmente riesci ad avere gruppi di persone abbastanza grandi che siano disposte a cambiare la loro dieta, se non per qualche minimo dettaglio, da un gruppo di persone in camice bianco. Ma sia chiaro: un numero maggiore di individui inclusi non è garanzia di maggiore attendibilità, anzi: dataset grossi rischiano di dare falsa precisione a variazioni statistiche casuali, e questo è particolarmente vero negli studi osservazionali ma anche negli studi prospettici.

Questa maledizione è difficile da evitare, ed è una cosa che non colpisce solo l’epidemiologia, ma tutti i campi che lavorano con grossi set di dati. Ad esempio, la ricerca di biomarker, indizi o segnali che aiutino la diagnosi precoce o similia: molto spesso, quando si usa proteomica, transcrittomica o metabolomica per andare a caccia di segnali da associare con una malattia, si trovano falsi positivi; la chiave nel distinguere un biomarker reale da uno fasullo sta nella plausibilità scientifica e biologica, cioè quanto è in accordo con quello che sappiamo già sul funzionamento della malattia o della molecola che è un potenziale biomarker. E nonostante ciò, la letteratura scientifica è piena di falsi positivi, per semplici accidenti statistici dovuti al lavorare con montagne di dati.

Ma nell’epidemiologia questo problema si può aggirare usando gli RCT.

Un RCT, randomized control trial, divide in due gruppi a caso le tue 600 persone, e gli dà una dieta tra le due che vuoi confrontare a caso. In questo modo in media tutti gli altri fattori confondenti saranno bilanciati tra i due gruppi. I cinesi hanno una resistenza al cancro (a tua insaputa) ? Nei casi precedentemente citati questo inficierebbe lo studio, ma con un RCT non c’è pericolo, perché avrai in media lo stesso numero di cinesi nei due gruppi, il che ti permette di vedere chiaramente l’effetto della singola differenza che vuoi misurare. Con un RCT fatto bene puoi parlare di causa ed effetto anche di un evento che capita una volta su un milione. Ovviamente, il campionamento diventa di primaria importanza. Purtroppo, più che altro per ragioni pratiche incluse quelle accennate prima, nell’epidemiologia nutrizionistica gli RCT sono i tipi di studi più rari.

Che fare dunque in assenza di studi randomizzati? Una buona cosa, anche se non infallibile, è fare meta analisi, cioè mettere insieme più studi in una stessa analisi statistica, per avere più sensibilità. È come se avessi un campione più grande e più variegato in questo modo, il che mi permette di ridurre certi tipi di distorsione (d’altro canto, ne amplifica sistematicamente altri). Questo attenta combinazione di altre analisi dataset permette di stabilire con maggiore precisione specificamente le dimensioni dell’effetto: quanto effettivamente la mela è correlata ad un rischio aumentato o diminuito di cancro. Il risultato delle meta analisi, idealmente abbinato ad altri studi sul meccanismo di causa effetto, dovrebbe rendere implausibile che i collegamenti osservati negli studi epidemiologici siano coincidenze.

Ecco, hai skippato tutto e hai fatto arrabbiare il gattino. Contento? Da qui continua a leggere, se ti garba la cosa. Photocredits: Daniellekellog via Flickr

Quindi, tutto quello che si può mangiare causa il cancro.
Pensate che stia esagerando? Per fortuna, oltre agli aneddoti, c’è uno stupendo paper di Ioannidis, che è più o meno la dimostrazione statistica di quello che sto dicendo.

Ioannidis e i suoi colleghi hanno scelto 50 ingredienti comuni a caso da libri di cucina, e sono andati a vedere che dice l’epidemiologia nutrizionale a proposito della loro associazione con il cancro. I risultati?

Forty ingredients (80%) had articles reporting on their cancer risk. Of 264 single-study assessments, 191 (72%) concluded that the tested food was associated with an increased (n = 103) or a decreased (n = 88) risk; 75% of the risk estimates had weak (0.05 > P ≥ 0.001) or no statistical (P > 0.05) significance. Statistically significant results were more likely than nonsignificant findings to be published in the study abstract than in only the full text (P < 0.0001)

Per l’80% degli ingredienti considerati (40/50) esistevano studi che prendevano in esame la loro associazione con il rischio di cancro; il 72% degli studi concludeva che esisteva un effetto positivo o negativo sul rischio di cancro, e il 75% degli studi che diceva di aver trovato un’associazione aveva risultati a malapena statisticamente significativi, e se non li aveva li nascondeva dall’abstract.

I 40 ingredienti in questione, per la cronaca, sono: sale, pepe, farina, uova, pane, maiale, agnello, burro, pomodori, limoni, anatra, cipolle, sedano, carota, prezzemolo, noce moscata, ciliege, olive, funghi, latte, caffè, formaggio, pancetta, zucchero, aragosta, patate, tea, rum, arancia, vitello, manzo, trippa, mostarda, noci, vino, piselli, grano, cannella, pepe di cayenne.

Cioè, quasi tutto, specialmente considerato che lo studio in questione fa riferimento a libri di cucina americani.

Ripeto, per essere chiaro: abbiamo un sacco di studi (più di 250) che riportano un associazione tra un cibo o un ingrediente e un aumento o una diminuzione del rischio di cancro, ma la stragrande maggioranza ha un effetto estremamente minuto e solo nominalmente dimostrabile da un punto di vista statistico, anche nel 75% di studi che sostenevano variazioni di rischio. Per quelli a cui piace la statistica e i dati esatti, riporto la tabella dal paper.

Tabella 10 anni

A questo punto, passiamo alle meta analisi. Dei 50 ingredienti selezionati, 36 erano stati considerati in meta analisi, studi che mettono insieme con la magia della statistica più studi differenti e cercano di trovare l’effetto reale ignorando le variazioni casuali intrinseche in ciascun studio individuale. Come ci si aspetta sempre, anche quando gli studi sono allo stato dell’arte (per via dell’effetto declino e del publication bias), le meta analisi hanno trovato effetti più piccoli; ciò detto, sono ancora più insignificanti di quanto sarebbe legittimo aspettarsi. Solo 13 meta analisi su 36 riportano un rischio aumentato o diminuito di cancro; e anche quando lo riportano, l’aumento di rischio relativo è molto vicino allo zero, cioè l’effetto protettivo o negativo è molto vicino allo zero.

Il che significa due cose (non è una dicotomia, può essere benissimo una combinazione delle due opzioni): può darsi che esista un rischio o un beneficio associato ad uno specifico cibo, ma in media, gli effetti si controbilanciano e la variazione di rischio si approssima a zero, o la maggior parte dei risultati in letteratura sono accidenti statistici, distribuiti più o meno a caso, e quindi nelle meta analisi, che considerano gli effetti complessivi, questi vanno a zero – probabilmente perché la maggior parte dei risultati non sono veritieri.

A dimostrazione di ciò, c’è un grafico veramente utile nell’articolo:

Relative risk

La figura 1 del paper, leggermente modificata per comodità e chiarezza.

Vedete qui gli ingredienti su cui ci sono stati più di 10 studi a riguardo. Ciascun puntino è uno studio: la linea verticale mediana significa “nessun effetto significativo”; tanto più uno studio è a sinistra della mediana tanto più lo studio ha trovato un effetto protettivo; tanto più è su la destra, tanto più lo studio ha trovato un aumento di rischio di cancro. Come potete vedere, i puntini sono più o meno distribuiti a caso, senza essere particolarmente ravvicinati; con l’eccezione del bacon nessun ingrediente con più di 10 studi non ha almeno uno studio che contraddice tutti gli altri, e nella maggioranza degli studi coi valori più estremi, più vicini ai lati del grafico, tanto più piccola era la dimensione dei campioni studiati. E’ un altro effetto tipico nell’epidemiologia: in un campione piccolo, variazioni casuali sembrano più importanti.

Se prendete 10 persone, e, per caso, trovate 4 mancini, finirete per credere che il 40% della popolazione è mancina; ma se prendete un campione più grande l’errore di campionamento e i fattori casuali saranno meno, e sarà più probabile che vi avviciniate al risultato reale del 10% di popolazione mancina.

Però, la pancetta fa comunque venire il cancro, giusto? E’ risaputo, no? Anche lasciando stare l’ovvio “la dose fa il veleno”, non è così ovvio. Scrivono gli autori:

The vast majority of these claims were based on weak statistical evidence. Many statistically insignificant “negative” and weak results were relegated to the full text rather than to the study abstract. Individual studies reported larger effect sizes than did the meta-analyses. There was no standardized, consistent selection of exposure contrasts for the reported risks. A minority of associations had more than weak support in meta-analyses, and summary effects in meta-analyses were consistent with a null average and relatively limited variance.

Per dirla semplice, ci sono un sacco di studi che dicono che esiste un legame tra un cibo e un effetto protettivo o un rischio aumentato, ma solo una netta minoranza ha prove e dati statistici a supporto della sua tesi. Non solo: spesso capita che nell’abstract (che nella stragrande maggioranza dei casi è l’unica cosa a cui i giornalisti e il pubblico possono accedere aggratis) si proclami una associazione forte mentre le debolezze dell’associazione e i casi speciali sono sepolti e nascosti nel full-text.

Ovviamente uno studio del genere non rappresenta la totalità dell’epidemiologia nutrizionistica, che, ripeto, è una disciplina legittima e interessante. Ma quelli che gli autori hanno considerato sono specificamente gli studi più citati, cioè quelli che è più probabile che uno studente, consumatore, paziente o giornalista trovi facendo una breve ricerca nella letteratura scientifica. Quattro categorie che, al contrario dei ricercatori nelle torri d’avorio, non possono tipicamente neppure accedere al full text (E nel caso dello studente, se può accederci, non ha voglia di leggerlo).

Il che significa che tanto meno una persona è qualificata o si occupa professionalmente di discipline sanitarie, tanto più è probabile che trovi una cacofonia di studi conflittuali, o peggio ancora annunci stampa mascherati da abstract e articoli sensazionalistici nella stampa generalista.

Questo sarebbe già sufficiente per sospettare che con l’overmedicalizzazione della dieta e il terrorismo mediatico stiamo facendo un disservizio alla persona media per quanto riguarda il suo preoccuparsi della nutrizione. Le linee guida su cosa rende una dieta bilanciata e salutare sono note da decenni: il focalizzarsi (e a volte l’inventarsi) della nostra cultura sugli effetti specifici di singoli alimenti rischia di causare più danni che profitto, per quanto abbia creato tutto un nuovo mercato e nuove figure professionali etc.

Ma c’è di peggio. Insieme all’articolo citato, è stato pubblicato un editoriale dall’eloquentissimo titolo: “Nutritional epidemiology in practice: learning from data or promulgating beliefs?” che fa notare che, oltre al dato ovvio che il lavoro di Ioannidis mostra (cioè come tutto quello che mangiamo è associato con il cancro in qualche modo), l’articolo stesso è involontariamente una prova del publication bias nel campo della nutrizione, il pernicioso fenomeno per cui studi che riportano nessun effetto non sono pubblicati.

However, Schoenfeld and Ioannidis proceeded to show that biases exist in the nutrient-cancer literature. The fidelity of research findings between nutrients and cancer may have been compromised in several ways. They identified an overstating of weak results (most associations were only weakly supported), a lack of consistent comparisons (inconsistent definitions of exposure and outcomes), and possible suppression of null findings (a bimodal distribution of outcomes, with a noticeable lack of null findings).

I risultati piccoli vengono gonfiati, i paragoni sono studiati di modo da dare il più grande effetto possibile, e i risultati nulli (I.e: non cambia niente), probabilmente non vengono pubblicati.

Cospirazione galattico-rettiliana per nascondere quello che veramente sappiamo sulla salute? Non esattamente. C’è quel motto, per chi scrive romanzi, che dice più o meno “Ogni cattivo credibile crede di essere un eroe “. In termini scientifici, questo viene definito “White Hat Bias”, il “bias dei cappelli bianchi”. E’ una deformazione sistematica dei risultati della ricerca, più spesso inconscia che conscia, che porta a considerare più i risultati in servizio di quello che viene considerato uno scopo virtuoso (Per chi è pratico di queste cose, è un caso particolare di bias di conferma). Il nome peculiare credo sia dovuto al fatto che nei film in bianco e nero i cowboy buoni avevano il cappello bianco, termine mutuato poi per descrivere in tempi moderni gli “hacker etici”, ma non prendetemi in parola.

Questi risultati poi vengono disseminati al pubblico, il che porta non solo all’inappropriata demonizzazione o santificazioni di cibi, ma anche direttamente alla ciarlataneria e ai venditori di olio di serpente. Chiunque è un minimo familiare con la medicina “alternativa” e tutto il movimento che gli va dietro, troverà tipicamente esempi di “supercibi” che proteggono da tutti i malanni o sono la cura del cancro, etc; le catene di Sant’Antonio idiote su Facebook si sprecano, dalla cipolla sul comodino che assorbe i virus (?), alla graviola che “scioglie” i tumori, all’Aloe come panacea, ai limoni e peperoncini.

Pubblicare studi con associazioni fasulle ritoccate per sembrare inattaccabili dà solo munizioni a quelli che già sono cecchini quando si tratta di sparare corbellerie; come dice il proverbio, la strada per l’inferno è lastricata di buone intenzioni.

Ovviamente è ingiusto dare tutta la colpa di come gli studi nutrizionali ed epidemiologici vengono usati ed abusati agli autori e ricercatori. La peer review è solo il primo passo, e la cattedrale della scienza si costruisce uno, spesso insignificante, mattoncino alla volta. Il bias dei cappelli bianchi è principalmente inconscio, e anche controlli più stretti della metodologia, o di quello che finisce nella stampa, non può certo fermare il bisogno fondamentale dell’essere umano di avere il controllo su quello di cui ha paura.

Quello che si può fare, e che si dovrebbe fare, è smettere di ripetere deboli correlazioni per il gusto del sensazionalismo, e dibattere alla nausea i soliti discorsi, e concentrarsi su il segnale invece che il rumore.  Viene spesso citata la cifra della World Health Organization, secondo cui un terzo dei tumori può essere prevenuto con cambiamenti di dieta, e quasi la metà con cambiamenti dello stile di vita, e viene utilizzato come prefazione a riportare altre deboli correlazioni, quando la stragrande maggioranza dell’effetto è attribuito al consumo di alcool, il fumo, l’obesità e una vita sedentaria; l’unico effetto che si rifà alla dieta vera e propria, è la carenza di frutta e verdura nella dieta, che si aggira attorno al 3% per i paesi occidentali. Per fare un paragone, il sesso non protetto, con il rischio di trasmissione dell’HPV, vale l’1% dei cancri prevenibili da cambiamenti nello stile di vita: eppure penso che ben meno di un terzo delle persone che si preoccupa del contenuto di avocado nella dieta pensi al sesso come una possibile causa del cancro.

E sia chiaro, questo non è un l’inno al fatalismo del dire “Beh, siccome probabilmente consigli specifici sul contenuto di pompelmi nella mia dieta sono falsi, tanto vale che continuo a fare quello che faccio “. E’ una sciocchezza, e lo sapete anche voi, e state usando il mio articolo che descrive una situazione epidemiologica per giustificarvi con voi stessi. Come ho già detto, le linee guida di una dieta generalmente sana si conoscono da decenni, quindi nulla di questo è una scusa per non usare due dita di cervello quando mangiate.

Senza ossessionarsi. Senza contribuire ad un’isteria mediatica che distrae dalla vera prevenzione, senza che degenerare in guerre ideologiche tra fazioni su quello che si mangia, e senza dimenticare che più o meno tutto causa il cancro, e il vostro forte desiderio (o certezza) di avere controllo sul vostro destino non significa, purtroppo, che ce l’abbiate veramente.

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: