Menu principale
Menu
Articoli più letti
- Corso di specializzazione in Tecnica della Perizia Giudiziaria 2025
- Privacy Policy
- 3° Convegno nazionale del Consulente Tecnico e del Perito.- MILANO 7 aprile 2000
- 4° Convegno Nazionale del Consulente Tecnico e del Perito
- 2° Convegno nazionale del Consulente Tecnico e del Perito. Tribunale Penale di Roma, Aula Occorsio.
- CONVEGNO DI ASCOLI PICENO
- 1° Convegno Nazionale del Consulente Tecnico e del Perito.
- Come Iscriversi al COLLEGIO PERITI ITALIANI
- Perché Iscriversi al Collegio Periti Italiani?
- Chi Siamo
RICERCA in OMEOPATIA e EBM
- Dettagli
RICERCA in OMEOPATIA e EBM
Dott.ssa Carla Biader Ceipidor
00198 ROMA - Corso Trieste, 169/B
Tel.: 06.8620.3754 Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.
La Medicina Ufficiale riconosce nel rimedio omeopatico la sola azione di placebo. L’identificazione del medicinale omeopatico con il placebo è conseguenza della legge chimica di Avogadro del 1811, successivamente verificata sperimentalmente da Millikan nel 1909, che afferma: in una Mole (peso in grammi corrispondente al peso molecolare) di una qualsiasi sostanza sono presenti 6,002254 x 10 unità molecolari o atomiche. Di conseguenza le diluizioni di una sostanza di 1024 (24D o 12CH o 4LM in termini omeopatici) hanno scarse probabilità di contenere una singola molecola o atomo della sostanza iniziale.

La necessità di dimostrazione dell’efficacia farmacologica e terapeutica del medicinale omeopatico richiede lo sviluppo di studi di ricerca in cui da una parte siano rispettate le regole di indagine medico-statistica, per il riconoscimento della significatività di ogni farmaco, e dall’altra siano rispettate le regole delle basi teorico-applicative dell’omeopatia, per l’accettazione della metodologia diagnostica-terapeutica omeopatica.
Quali sono la basi della ricerca scientifica in generale e in medicina in particolare?
La ricerca scientifica in generale si basa sulla scoperta specifica e sulla sua verifica sperimentale. Nell’applicazione del metodo scientifico è insito il concetto di esperimento, il quale è per molti aspetti coincidente con quello di esperienza, ma, mentre l’esperienza può risolversi con la semplice constatazione dei fatti e nella loro acquisizione e generalizzazione, l’esperimento implica invece un intervento attivo del ricercatore nel processo naturale, diretto a riprodurre artificialmente tale processo, in condizioni tali da poterne più propriamente osservare e verificare quell’aspetto, il cui accertamento interessa la ricerca. La riproduzione del processo richiede l’obbligo del controllo e della stabilità di tutti i parametri coinvolti nel processo stesso; nelle scienze naturalistiche non è quasi mai possibile aggiungere all’esperienza il controllo dell’esperimento.
Una delle obiezioni che viene continuamente posta all’omeopatia è il suo limite metodologico. Il problema metodologico è sempre stato quello di individuare un criterio che permettesse di separare le scienze autentiche dalle pseudoscienze. Karl R. Popper ha risolto questo problema con l’introduzione del principio di falsificabilità. Secondo questa affermazione non è il principio della verificazione a distinguere la possibilità di dimostrare, attraverso l’osservazione e l’esperimento, la falsità di una teoria: “Io ammetterò certamente come empirico, o scientifico, soltanto un sistema che possa essere controllato dall’esperienza. Queste considerazioni suggeriscono che come criterio di demarcazione non si deve prendere la verificabilità, ma la falsificabilità di un sistema. In altre parole: da un sistema scientifico non esigerò che sia capace di essere scelto, in senso positivo, una volta per tutte; ma esigerò che la sua forma logica sia tale che possa essere messo in evidenza, per mezzo di controlli empirici, in senso negativo: un sistema empirico deve poter essere confutato dell’esperienza” (K.R. Popper 1970).
In questa dichiarazione i significati di esperienza e di esperimento sono considerati coincidenti. Popper con il principio di falsificabilità tenta di annullare le differenze che esistono tra esperienza ed esperimento, assimilando la prima al secondo. In realtà il corretto metodo sperimentale richiede sempre l’esperimento e il conseguente controllo di tutti i fattori e le condizioni che lo definiscono. Quando uno di questi non è soddisfatto non vi è la possibilità di fare una predizione certa e positiva del risultato dell’esperimento stesso. Al contrario, mancando il rispetto anche di una sola delle condizioni necessarie, si può affermare che il supposto risultato dell’esperimento sia nullo, ovvero si falsifica la teoria metodologica che è alla base dell’esperimento stesso. Nella maggior parte delle scienze e più che mai nelle scienze biologiche ciò che è presente è l’esperienza. Pertanto, quanto più essa è controllabile, con tutte le sue variabili spesso imprevedibili, tanto più è assimilabile all’esperimento ed è più vicina alla scienza. In tal modo, a priori, è possibile dichiarare quando l’esperienza darà il risultato voluto, avvicinandosi maggiormente all’esperimento. Popper ha enunciato un principio che cerca di colmare la differenza che c’è tra l’esperienza, realtà della scienza biologica applicata, ed esperimento, realtà della scienza ideale; distinguendo una metodologia della scienza da quella della non scienza, quella del mondo del controllo e del prevedibile da quella del possibile e del probabile. Nelle scienze biologiche si può parlare di possibilità, di tendenza, di probabilità, ma non di certezza. Esse non sono scienza, ma a questa cercano di avvicinarsi con l’acquisizione di un grande numero di esperienze e con la limitazione dei parametri considerati, nel tentativo di far coincidere le esperienze con gli esperimenti. Gli esperimenti possono non attuarsi per lo spostamento o il cambiamento delle variabili in gioco e in tal modo mostrare la falsificabilità della metodologia, cosa che non è autenticamente applicabile alle esperienze. Quando il principio di falsificabilità è chiamato in causa nelle scienze biologiche, per un loro riconoscimento scientifico, si dimentica sempre la differenza che esiste tra esperienza ed esperimento. In conclusione, il principio di falsificabilità per il riconoscimento di una metodologia scientifica consiste nella enunciazione della necessità del controllo totale di tutte le variabili presenti negli esperimenti, ma mai nelle esperienze in esame.
Nella ricerca farmacologica, poiché uno dei termini in causa è l’organismo vivente, ricco di tante e tali variabili impossibili da controllare sistematicamente e sicuramente prima, durante e dopo una sperimentazione, l’informazione sull’efficacia terapeutica viene ottenuta con esperienze, indagini in cui non è mai possibile definire con certezza e completezza i componenti, essa viene studiata facendo una selezione dei parametri che si vogliono esaminare ed una rilevazione delle variazioni di tali parametri attraverso un’indagine statistica. La limitazione dei parametri osservati e il grande numero dei casi esaminati cerca di colmare il baratro che esiste tra l'esperienza e l'esperimento.
Nella ricerca medico - scientifica attuale le tappe osservate sono sette:
1) prime descrizioni di risultati promettenti ottenuti da chi ha ideato il nuovo trattamento;
2) diffusione nei centri di eccellenza dove ne viene enfatizzata ulteriormente l’efficacia;
3) l’informazione si diffonde attraverso i mass media e sono gli stessi pazienti a richiedere di essere sottoposti alla nuova terapia;
in queste prime tre fasi vengono pubblicate solo ricerche con risultati positivi;
4) il trattamento viene adottato dalla comunità scientifica;
5) viene considerato come una procedura standard per una certa patologia;
6) poiché non sempre i risultati corrispondono a quelli indicati nelle prime ricerche, il nuovo trattamento viene sottoposto a una ricerca rigorosa, randomizzata e controllata( Randomized Controlled Trial: RCT) per valutarne definitivamente l’efficacia. Spesso questa verifica viene osteggiata da chi ritiene che non sia etico provare il trattamento contro il placebo: si priverebbe metà dei pazienti di un trattamento ormai consolidato;
7) se i risultati del RCT sono positivi, il nuovo trattamento viene consacrato nelle linee guida internazionali, ma se negativi il trattamento cade rapidamente nel discredito.
L’ORGANIZZAZIONE DI UNO STUDIO (2)
La scienza ha elaborato dei metodi oggettivi e irripetibili per studiare l’effetto di un farmaco o di un intervento terapeutico: Studi clinici. Le conoscenze ottenute dagli studi clinici vanno poi “trasferite criticamente” nella pratica reale e in quel particolare caso.
STUDI CLINICI DI DUE TIPI:
1) Studi osservazionali: il ricercatore non decide chi trattare, ma si limita ad osservare le differenze;
2) Studi sperimentali o studi di intervento: studi randomizzati e controllati (RCT) con decisione attiva dei ricercatori su chi trattare.
Gli studi osservazionali: sono gravati da possibili BIAS che ne inficiano i risultati, ma possono essere utili perché permettono di ottenere delle ipotesi che poi dovranno essere sottoposte a studi di intervento.
Gli studi sperimentali: possono essere: a) non controllati con pazienti assegnati consecutivamente al trattamento; b) controllati e randomizzati (RCT) nei quali lo sperimentatore assegna: ad un gruppo “braccio intervento” o trattati il trattamento ad un gruppo “braccio controllo” o controlli il placebo o un altro trattamento in modo casuale, con randomizzazione. Senza la randomizzazione si parla di studio clinico controllato (CT, da Clinical Trial). Il trial controllato (randomizzato o meno) può essere svolto in doppio cieco (né il medico né il paziente sa se appartiene al gruppo trattato o al controllo), in cieco singolo (solo il paziente non sa a quale gruppo appartiene) oppure “aperto” (dove tutti sanno tutto).
END-POINT
All’inizio di un trial è indispensabile stabilire le sue finalità.
Gli END-POINT o OUTCOME o ESITI sono quello che alla fine dello studio si sono proposti di misurare.
Esistono due tipi di end-point:
HARD: non suscettibili di errori di misurazione o di interpretazione (decessi, infarti, ictus, ricoveri per scompenso cardiaco, fratture di femore…)
Maggiormente utili nel determinare il beneficio clinico di un trattamento.
SURROGATI o SOFT: suscettibili di errori di misurazione e di interpretazione (pressione arteriosa, colesterolo, massa ossea). Più facili da ottenere e soprattutto richiedono un follow-up più breve. Non è detto che ad un miglioramento di end-point surrogato corrisponda un beneficio clinico.
Esempi:
Studio PEPI: valutazione della T.O.S. nel migliorare l’assetto lipidico in 900 donne. Al termine dello studio venne evidenziato che la T.O.S. riduceva i valori di colesterolo LDL e aumentava quelli dell’HDL. Ma con end-point clinici hard (studi WHI, HERS, ESPRIT) sia in donne sane che cardiopatiche, si è visto che lan T.O.S per la menopausa, non solo non protegge dalla cardiopatian ischemica, non solo non ha un ruolo protettivo sugli eventi cardiaci, ma addirittura ne aumenta il rischio.
Studio CAST: sperimentazione della flecainide (un antiaritmico) nei soggetti infartuati con aritmie ventricolari minacciose. Dimostra che un farmaco, che ha un effetto positivo su un end-point surrogato (aritmie), non necessariamente produce un beneficio clinico (eccesso di morti nel gruppo trattato attivamente rispetto al gruppo di controllo che assumeva placebo).
Studio ILLUMINATE: somministrazione di torcetrapib oppure placebo. Riportò miglioramento dell’assetto lipidico, ma vi fu aumento degli eventi cardiovascolari e della mortalità.
END-POINT GENERICI R SPECIFICI
E’ importante stabilire con quali criteri diagnostici vengono misurati gli end-point.
Per alcuni end-point non è necessario definire nulla (tutto o niente: decessi). Un caso particolare è però rappresentato dall’end-point che valuta non i decessi in sé (la cosiddetta overall mortality), ma i decessi specifici, perché in questo caso si potrebbero avere diverse interpretazioni. Questo problema è stato sottolineato negli studi di screening oncologici, in cui molti esperti sostengono che l’unico end-point corretto da valutare è la OVERALL MORTALITY e non quella specifica da cancro.
Decessi generici: valutazione con OVERALL MORTALITY.
Decessi specifici: valutazione con i decessi da patologia.
END-POINT PRIMARI E SECONDARI
END-POINT PRIMARIO: è di capitale importanza perché è quello sul quale viene tarata la potenza statistica ovvero è quello che definisce lo scopo e la precisa metodologioa dello studio stesso. Quando si studia il disegno di un trial si definiscono uno o più end-point primari che si andranno poi a misurare.
END-POINT SECONDARIO: durante uno studio è prassi comune definire uno o più end-point secondari. Sono motivo di indagine critica degli esperti di “critical appraisal”(in termini di EBM è l’esame sistematico di tutti gli aspetti di una ricerca per valutarne la validità, la rilevanza e l’importanza). Gli end-point secondari sono utili se vanno nella stessa direzione di quelli primari.
Non è detto che dal punto di vista clinico end-point primario sia più importante di quello secondario, ma statisticamente è l’end-point primario da considerare.
Esempio
Studio di 2 farmaci antiipertensivi con end-point primario di infarto non fatale.
Alla fine non vi sono differenze statistiche tra i due gruppi con end-point primario di infarto non fatale; ma vi è una diminuzione degli end-point secondari (stroke, eventi cardiovascolari fatali, interventi di rivascolarizzazione) in un gruppo. Gli autori concludono che il farmaco di quest’ultimo gruppo è più efficace. QUESTO E’ UN ERRORE perché l’end-point primario ha dato equivalenza e la riduzione degli end-point secondari richiederebbe conferme da altri studi.
IMPORTANTE: quando si valuta uno studio vedere sempre quali sono gli end-point primari e dubitare se i ricercatori hanno invece considerato gli end-point secondari.
END-POINT COMPOSTI
END-POINT COMPOSTI (o COMBINATI) è formato da una serie più o meno numerosa di end- point singoli; in pratica è un mega-evento costituito da vari eventi singoli.
Perché si usano gli end-point composti?
Si migliora la potenza statistica dello studio: per valutare un singolo evento bisognerebbe reclutare un numero molto elevato di pazienti, aumentando il numero degli eventi con l’escamotage dell’end-point si possono reclutare meno soggetti. Inoltre l’end-point composto permette di solito un follow-up più breve, Ancora l’end-point composto consente di evidenziare differenze statistiche che non sarebbero state rilevate valutando un end-point singolo.
Regole per gli end-point composti:
1) i singoli componenti devono essere importanti dal punto di vista clinico;
2) l’end-point composto deve essere stabilito prima di iniziare lo studio e non essere cambiato in itinere o a posteriori;
3) oltre a riportare i dati complessivi dell’end-point composto, si devono riportare anche i risultati dei singoli end-point. Se si trova una riduzione dell’end-point composto ed una contemporanea riduzione degli end-point singoli che lo compongono il risultato è attendibile. Se invece non vi è corrispondenza tra l’end-point composto e singoli elementi può essere più difficile interpretare correttamente i risultati.
Con l’end-point composto si migliora la potenza statistica dello studio: per valutare un singolo evento bisognerebbe reclutare un numero molto elevato di pazienti, aumentando il numero degli eventi con l’escamotage dell’end-point composto si possono reclutare meno soggetti. Inoltre l’end-point composto permette di solito un follow-up più breve. Ancora l’end-point composto consente di evidenziare differenze statistiche che non sarebbero state rilevate valutando un end-point singolo.
CRITERI DI ARRUOLAMENTO DEI PAZIENTI
1) “OPT-OUT”: soggetti invitati, con lettera o telefonata, a partecipare al trial e se non rispondono i ricercatori possono richiamarli.
2) “OPT-IN” : soggetti invitati, con lettera o telefonata, a partecipare al trial e se non rispondono i ricercatori non possono richiamarli.
Bisogna tener presente che i criteri di inclusione o di esclusione sono molto rigidi per cui i pazienti non corrispondono a quelli “veri” e “reali” che gli operatori sanitari vedono tutti i giorni nel proprio lavoro.
Il problema del campionamento consiste nell’avere la migliore garanzia di rappresentatività del campione. Ciò è soddisfatto da un’estrazione casuale dalla popolazione generale attraverso una procedura che dia a tutti i pazienti con una patologia determinata la stessa probabilità di essere inclusi nel campione. Nella realtà, il gruppo di pazienti studiabili presso qualunque centro clinico difficilmente soddisfa questa condizione. Un fattore di distorsione importante è la progressiva selezione di casi gravi o resistenti alle terapie convenzionali che si attua nel passaggio dai servizi medici di base a quelli via via più specializzati. Altre cause di perdita di rappresentatività della casistica possono essere i criteri di ingresso fissati dal protocollo e i casi di pazienti ammessi allo studio, ma esclusi dall’analisi dei risultati; questi fenomeni vengono definiti come sample distorsion bias.
NUMERO DEI PAZIENTI ARRUOLATI
Tanto più numeroso è il campione arruolato (SIMPLE SIZE) e tanto più lungo è il follow-up tanto più i risultati dovrebbero essere validi e affidabili.
La dimensione del campione è calcolata con formule tenendo conto:
1) della differenza degli outcome che si prevede nei due bracci dello studio (es. si prevede di ridurre il rischio dell’outcome del 20%);
2) della potenza statistica (STATISTICAL POWER, esprime la capacità dello studio di rilevare differenze tra i due bracci qualora esse effettivamente esistano);
3) l’ERRORE ALFA (la probabilità di considerare erroneamente non casuale, quindi significativa una differenza tra i due bracci in realtà dovuta al caso).
La numerosità bassa del campione può portare a risultati “falsamente significativi”o al contrario non avere la potenza statistica sufficiente per evidenziare differenze reali, cioè risultati “falsamente non significativi”. Infatti se un trattamento deve ridurre un evento che già di per sé non è frequente o se il vantaggio (la riduzione del rischio) è basso bisogna arruolare molti pazienti. La maggiore numerosità del campione viene quindi ritenuta, di solito, sinonimo di studio clinico importante. Questo, però, può portare anche a delle incongruenze: differenze marginali sono amplificate per moltissimi pazienti; si ottiene una significatività statistica, ma l’utilità clinica di questa informazione è discutibile. Aumentare la casistica può quindi essere un escamotage per evidenziare benefici piccoli.
GRUPPO CONTROLLO
Il controllo deve essere costituito da un placebo, randomizzato e simultaneo. I controlli storici possono generare false conclusioni dovute ai possibili cambiamenti nel tempo della patologia studiata, per effetto di fattori diversi dal trattamento impiegato.
RANDOMIZZAZIONE
La randomizzazione consiste nell’assegnazione casuale dei trattamenti con la costituzione di gruppi di trattamento omogenei cioè bilanciati per tutti quei fattori prognostici capaci di influire, indipendentemente dal trattamento, sull’esito clinico dei pazienti, es.: età, gravità della malattia, fattori di rischio, patologie concomitanti. La randomizzazione costituisce il mezzo principale per prevenire gran parte delle forme bias, cioè la distorsione sistematica dei risultati a favore di uno dei gruppi a confronto, inoltre fornisce il campionamento casuale condizione indispensabile per l’uso di test statisticamente significativi.
STUDIO IN DOPPIO CIECO O IN SINGOLO CIECO
Il doppio cieco è l’indispensabile condizione in cui né il paziente né il medico ricercatore sono a conoscenza di quale trattamento sia stato assegnato al paziente stesso. Il singolo cieco è la condizione in cui solo il paziente non conosce il trattamento assegnatogli. Queste tecniche hanno lo scopo di eliminare il possibile bias soggettivo del paziente e del medico.
CONFRONTO TRA IL RICONOSCIMENTO DI UN INTERVENTO TERAPEUTICO CONVENZIONALE ED OMEOPATICO
(colore blu per i percorsi in comune)
La ricerca scientifica in generale si basa sulla scoperta specifica e sulla sua verifica sperimentale. Nell’applicazione del metodo scientifico è insito il concetto di esperimento, il quale è per molti aspetti coincidente con quello di esperienza, ma, mentre l’esperienza può risolversi con la semplice constatazione dei fatti e nella loro acquisizione e generalizzazione, l’esperimento implica invece un intervento attivo del ricercatore nel processo naturale, diretto a riprodurre artificialmente tale processo, in condizioni tali da poterne più propriamente osservare e verificare quell’aspetto, il cui accertamento interessa la ricerca. La riproduzione del processo richiede l’obbligo del controllo e della stabilità di tutti i parametri coinvolti nel processo stesso; nelle scienze naturalistiche non è quasi mai possibile aggiungere all’esperienza il controllo dell’esperimento.
Una delle obiezioni che viene continuamente posta all’omeopatia è il suo limite metodologico. Il problema metodologico è sempre stato quello di individuare un criterio che permettesse di separare le scienze autentiche dalle pseudoscienze. Karl R. Popper ha risolto questo problema con l’introduzione del principio di falsificabilità. Secondo questa affermazione non è il principio della verificazione a distinguere la possibilità di dimostrare, attraverso l’osservazione e l’esperimento, la falsità di una teoria: “Io ammetterò certamente come empirico, o scientifico, soltanto un sistema che possa essere controllato dall’esperienza. Queste considerazioni suggeriscono che come criterio di demarcazione non si deve prendere la verificabilità, ma la falsificabilità di un sistema. In altre parole: da un sistema scientifico non esigerò che sia capace di essere scelto, in senso positivo, una volta per tutte; ma esigerò che la sua forma logica sia tale che possa essere messo in evidenza, per mezzo di controlli empirici, in senso negativo: un sistema empirico deve poter essere confutato dell’esperienza” (K.R. Popper 1970).
In questa dichiarazione i significati di esperienza e di esperimento sono considerati coincidenti. Popper con il principio di falsificabilità tenta di annullare le differenze che esistono tra esperienza ed esperimento, assimilando la prima al secondo. In realtà il corretto metodo sperimentale richiede sempre l’esperimento e il conseguente controllo di tutti i fattori e le condizioni che lo definiscono. Quando uno di questi non è soddisfatto non vi è la possibilità di fare una predizione certa e positiva del risultato dell’esperimento stesso. Al contrario, mancando il rispetto anche di una sola delle condizioni necessarie, si può affermare che il supposto risultato dell’esperimento sia nullo, ovvero si falsifica la teoria metodologica che è alla base dell’esperimento stesso. Nella maggior parte delle scienze e più che mai nelle scienze biologiche ciò che è presente è l’esperienza. Pertanto, quanto più essa è controllabile, con tutte le sue variabili spesso imprevedibili, tanto più è assimilabile all’esperimento ed è più vicina alla scienza. In tal modo, a priori, è possibile dichiarare quando l’esperienza darà il risultato voluto, avvicinandosi maggiormente all’esperimento. Popper ha enunciato un principio che cerca di colmare la differenza che c’è tra l’esperienza, realtà della scienza biologica applicata, ed esperimento, realtà della scienza ideale; distinguendo una metodologia della scienza da quella della non scienza, quella del mondo del controllo e del prevedibile da quella del possibile e del probabile. Nelle scienze biologiche si può parlare di possibilità, di tendenza, di probabilità, ma non di certezza. Esse non sono scienza, ma a questa cercano di avvicinarsi con l’acquisizione di un grande numero di esperienze e con la limitazione dei parametri considerati, nel tentativo di far coincidere le esperienze con gli esperimenti. Gli esperimenti possono non attuarsi per lo spostamento o il cambiamento delle variabili in gioco e in tal modo mostrare la falsificabilità della metodologia, cosa che non è autenticamente applicabile alle esperienze. Quando il principio di falsificabilità è chiamato in causa nelle scienze biologiche, per un loro riconoscimento scientifico, si dimentica sempre la differenza che esiste tra esperienza ed esperimento. In conclusione, il principio di falsificabilità per il riconoscimento di una metodologia scientifica consiste nella enunciazione della necessità del controllo totale di tutte le variabili presenti negli esperimenti, ma mai nelle esperienze in esame.
Nella ricerca farmacologica, poiché uno dei termini in causa è l’organismo vivente, ricco di tante e tali variabili impossibili da controllare sistematicamente e sicuramente prima, durante e dopo una sperimentazione, l’informazione sull’efficacia terapeutica viene ottenuta con esperienze, indagini in cui non è mai possibile definire con certezza e completezza i componenti, essa viene studiata facendo una selezione dei parametri che si vogliono esaminare ed una rilevazione delle variazioni di tali parametri attraverso un’indagine statistica. La limitazione dei parametri osservati e il grande numero dei casi esaminati cerca di colmare il baratro che esiste tra l'esperienza e l'esperimento.
Nella ricerca medico - scientifica attuale le tappe osservate sono sette:
1) prime descrizioni di risultati promettenti ottenuti da chi ha ideato il nuovo trattamento;
2) diffusione nei centri di eccellenza dove ne viene enfatizzata ulteriormente l’efficacia;
3) l’informazione si diffonde attraverso i mass media e sono gli stessi pazienti a richiedere di essere sottoposti alla nuova terapia;
in queste prime tre fasi vengono pubblicate solo ricerche con risultati positivi;
4) il trattamento viene adottato dalla comunità scientifica;
5) viene considerato come una procedura standard per una certa patologia;
6) poiché non sempre i risultati corrispondono a quelli indicati nelle prime ricerche, il nuovo trattamento viene sottoposto a una ricerca rigorosa, randomizzata e controllata( Randomized Controlled Trial: RCT) per valutarne definitivamente l’efficacia. Spesso questa verifica viene osteggiata da chi ritiene che non sia etico provare il trattamento contro il placebo: si priverebbe metà dei pazienti di un trattamento ormai consolidato;
7) se i risultati del RCT sono positivi, il nuovo trattamento viene consacrato nelle linee guida internazionali, ma se negativi il trattamento cade rapidamente nel discredito.
L’ORGANIZZAZIONE DI UNO STUDIO (2)
La scienza ha elaborato dei metodi oggettivi e irripetibili per studiare l’effetto di un farmaco o di un intervento terapeutico: Studi clinici. Le conoscenze ottenute dagli studi clinici vanno poi “trasferite criticamente” nella pratica reale e in quel particolare caso.
STUDI CLINICI DI DUE TIPI:
1) Studi osservazionali: il ricercatore non decide chi trattare, ma si limita ad osservare le differenze;
2) Studi sperimentali o studi di intervento: studi randomizzati e controllati (RCT) con decisione attiva dei ricercatori su chi trattare.
Gli studi osservazionali: sono gravati da possibili BIAS che ne inficiano i risultati, ma possono essere utili perché permettono di ottenere delle ipotesi che poi dovranno essere sottoposte a studi di intervento.
Gli studi sperimentali: possono essere: a) non controllati con pazienti assegnati consecutivamente al trattamento; b) controllati e randomizzati (RCT) nei quali lo sperimentatore assegna: ad un gruppo “braccio intervento” o trattati il trattamento ad un gruppo “braccio controllo” o controlli il placebo o un altro trattamento in modo casuale, con randomizzazione. Senza la randomizzazione si parla di studio clinico controllato (CT, da Clinical Trial). Il trial controllato (randomizzato o meno) può essere svolto in doppio cieco (né il medico né il paziente sa se appartiene al gruppo trattato o al controllo), in cieco singolo (solo il paziente non sa a quale gruppo appartiene) oppure “aperto” (dove tutti sanno tutto).
END-POINT
All’inizio di un trial è indispensabile stabilire le sue finalità.
Gli END-POINT o OUTCOME o ESITI sono quello che alla fine dello studio si sono proposti di misurare.
Esistono due tipi di end-point:
HARD: non suscettibili di errori di misurazione o di interpretazione (decessi, infarti, ictus, ricoveri per scompenso cardiaco, fratture di femore…)
Maggiormente utili nel determinare il beneficio clinico di un trattamento.
SURROGATI o SOFT: suscettibili di errori di misurazione e di interpretazione (pressione arteriosa, colesterolo, massa ossea). Più facili da ottenere e soprattutto richiedono un follow-up più breve. Non è detto che ad un miglioramento di end-point surrogato corrisponda un beneficio clinico.
Esempi:
Studio PEPI: valutazione della T.O.S. nel migliorare l’assetto lipidico in 900 donne. Al termine dello studio venne evidenziato che la T.O.S. riduceva i valori di colesterolo LDL e aumentava quelli dell’HDL. Ma con end-point clinici hard (studi WHI, HERS, ESPRIT) sia in donne sane che cardiopatiche, si è visto che lan T.O.S per la menopausa, non solo non protegge dalla cardiopatian ischemica, non solo non ha un ruolo protettivo sugli eventi cardiaci, ma addirittura ne aumenta il rischio.
Studio CAST: sperimentazione della flecainide (un antiaritmico) nei soggetti infartuati con aritmie ventricolari minacciose. Dimostra che un farmaco, che ha un effetto positivo su un end-point surrogato (aritmie), non necessariamente produce un beneficio clinico (eccesso di morti nel gruppo trattato attivamente rispetto al gruppo di controllo che assumeva placebo).
Studio ILLUMINATE: somministrazione di torcetrapib oppure placebo. Riportò miglioramento dell’assetto lipidico, ma vi fu aumento degli eventi cardiovascolari e della mortalità.
END-POINT GENERICI R SPECIFICI
E’ importante stabilire con quali criteri diagnostici vengono misurati gli end-point.
Per alcuni end-point non è necessario definire nulla (tutto o niente: decessi). Un caso particolare è però rappresentato dall’end-point che valuta non i decessi in sé (la cosiddetta overall mortality), ma i decessi specifici, perché in questo caso si potrebbero avere diverse interpretazioni. Questo problema è stato sottolineato negli studi di screening oncologici, in cui molti esperti sostengono che l’unico end-point corretto da valutare è la OVERALL MORTALITY e non quella specifica da cancro.
Decessi generici: valutazione con OVERALL MORTALITY.
Decessi specifici: valutazione con i decessi da patologia.
END-POINT PRIMARI E SECONDARI
END-POINT PRIMARIO: è di capitale importanza perché è quello sul quale viene tarata la potenza statistica ovvero è quello che definisce lo scopo e la precisa metodologioa dello studio stesso. Quando si studia il disegno di un trial si definiscono uno o più end-point primari che si andranno poi a misurare.
END-POINT SECONDARIO: durante uno studio è prassi comune definire uno o più end-point secondari. Sono motivo di indagine critica degli esperti di “critical appraisal”(in termini di EBM è l’esame sistematico di tutti gli aspetti di una ricerca per valutarne la validità, la rilevanza e l’importanza). Gli end-point secondari sono utili se vanno nella stessa direzione di quelli primari.
Non è detto che dal punto di vista clinico end-point primario sia più importante di quello secondario, ma statisticamente è l’end-point primario da considerare.
Esempio
Studio di 2 farmaci antiipertensivi con end-point primario di infarto non fatale.
Alla fine non vi sono differenze statistiche tra i due gruppi con end-point primario di infarto non fatale; ma vi è una diminuzione degli end-point secondari (stroke, eventi cardiovascolari fatali, interventi di rivascolarizzazione) in un gruppo. Gli autori concludono che il farmaco di quest’ultimo gruppo è più efficace. QUESTO E’ UN ERRORE perché l’end-point primario ha dato equivalenza e la riduzione degli end-point secondari richiederebbe conferme da altri studi.
IMPORTANTE: quando si valuta uno studio vedere sempre quali sono gli end-point primari e dubitare se i ricercatori hanno invece considerato gli end-point secondari.
END-POINT COMPOSTI
END-POINT COMPOSTI (o COMBINATI) è formato da una serie più o meno numerosa di end- point singoli; in pratica è un mega-evento costituito da vari eventi singoli.
Perché si usano gli end-point composti?
Si migliora la potenza statistica dello studio: per valutare un singolo evento bisognerebbe reclutare un numero molto elevato di pazienti, aumentando il numero degli eventi con l’escamotage dell’end-point si possono reclutare meno soggetti. Inoltre l’end-point composto permette di solito un follow-up più breve, Ancora l’end-point composto consente di evidenziare differenze statistiche che non sarebbero state rilevate valutando un end-point singolo.
Regole per gli end-point composti:
1) i singoli componenti devono essere importanti dal punto di vista clinico;
2) l’end-point composto deve essere stabilito prima di iniziare lo studio e non essere cambiato in itinere o a posteriori;
3) oltre a riportare i dati complessivi dell’end-point composto, si devono riportare anche i risultati dei singoli end-point. Se si trova una riduzione dell’end-point composto ed una contemporanea riduzione degli end-point singoli che lo compongono il risultato è attendibile. Se invece non vi è corrispondenza tra l’end-point composto e singoli elementi può essere più difficile interpretare correttamente i risultati.
Con l’end-point composto si migliora la potenza statistica dello studio: per valutare un singolo evento bisognerebbe reclutare un numero molto elevato di pazienti, aumentando il numero degli eventi con l’escamotage dell’end-point composto si possono reclutare meno soggetti. Inoltre l’end-point composto permette di solito un follow-up più breve. Ancora l’end-point composto consente di evidenziare differenze statistiche che non sarebbero state rilevate valutando un end-point singolo.
CRITERI DI ARRUOLAMENTO DEI PAZIENTI
1) “OPT-OUT”: soggetti invitati, con lettera o telefonata, a partecipare al trial e se non rispondono i ricercatori possono richiamarli.
2) “OPT-IN” : soggetti invitati, con lettera o telefonata, a partecipare al trial e se non rispondono i ricercatori non possono richiamarli.
Bisogna tener presente che i criteri di inclusione o di esclusione sono molto rigidi per cui i pazienti non corrispondono a quelli “veri” e “reali” che gli operatori sanitari vedono tutti i giorni nel proprio lavoro.
Il problema del campionamento consiste nell’avere la migliore garanzia di rappresentatività del campione. Ciò è soddisfatto da un’estrazione casuale dalla popolazione generale attraverso una procedura che dia a tutti i pazienti con una patologia determinata la stessa probabilità di essere inclusi nel campione. Nella realtà, il gruppo di pazienti studiabili presso qualunque centro clinico difficilmente soddisfa questa condizione. Un fattore di distorsione importante è la progressiva selezione di casi gravi o resistenti alle terapie convenzionali che si attua nel passaggio dai servizi medici di base a quelli via via più specializzati. Altre cause di perdita di rappresentatività della casistica possono essere i criteri di ingresso fissati dal protocollo e i casi di pazienti ammessi allo studio, ma esclusi dall’analisi dei risultati; questi fenomeni vengono definiti come sample distorsion bias.
NUMERO DEI PAZIENTI ARRUOLATI
Tanto più numeroso è il campione arruolato (SIMPLE SIZE) e tanto più lungo è il follow-up tanto più i risultati dovrebbero essere validi e affidabili.
La dimensione del campione è calcolata con formule tenendo conto:
1) della differenza degli outcome che si prevede nei due bracci dello studio (es. si prevede di ridurre il rischio dell’outcome del 20%);
2) della potenza statistica (STATISTICAL POWER, esprime la capacità dello studio di rilevare differenze tra i due bracci qualora esse effettivamente esistano);
3) l’ERRORE ALFA (la probabilità di considerare erroneamente non casuale, quindi significativa una differenza tra i due bracci in realtà dovuta al caso).
La numerosità bassa del campione può portare a risultati “falsamente significativi”o al contrario non avere la potenza statistica sufficiente per evidenziare differenze reali, cioè risultati “falsamente non significativi”. Infatti se un trattamento deve ridurre un evento che già di per sé non è frequente o se il vantaggio (la riduzione del rischio) è basso bisogna arruolare molti pazienti. La maggiore numerosità del campione viene quindi ritenuta, di solito, sinonimo di studio clinico importante. Questo, però, può portare anche a delle incongruenze: differenze marginali sono amplificate per moltissimi pazienti; si ottiene una significatività statistica, ma l’utilità clinica di questa informazione è discutibile. Aumentare la casistica può quindi essere un escamotage per evidenziare benefici piccoli.
GRUPPO CONTROLLO
Il controllo deve essere costituito da un placebo, randomizzato e simultaneo. I controlli storici possono generare false conclusioni dovute ai possibili cambiamenti nel tempo della patologia studiata, per effetto di fattori diversi dal trattamento impiegato.
RANDOMIZZAZIONE
La randomizzazione consiste nell’assegnazione casuale dei trattamenti con la costituzione di gruppi di trattamento omogenei cioè bilanciati per tutti quei fattori prognostici capaci di influire, indipendentemente dal trattamento, sull’esito clinico dei pazienti, es.: età, gravità della malattia, fattori di rischio, patologie concomitanti. La randomizzazione costituisce il mezzo principale per prevenire gran parte delle forme bias, cioè la distorsione sistematica dei risultati a favore di uno dei gruppi a confronto, inoltre fornisce il campionamento casuale condizione indispensabile per l’uso di test statisticamente significativi.
STUDIO IN DOPPIO CIECO O IN SINGOLO CIECO
Il doppio cieco è l’indispensabile condizione in cui né il paziente né il medico ricercatore sono a conoscenza di quale trattamento sia stato assegnato al paziente stesso. Il singolo cieco è la condizione in cui solo il paziente non conosce il trattamento assegnatogli. Queste tecniche hanno lo scopo di eliminare il possibile bias soggettivo del paziente e del medico.
CONFRONTO TRA IL RICONOSCIMENTO DI UN INTERVENTO TERAPEUTICO CONVENZIONALE ED OMEOPATICO
(colore blu per i percorsi in comune)
ITER PER IL RICONOSCIMENTO DI UN TRATTAMENTOTERAPEUTICO CONVENZIONALE |
ITER PER IL RICONOSCIMENTODI UN TRATTAMENTOTERAPEUTICO OMEOPATICO |
RICERCA DI BASEIpotesi: che una molecola sia efficace per una malattia e la si verifica.Dopo un periodo di tempo variabile di ricerca o a volte dopo una casuale osservazione di un effetto collaterale di un farmaco usato per altre patologie (molte volte la novità è solo una variante chimica di un farmaco nuovo). |
RICERCA DI BASEIpotesi: legge dei simili.La ricerca omeopatica richiede una metodologia di indagine sperimentale in parte differente da quella farmacologica tradizionale, sia per il suo presupposto teorico (legge dei simili), sia per la diversa considerazione (studio della totalità del malato) e per la complessa osservazione (esame dei sintomi più caratteristici e peculiari del malato e non della malattia) del malato, sia per la natura (dose minima e sua assimilazione al placebo) del farmaco (attualmente recettorialità sconosciuta con evidenza di azione clinica) e la sua modalità di azione (aggravamento omeopatico e ritorno di vecchi sintomi), sia per i tempi di osservazione (possono variare da pochi minuti, nelle malattie acute, a qualche giorno o mese o anno nelle malattie croniche). Ciò che deve essere esaminato è l’efficacia terapeutica del farmaco omeopatico ultradiluito e prescritto sulla base del corpus teorico-sperimentale omeopatico. |
Dimostrare la SAFETY: la non tossicità e la tollerabilità della molecola.
|
Dimostrare la SAFETY: la non tossicità e la tollerabilità della molecola. Il medicinale omeopatico ultradiluito attualmente è considerato placebo.L’FDA richiede come minimo:1) Un profilo farmacologico della sostanza;2) Lo studio della tossicità acuta del farmaco in almeno due specie di animali (un roditore e un non roditore);3) Lo studio a breve termine (2-3 settimane) della tossicità del farmaco.Perché lo studio sia scientificamente ed eticamente accettabile ed i suoi risultati interpretabili, è necessario che l’ipotesi di lavoro sia razionalmente fondata e formulata prima dell’esecuzione dello studio. Perché l’ipotesi sia saggiabile sperimentalmente occorre che sia unica, esente da ogni ambiguità e formulata in maniera specifica e operativa. I criteri di valutazione sono i mezzi idonei per esaminare l’ipotesi di lavoro. Perché lo studio produca risultati chiari è indispensabile che ipotesi, scopo dello studio e criteri di valutazione siano strettamente coerenti tra loro, questa coerenza costituisce probabilmente l’aspetto più critico nella progettazione di uno studio clinico.Ricerca con indagini fisico – chimiche per le caratteristiche della soluzione ultradiluita della sostanza in esame. Esistono in letteratura diversi studi che hanno affrontato il problema dell’azione di una sostanza ultradiluita.
|
RICERCA CLINICA1° FASE (studio preliminare su sicurezza e modalità di azione).
|
RICERCA CLINICA1° FASE (studio preliminare su sicurezza e modalità di azione).
|
2° FASE (studio terapeutico pilota).
|
2° FASE (studio terapeutico pilota).
|
3° FASE (studi terapeutici).Obiettivia) stabilire l’efficacia del farmaco;b) permettere la registrazione del farmaco per l’utilizzo in clinica;c) raccogliere tutte le informazioni sulla tossicità e gli effetti indesiderati.Verifica, con il coinvolgimento di centinaia o migliaia di malati, l’efficacia e la sicurezza del farmaco. Si usa uno studio controllato randomizzato.La sperimentazione clinica controllata è il metodo più efficiente e più largamente impiegato per valutare gli interventi terapeutici e profilattici, sotto il profilo dei loro effetti biologici e della loro efficacia e sicurezza di impiego clinico. Lo scopo immediato di una sperimentazione clinica controllata non è puramente conoscitivo, come avviene nelle scienze biomediche di base, ma piuttosto decisionale. Il risultato più importante di uno studio terapeutico non è tanto la misura assoluta della risposta al trattamento, quanto la decisione se il trattamento stesso vada adottato nella pratica clinica in quanto capace di migliorare la cura dei pazienti.L’ipotesi è saggiata statisticamente se: 1) formulata in termini comparativi (ad es. con placebo), 2) trasformata in ipotesi zero o nulla, cioè in ipotesi di eguaglianza dei termini del confronto (farmaco e placebo). L’esperienza viene quindi condotta per respingere l’ipotesi zero e attraverso un processo di falsificazione l’assimilazione del farmaco al placebo deve essere negata. Di conseguenza altre ipotesi alternative vengono accettate. Una di esse può essere che esiste una reale differenza tra il farmaco e il placebo; altre ipotesi alternative potrebbero riferirsi all’intervento di fattori estranei al trattamento (bias).
|
|
4° FASE (studi post-commercializzazione: condotti una volta che ne è stata stabilita l’efficacia del farmaco e questo è stato registrato ed immesso sul mercato).Obiettivia) studiare più accuratamente il profilo di tossicità del farmaco;b) valutarne gli effetti a lungo termine;c) verificare l’efficaci del farmaco nella pratica clinica su larga scala;d) studi di farmaco-economia.
|
4° FASE ( studi post-commercializzazione: condotti una volta che ne è stata stabilita l’efficacia del farmaco e questo è stato registrato ed immesso sul mercato).Obiettivia) studiare più accuratamente il profilo di tossicità del farmaco (assente nel rimedio omeopatico); b) valutarne gli effetti a lungo terminec) verificare l’efficacia del farmaco nella pratica clinica su larga scala d) studi di farmaco-economia. |