Metodologia della Ricerca Clinica
Lezione 1: Il Metodo Scientifico
Il metodo scientifico è un processo sistematico utilizzato per acquisire conoscenza attraverso:
L'osservazione
La formulazione di ipotesi
La sperimentazione
L'analisi dei dati
È il fondamento della ricerca scientifica e garantisce che le conclusioni siano basate su prove oggettive e verificabili.
Fasi principali del metodo scientifico
Osservazione: Rilevazione di un fenomeno naturale o di un problema da investigare.
Domanda: Formulazione di una domanda specifica basata sull'osservazione.
Ipotesi: Proposizione di una spiegazione possibile e testabile per il fenomeno.
Esperimento: Progettazione e realizzazione di test per verificare l'ipotesi, raccogliendo dati attraverso procedure controllate.
Analisi dei dati: Analisi delle misure effettuate, la loro descrizione riassuntiva, il calcolo della probabilità con cui è possibile generalizzare i risultati ottenuti.
Interpretazione dei risultati: Alla luce dei risultati già esistenti e di quelli ottenuti.
Discussione: Permette di comprendere se confermano o smentiscono l'ipotesi.
Conclusione: Formulazione di un giudizio basato sui risultati; se l'ipotesi è falsificata, si modifica o si formula una nuova ipotesi.
Comunicazione: Condivisione dei risultati con la comunità scientifica affinché possano essere verificati e riprodotti.
Tipi di Ragionamento Scientifico
Ragionamento Deduttivo: Va dal generale al particolare. Da un principio generale, traendone le conseguenze, deduco i casi particolari. Da assiomi (assunti non dimostrabili), ipotesi e premesse deduco i teoremi.
Ragionamento Induttivo: Va dal particolare al generale. Dall'osservazione di più casi particolari si trae un principio generale.
Verificabilità e Falsificabilità
Posso portare N verifiche di una teoria, ma potrebbe bastare un caso per falsificarla. Le teorie scientifiche sono vere al meglio delle attuali conoscenze.
Lezione 2: La Misura in Ricerca
La ricerca scientifica si basa sulla misurazione di alcune variabili. La misurazione può avvenire attraverso uno strumento o una scala o un test.
Campionamento
Popolazione: Una popolazione consiste nell'intero insieme di individui, oggetti, osservazioni, o altre entità che hanno qualcosa in comune (ad es. tutti gli uomini italiani di età compresa fra 15 e 18 anni).
Campione: Sottoinsieme di una popolazione che ne conserva le caratteristiche peculiari, replicandone (in modo approssimato) anche l'incidenza delle stesse.
Dimensione del campione (N): Il numero di membri della popolazione che compare nel campione.
Il campione deve essere rappresentativo della popolazione.
Il campionamento è un aspetto fondamentale perché spesso le scoperte e le misure fatte su un campione servono a predire ciò che accade nella popolazione.
Dati e Variabili
Tipi di dati
Dati personali comuni: Nome, cognome, data di nascita, genere, e-mail, cellulare, titolo di studio.
Categorie particolari di dati personali: Altezza, peso, battito cardiaco, dati di natura psicologica, spiritualità, orientamento politico.
Dati clinici/sanitari: Riguardano lo stato di salute/malattia di un individuo.
Dato: Informazione elementare che può essere rappresentata in forma numerica, testuale o simbolica. La forma in cui va rappresentato deve essere sistematica e permette una schematizzazione racchiudibile in un database.
Drop-out: Paziente viene escluso durante lo studio o si ritira dallo studio se dopo averlo iniziato non lo completa.
Intention to treat: Se un paziente non completa il trattamento assegnato permane comunque nel gruppo in cui è stato assegnato.
Outliers: Paziente viene escluso a posteriori dallo studio perché risponde in modo diverso dagli altri (bisogna definire prima cosa vuol dire "diverso").
Variabile
Una variabile è un'entità che può assumere diversi valori all'interno di un determinato insieme. Viene utilizzata per rappresentare quantità che possono cambiare nel tempo o in relazione ad altri fattori.
Variabile indipendente: Variabile il cui valore è ipotizzato non dipendere da altre variabili prese in considerazione nello studio o nell'esperimento. Spesso utilizzata come input o causa di un fenomeno (ad es.: il tempo può essere una variabile indipendente se stiamo studiando come cambia un fenomeno nel tempo).
Variabile dipendente: Variabile il cui valore è ipotizzato dipendere da una o più variabili indipendenti. Rappresenta l'output o l'effetto di un fenomeno (ad es.: in uno studio sulla crescita delle piante, l'altezza della pianta può dipendere dalla quantità di acqua ricevuta).
Tipologie di Variabili
Nominale: I valori non hanno un ordine (ad es.: il sesso, il gruppo sanguigno, il paese di nascita).
Ordinale: I suoi valori hanno un ordine, ma anche quando rappresentato in numero questo non rappresenta una reale misura, ma un rango al quale il soggetto appartiene in una scala ordinata (ad es.: i valori delle scale psicologiche o cliniche).
Continua: Sono misure reali, i numeri sono davvero numeri a volte di cose contate e quindi numeri interi oppure di numeri che possono anche essere decimali e misurati con strumenti di misura (ad es.: il tempo di risposta dei soggetti ad uno stimolo che si misura in millisecondi con un cronometro). Può assumere un numero INFINITO di valori in un intervallo (tempi di reazione, età, peso).
Discreta: Può assumere un numero FINITO di valori in un intervallo (numero di figli, numero di errori in un compito, numero di risposte giuste).
Scale di Misura
La misurazione dei fenomeni psicologici avviene attraverso l'uso di scale di misura che servono a quantificare variabili psicologiche come l'intelligenza, la personalità o le abilità cognitive. Le scale di misura si distinguono in base alle loro proprietà matematiche e statistiche. Secondo la classificazione di Stevens (1946) esistono 4 tipi di scale:
Scala nominale: Classifica gli elementi in categorie senza un ordine specifico.
Esempi: Appartenenza Politica (Destra = 1, Centro = 2, Sinistra = 3), Nazionalità (Italiana = 1, Francese = 2, Inglese = 3).
Ripartizione Dicotomica: Livello più basso di classificazione possibile (Si/No, Genere: M/F, Risposta giusta/sbagliata).
Proprietà Formali:
Equivalenza tra i membri all'interno di una stessa categoria.
Simmetria: Se A = B allora B = A (es. se A è italiano ed è uguale a B, allora anche B è italiano).
Transitività: Se A = B e B = C allora A = C (es. se A è italiano ed è uguale a B e B è uguale a C, allora anche C è italiano).
NON Equivalenza tra i membri di categorie diverse.
Simmetria: Se A ≠ B allora B ≠ A (es. se A è italiano ed è diverso da B, allora B non è italiano).
Non Transitività: Se A ≠ B e B ≠ C, A può essere indifferentemente uguale o diverso da C (es. se A è Italiano ed è diverso da B e B è diverso da C, non possiamo sapere se C è italiano… potrebbe essere tedesco).
Statistiche: Frequenze (conteggio dei casi es. quanti coniugati, quanti celibi, quanti divorziati…). Moda.
Procedure Statistiche Applicabili: Test non parametrici che si basano sul conteggio delle frequenze.
Scala ordinale: Gli elementi sono ordinati secondo un criterio, ma la distanza tra le categorie non è necessariamente uniforme (ad es.: livelli di soddisfazione (basso, medio, alto), classifica in una gara).
Il numero associato alla categoria o evento rappresenta solo la posizione e NON la quantità della caratteristica interessata (es. superiore/inferiore, prima/dopo, maggiore/minore…).
Se i numeri associati alla categoria differiscono di una unità da un'altra, non è possibile affermare che una sia il doppio o la metà di un'altra.
Esempi: Titolo di studio (Licenza elementare = 5, Licenza media = 4, Diploma = 3, Laurea = 2, Dottorato = 1), Valutazione del livello di una performance (Bassa = 1, Media = 2, Alta = 3).
Proprietà Formali:
Equivalenza tra i membri all'interno di una stessa categoria.
Simmetria: se A = B allora B = A (es. se A è laureato ed è uguale a B, allora anche B è laureato).
Transitività: se A = B e B = C allora A = C (es. se A è laureato ed è uguale a B e B è uguale a C, allora anche C è laureato).
Relazione d'ordine tra i membri di categorie diverse.
Asimmetria: se A > B allora B < A e non B > A (es. se A è laureato ed è maggiore di B, allora B non è laureato ed ha un titolo di studio minore di A).
Transitività: se A > B e B > C, allora A > C (es. se A è laureato ed è maggiore di B e B è maggiore di C, allora C avrà un titolo di studio [licenza media] minore di A [laurea], e anche di B [diploma]).
Statistiche: Mediana, Percentile.
Procedure statistiche applicabili: Test non parametrici che si basano sul conteggio delle frequenze e sull'ordinamento o rango.
Scala a intervalli equivalenti: Le differenze tra i valori sono significative e uguali tra loro, ma non esiste uno zero assoluto (che indica l'assenza della proprietà misurata) (ad es.: una temperatura di 0°C non significa "assenza di temperatura", punteggi nei testi di intelligenza (QI)).
Il numero rappresenta la quantità di una data caratteristica posseduta dal soggetto in esame. Possono assumere anche il valore 0, ma è convenzionale (non assoluto).
Ciò non permette di stabilire dei rapporti diretti di equivalenza (20 è il doppio di 10). Possiamo affermare che la differenza tra 2 e 4 è uguale alla differenza tra 3 e 5, ma NON possiamo dire che 4 è il doppio di 2.
Proprietà Formali:
Equivalenza tra i membri sulla stessa modalità della scala (Simmetrica, Transitiva).
Relazione d'ordine tra membri su modalità diverse (Asimmetrica, Transitiva).
Costanza della differenza tra intervalli: Tra 1 e 2 c'è la stessa distanza tra 3 e 4. Tra 10 e 20 c’è la stessa distanza che tra 70 e 80.
Statistiche: Media, Deviazione standard, Somma e sottrazione dei valori.
Procedure Statistiche Applicabili: Test parametrici.
Scala a rapporti equivalenti: Tutte le proprietà della scala intervallare, ma include anche uno zero assoluto, che indica l'assenza della caratteristica misurata (ad es: nella scala della temperatura Kelvin, 0K corrisponde all'assenza totale di energia termica, altezza, peso, tempo di reazione).
La presenza dello zero assoluto permette di fare confronti di tipo moltiplicativo e rapporti. La possibilità di fare confronti del tipo "il doppio di" o "la metà di".
Proprietà Formali:
Equivalenza tra i membri sulla stessa modalità della scala (Simmetrica, Transitiva).
Relazione d'ordine tra membri su modalità diverse (Asimmetrica, Transitiva).
Costanza del rapporto tra intervalli: Tra 1 e 2 c'è la stessa distanza che tra 3 e 4.
Costanza del rapporto tra valori: 2 è il doppio di 1; 2 è la metà di 4; 3 è il triplo di 1.
Statistiche: Tutte, inclusi rapporti (divisione e moltiplicazione).
Procedure Statistiche Applicabili: Test parametrici.
Ogni scala possiede le caratteristiche di quella che la precede. Dunque è possibile abbassare i livello della scala di misura (es. trasformare una scala a intervalli in una scala ordinale).
Una caratteristica psicologica qualitativa può essere quantificata (Passaggio da un livello Qualitativo --> ad un livello Quantitativo es. Aggressività può essere definita in termini di Presente/Assente (Scala Nominale), Bassa, Media, Altra (Scala Ordinale), Numero di comportamenti agressivi (Scala a Rapporti)).
Statistica
La statistica è la disciplina che si occupa della raccolta, organizzazione, analisi, interpretazione e presentazione dei dati. Il suo obiettivo principale è estrarre informazioni significative dai dati per:
Prendere decisioni informate
Individuare tendenze
Formulare previsioni
La statistica si divide in due principali categorie:
Statistica descrittiva: Si occupa di riassumere e rappresentare i dati attraverso tabelle, grafici, medie, mediana, moda e misure di dispersione come la varianza e la deviazione standard. Include i metodi per:
Raccogliere i dati
Presentare i dati
Sintetizzare i dati
Ci di come riportare i dati in: Tabelle, Grafici, Indici
Statistica inferenziale: Utilizza i dati di un campione per fare previsioni o inferenze su un'intera popolazione, attraverso strumenti come test di ipotesi, intervalli di confidenza e regressione. Permette di associare un valore di probabilità (p) all'ipotesi nulla che le differenze siano casuali, complementarmente al fatto che invece le differenze siano dovute a uno specifico fattore sotto analisi.
Frequenza
Si intende per Frequenza il numero delle volte in cui un determinato evento si verifica (es. 10 partecipanti rispondono SI (codice = 1) 4 volte e NO (codice = 0) 6 volte -> "1" = 4, "0" = 6).
Tipologie
Frequenza Assoluta (): Numero di volte in cui un valore o una classe sono presenti in un campione di dati.
Frequenza Relativa (): Frequenza assoluta normalizzata (divisa) per il numero totale di casi o osservazioni (va da 0 a 1).
Frequenza Percentuale (): Frequenza relativa moltiplicata per 100 (va da 0 a 100%).
Frequenza Cumulata: Frequenza di una classe sommata alle frequenze di tutte le classi precedenti o successive (ad es.: numero di persone morte per Covid che avevano più di 80 anni, più di 70 anni, più di 60 anni…). Esempio:
Tabella a doppia entrata
Utile nello studio di due variabili quando si è interessati ad analizzare come si distribuiscono le frequenze nelle diverse categorie di una variabile in funzione delle diverse categorie dell'altra variabile.
Composta da r righe (tante quante sono le categorie o classi della prima variabile) e c colonne (tante quante sono le categorie o le classi della seconda variabile).
All'incrocio tra ciascuna categoria per riga con ciascuna per colonna si trovano le frequenze di occorrenza simultanea dette Frequenze Interne.
Le frequente totali di ciascuna riga, ottenute sommando le frequenze interne, sono dette Frequenze Marginali per Riga.
Analogamente, le frequenze totali di ciascuna colonna sono indicate come Frequenze Marginali per Colonna.
Esempio: Vogliamo studiare 140 donne intervistate mettendo in relazione Occupazione (2 categorie: Casalinghe, Lavoratrici) e Titolo di studio (3 categorie: A = licenza media, B = diploma, C = laurea). La distribuzione di frequenza potrebbe risultare come segue all'interno di una tabella di contingenza 2 x 3.
Rappresentazioni grafiche
Le distribuzioni di frequenza possono essere rappresentate graficamente in vari modi. Nella ricerca scientifica vengono prevalentemente usati:
Istogramma: Rappresentazione grafica su due assi cartesiani nella quale si riportano le frequenze in colonne giustapposte. Utilizzato per rappresentare la distribuzione di variabili quantitative raggruppate in classi.
Assi:
Ascisse: Troviamo le modalità (valori) della variabile ordinate in modo crescente
Ordinate:
Distinzione tra Variabili quantitative con classi di uguale ampiezza: ordinata = frequenze (Frequenze direttamente proporzionali all'altezza dell'istogramma)
Variabili quantitative con classi di ampiezza diversa: ordinata ≠ frequenze. Necessario calcolare l'altezza del rettangolo attraverso la seguente formula:
Grafico a barre: Usato nel caso di variabili categoriali (Nominali o Ordinali).
Assi:
Ascisse: Vengono riportare le modalità (le diverse categorie) che la variabile può assumere.
Ordinate: Le frequenze.
Le basi dei rettangoli del grafico a barre sono per convenzione di uguale ampiezza e non adiacenti.
Una serie di dati numerici è compiutamente descritta da 3 proprietà principali: Tendenza centrale o posizione, Dispersione o variabilità, Forma.
Indicatori di Tendenza Centrale e di Dispersione
Le Misure di Tendenza Centrale servono per individuare il valore intorno al quale i dati sono raggruppati. La tendenza centrale è la misura più appropriata per sintetizzare l'insieme delle osservazioni.
Indicatore di Dispersione: Valore o parametro capace di rappresentare la variabilità dei dati (la loro dispersione). Indicatore di Dispersione può essere ottenuto solamente su scale di misura a Intervalli Equivalenti a Rapporti Equivalenti. I più importanti indicatori tengono conto della distanza di ciascun valore della distribuzione dalla media della medesima distribuzione (Scarti dalla media).
Indicatori più comuni e maggiormente utilizzati sono:
Varianza (): Media al quadrato degli scarti dalla media. Non è mai negativa. Minore è la varianza più i casi sono concentrati attorno alla media. Maggiore è la varianza più i casi sono dispersi attorno alla media. Non utilizza la stessa unità di misura della media.
Deviazione Standard (): Scarto quadratico medico (radice quadrata della varianza). Ha la stessa unità di misura della media. Indica di quanto mediamente i dati osservati si discostano dalla loro media. Esempio: altezza media di un gruppo = 170 cm, cm
Scarto Interquartile (IQR): Indicatore di dispersine basato sui quartili. Dato dalla differenza tra il terzo e il primo quartile. . Richiede che la variabile sia misurata su una scala metrica a Intervalli a Rapporti.
Indicatori di Posizione: Parametro descrittivo, capace di indicare la posizione che un valore occupa all'interno di una distribuzione di frequenza. Richiede che la variabile sia misurata almeno su una scala ordinale (può essere superiore). Necessita di una distribuzione ordinata di frequenza. Per conoscere la posizione che un valore occupa all'interno di una distribuzione di frequenza si utilizzano i Quantili.
Quartili: Dividono la distribuzione in quattro parti uguali. Sono tre:
1° quartile (Q1): Sotto il quale ricade il 25% dei casi.
2° quartile (Q2): Sotto il quale ricade il 50% dei casi.
3° quartile (Q3): Sotto il quale ricade il 75% dei casi.
Decili: Dividono la distribuzione in dieci parti uguali. Sono nove:
1° decile (D1): Sotto il quale ricade il 10% dei casi.
2° decile (D2): Sotto il quale ricade il 20% dei casi.
3° decile (D3): Sotto il quale ricade il 30% dei casi.
…
Centili: Dividono la distribuzione in cento parti uguali. Sono novantanove:
1° centile (C1): Sotto il quale ricade l'1% dei casi.
2° centile (C2): Sotto il quale ricade il 2% dei casi.
3° centile (C3): Sotto il quale ricade il 3% dei casi.
…
Probabilità
Probabilità Classica: Probabilità di un evento è la proporzione tra le volte che l'evento può teoricamente accadere e tutte le possibili occorrenze di tutti i possibili eventi. Legata al modello matematico.
Probabilità Frequentista: Probabilità di un evento è la proporzione tra le volte che l'evento accade in una lunga serie (teoricamente infinita) di ripetizioni (indipendenti) dell'esperimento. Legata ai dati.
Probabilità Bayesiana: Probabilità di un eventi è il grado di fiducia che un agente dotato di intelligenza razionale assegna alla possibilità che l'evento accada. Misto tra modello e dati.
Ipotesi Nulla
L'ipotesi nulla (H0) afferma che non ci sono reali differenze tra gruppi di dati osservati, le differenze apparenti sono solo dovute al caso. La p riportata negli articoli è la probabilità che l'ipotesi nulla non sia vera.
Si può rigettare l'ipotesi nulla se p è al di sotto di un livello alfa (<5%) perché c'è significativa evidenza contro di esso (ovvero >95% che H0 sia falsa).
Se p = 0.03 allora H0 è vera al 3% e se H1 (ipotesi dello studio) è l'alternativa essa è vera al 97%.
Se p > 0.05 H0 è vera e H1 è falsa.
Se p < 0.05 H0 è falsa e H1 è vera.
Distribuzione Normale e Normale Standardizzata
Distribuzione Normale:
Curva normale o curva di Gauss: distribuzione teorica di punteggi in una popolazione.
Rappresentata da una curva continua a forma di campana (gaussiana).
Teorema del limite centrale: La somma (o la media) di variabili casuali con media e varianza finite tende a una distribuzione normale al tendere di all'infinito.
Riguarda solo le variabili metriche continue.
Misure almeno su scale a intervalli equivalenti.
Proprietà:
Infinita: va da a .
Simmetrica rispetto alla Y massima.
Unimodale: ha una sola moda.
Media = Moda = Mediana.
Asintonica: si avvicina all'asse delle X senza mai toccarlo.
I punti di flesso si trovano in prossimità di valori di ad una deviazione standard (DS) dalla media.
Interamente definita da (media) e (deviazione standard).
Conoscendo e , possiamo stimare:
Il valore di corrispondente a qualsiasi valore di .
L'area compresa tra due qualsiasi valori di .
Distribuzione Normale Standardizzata:
Per usi pratici, si ricorre alla curva normale standardizzata.
L'equazione della curva dipende da un solo parametro: Zeta ().
Parametri di :
Per ogni valore della variabile originaria, esiste sulla curva normale standardizzata un corrispondente valore di .
Normalità dei Dati
È indispensabile verificare che i dati osservati rispettino l'assunzione di una distribuzione normale, poiché molte analisi statistiche si basano su questa assunzione.
Verifica attraverso:
Indicatori di normalità:
Asimmetria (Skewness):
Simmetria: Media, Mediana e Moda coincidono.
Valori prossimi allo 0 indicano l'assenza di asimmetria.
In psicologia, valori compresi tra -1 e +1 sono considerati approssimativamente normali.
Curtosi (Kurtosis):
Misura del grado di "appiattimento" di una distribuzione.
Valori prossimi allo 0 indicano l'assenza di curtosi (distribuzione mesocurtica).
In psicologia, valori compresi tra -3 e +3 sono considerati approssimativamente normali.
Test di normalità:
Test di Shapiro-Wilk:
Verifica l'ipotesi nulla che i dati osservati siano distribuiti normalmente.
La statistica può assumere valori da 0 a 1.
Un valore prossimo allo 0 indica che il test rifiuta l'ipotesi nulla.
Un valore prossimo all'1 indica che il test accetta l'ipotesi nulla (i dati sono distribuiti normalmente).
Outliers:
Casi che rappresentano valori anomali o aberranti.
Box plot per la loro individuazione.
Rappresentato tramite un rettangolo diviso in due parti, da cui escono due segmenti.
Il rettangolo è delimitato dal 1° al 3° quartile e diviso al suo interno dalla mediana (2° quartile).
I segmenti (baffi) sono delimitati da () volte lo scarto interquartile ().
Qualsiasi osservazione il cui valore cade al di fuori di questo intervallo viene tracciata con un cerchio o un punto anziché essere coperta dai "baffi".
Probabilità
La probabilità è una misura dell'incertezza associata a un evento, indicando quanto è plausibile che l'evento si verifichi.
Si esprime con un numero compreso tra 0 e 1, dove 0 indica un evento impossibile e 1 un evento certo.
Diverse interpretazioni della probabilità:
Probabilità classica:
Si basa sul principio di equiprobabilità, ovvero quando tutti gli esiti di un esperimento sono ugualmente probabili.
Formula:
Esempio: La probabilità di ottenere testa lanciando una moneta è .
Probabilità frequentista:
Si basa sulla frequenza relativa di un evento in un numero elevato di prove ripetute.
Formula:
Esempio: Se lanci una moneta 1000 volte e ottieni testa 502 volte, la probabilità stimata di ottenere testa è
Probabilità bayesiana:
Interpreta la probabilità come una misura del grado di credenza di un evento, che può essere aggiornata con nuove informazioni.
Formula: Teorema di Bayes .
Esempio: Se un test diagnostico è positivo, la probabilità che una persona abbia realmente la malattia dipende:
Sulla probabilità iniziale (prevalenza della malattia).
Sulla sensibilità e specificità del test.
Test Inferenziali
I test inferenziali sono strumenti statistici utilizzati per trarre conclusioni su una popolazione a partire da un campione di dati.
Obiettivi dei test inferenziali:
Verificare ipotesi: Si testa l'ipotesi nulla () rispetto a un'ipotesi alternativa ().
Generalizzare i risultati: Si usa un campione per fare inferenze sulla popolazione.
Misurare l'incertezza: Si calcola la probabilità che un risultato sia dovuto al caso, spesso con il p-value.
La p che esce da questi test è la probabilità che l'ipotesi nulla sia vera.
Se è molto bassa (<0.05), si può rigettare l'ipotesi nulla.
Principali tipi di test inferenziali:
Test parametrici: Richiedono ipotesi sulla distribuzione dei dati.
Usati quando i dati seguono una distribuzione normale e si conoscono alcuni parametri della popolazione.
Test t di Student:
Per confrontare medie tra due gruppi.
Esempio: Confrontare il punteggio medio di studenti di due scuole diverse.
ANOVA (Analisi della Varianza):
Per confrontare più di due medie.
Esempio: Verificare se tre diversi metodi di insegnamento influenzano il rendimento degli studenti in modo diverso.
Test Z:
Per confrontare una media con un valore noto o due proporzioni.
Esempio: Confrontare la media di un nuovo prodotto con lo standard di mercato.
Test non parametrici: Non richiedono ipotesi sulla distribuzione.
Usati quando i dati non seguono una distribuzione normale o quando i campioni sono piccoli.
Test di Mann-Whitney:
Equivalente non parametrico del test t per due gruppi.
Esempio: Confrontare il livello di soddisfazione tra clienti di due negozi senza assumere che i punteggi siano distribuiti normalmente.
Test di Kruskal-Wallis:
Equivalente non parametrico dell'ANOVA.
Esempio: Verificare se tre gruppi di pazienti rispondono in modo diverso a un trattamento senza assumere normalità.
Test del chi-quadro:
Per confrontare frequenze osservate e attese.
Esempio: Verificare se il colore degli occhi è distribuito ugualmente tra uomini e donne.
Come funzionano i test inferenziali:
Si formula un'ipotesi nulla () e un'ipotesi alternativa ().
Si sceglie un test appropriato in base al tipo di dati e distribuzione.
Si calcola un valore statistico (es. , , ).
Si confronta con un valore critico o si calcola il p-value.
Se p < 0.05, si rifiuta .
Se p > 0.05, non si rifiuta .
Errori nei Test di Ipotesi
Errore di I tipo (falso positivo):
Si verifica quando si rifiuta l'ipotesi nulla anche se è vera.
Si conclude che c'è un effetto quando in realtà non c'è.
Il livello di significatività (solitamente 5%) rappresenta la probabilità di commettere questo errore.
è la probabilità con cui si accetta di commettere un errore di I tipo, dunque il livello sotto il quale si rigetta l'ipotesi nulla (di solito ).
Errore di II tipo (falso negativo):
Si verifica quando non si rifiuta l'ipotesi nulla anche se è falsa.
Si conclude che non c'è effetto quando in realtà c'è.
Si verifica quando un test non riesce a rilevare un effetto che esiste realmente.
La probabilità di commettere questo errore è indicata con , e la sua complementarità è chiamata potenza del test (la capacità di individuare un effetto quando c'è).
è la probabilità con cui si accetta di commettere un errore di II tipo, ovvero la probabilità di non rifiutare l'ipotesi nulla quando invece è falsa.
Potenza del test:
È la probabilità di rifiutare correttamente quando è falsa, ovvero la capacità del test di individuare un effetto reale.
Potenza = .
Se , allora la potenza del test è , cioè l'80%.
Una potenza elevata significa che il test è efficace nell'individuare una differenza reale.
Come aumentare la potenza di un test (e ridurre ?)
Aumentare la dimensione del campione: Più dati rendono il test più sensibile nel rilevare differenze reali.
Utilizzare test più precisi: Alcuni test statistici hanno maggiore potenza per determinati tipi di dati.
Aumentare l'effetto reale (): Se la differenza tra gruppi è grande, sarà più facile da rilevare.
Ridurre la variabilità () nei dati: Se i dati sono meno dispersi, sarà più facile individuare un effetto.
Scegliere un livello di significatività () più alto: Aumentare (es. da 0.05 a 0.10) riduce , ma aumenta il rischio di errore di I tipo.
Equilibrio tra i due errori:
Se si riduce il rischio di errore di I tipo (), si aumenta il rischio di errore di II tipo ().
Un buon test statistico cerca di minimizzare entrambi, aumentando la potenza del test (ad esempio, aumentando il numero di dati raccolti).
Principali Test Statistici
Test t:
Un test statistico usato per confrontare le medie di due gruppi rispetto alle loro varianze e verificare se la differenza osservata è significativa o dovuta al caso.
Può essere a campioni indipendenti o accoppiati; può essere a 1 o 2 code.
ANOVA (Analisi della Varianza):
Metodo per confrontare le medie di tre o più gruppi (attraverso la varianza tra le medie) e capire se almeno uno di essi è significativamente diverso dagli altri (comparandoli alle varianze intra-gruppi).
Utile quando il test t non è sufficiente perché coinvolge più di due gruppi.
Può essere con fattori between subjects, con fattori within-subject (e si parla di Anova a Misura Ripetute) o con entrambi (Anova Mista).
Correlazione:
Misura la relazione tra due variabili, in che direzione variano e quanto.
Se variano insieme (positiva).
Se variano in direzioni opposte (negativa).
Se in modo indipendente (nessuna correlazione).
Test del Chi-quadro:
Test usato per verificare se esiste un'associazione tra due variabili categoriche (es. si/no, maschio/femmina).
Confronta le frequenze osservate con quelle attese.
Intra-Class Correlation Coefficient (ICC):
Misura di affidabilità tra osservatori o misurazioni ripetute.
Indica quanto siano simili tra loro le valutazioni fatte da persone diverse o in momenti diversi.
Alfa di Cronbach:
Indice che misura l'affidabilità interna di un test o di un questionario, indicando quanto siano coerenti tra loro le domande che misurano lo stesso concetto.
Più vicino è a 1, più il test è affidabile (di solito come soglia di accettabilità del test si sceglie 0.7).
Epidemiologia
Prevalenza:
Percentuale di persone che hanno una certa condizione in un dato momento sulla popolazione a rischio.
Esempio: il numero di persone con diabete in una città oggi rispetto alla popolazione totale.
Incidenza:
Numero di nuovi casi di una malattia che si verificano in un certo periodo di tempo all'interno di una popolazione a rischio.
Esempio: il numero di nuove diagnosi di influenza in un anno sul numero di persone non vaccinate.
Sensibilità:
Capacità di un test diagnostico di identificare correttamente i malati, cioè il numero di veri positivi rispetto al totale delle persone malate.
Più alta è la sensibilità, minori saranno i falsi negativi.
Specificità:
Capacità di un test diagnostico di identificare correttamente i sani, cioè il numero di veri negativi rispetto al totale delle persone sane.
Più alta è la specificità, minori saranno i falsi positivi.
Curva ROC (Receiver Operating Characteristics):
Grafico che mostra quanto un test diagnostico sia efficace nel distinguere tra malati e sani.
Più la curva è vicina all'angolo in alto a sinistra, migliore è il test.
Sull'asse delle x riporta "1-Specificità" su quello delle y la Sensibilità.
Risk Ratio (Rapporto di rischio):
Valore che confronta le incidenze di un evento (es. malattia) tra due gruppi, solitamente chi è esposto a un fattore di rischio e chi non lo è.
Se è maggiore di 1, il rischio è più alto nel gruppo esposto.
Odds Ratio (Rapporto di probabilità):
Valore che confronta le probabilità che un evento accada in due gruppi.
Utile in studi caso-controllo, mostra quanto è probabile che un gruppo abbia una certa caratteristica rispetto a un altro.
Evidence Based Medicine
Evidence Based Medicine (EMB): "L'uso coscienzioso, esplicito e giudizioso delle migliori prove attuali nel prendere decisioni riguardo i singoli pazienti".
Approccio EMB: Modello a 5 fasi:
Porre domande cliniche cui si può rispondere.
Cercare le prove attraverso una metodologia ripetibile, valida e verificabile.
Valutare criticamente le prove per la loro validità e utilità.
Prendere una decisione, integrando le prove con la propria competenza clinica e con i valori del paziente.
Valutare (più volte) ciò che si è fatto.
Modelli di Classificazione
ICD (International Classification of Diseases)
Sviluppato dalla WHO.
Sistema globale di classificazione delle malattie, disturbi e condizioni di salute.
Versione attuale: ICD-11, adottata nel 2022.
Usato in ambito medico e sanitario per:
Diagnosi
Raccolta di dati epidemiologici
Codifica delle malattie a livello internazionale
Include disturbi fisici e mentali (a differenza del DSM-5).
ICF (International Classification of Functioning, Disability and Health)
Sviluppato dalla WHO.
Non classifica le malattie, ma il funzionamento e la disabilità di una persona nella sua vita quotidiana.
Considera fattori biologici, ambientali e sociali che influenzano la salute.
Aiuta a valutare la qualità della vita e la partecipazione sociale di una persona con una condizione medica.
DSM-5 (Diagnostic and Statistical Manual of Mental Disorders)
Sviluppato dall'APA (American Psychiatric Association).
Manuale principale per la diagnosi dei disturbi mentali.
Si concentra esclusivamente sulla psichiatria e psicologica clinica.
Fornisce criteri diagnostici specifici per ogni disturbo mentale, basati su ricerca e studi clinici.
Più diffuso negli Stati Uniti e nei paesi che seguono il modello americano.
Articoli Scientifici
Pubblicazioni accademiche che riportano:
Risultati di ricerca
Revisioni della letteratura
Nuove ipotesi in un determinato campo
Tipologie
Articoli di ricerca originale
Scopo: Presentano per la prima volta risultati di una ricerca sperimentale o osservazionale.
Struttura tipica:
Introduzione: Contesto e obiettivi della ricerca.
Materiali e Metodi: Descrizione della metodologia usata.
Risultati: Dati ottenuti e analisi.
Discussione: Interpretazione dei risultati e implicazioni.
Articoli di revisione
Scopo: Sintetizzano e analizzano studi precedenti su un determinato argomento.
Tipi di review:
Narrativa: Fornisce un quadro generale senza metodologia rigorosa.
Sistemica: Analizza studi selezionati con criteri definiti.
Meta-analisi: Combina dati quantitativi da diversi studi per ottenere conclusioni statistiche più robuste.
Articoli di case report
Scopo: Descrivono un caso clinico particolare, spesso raro o con una risposta inaspettata a un trattamento.
Struttura:
Presentazione del caso
Discussione: Implicazioni cliniche
Articoli di case series
Scopo: Presentano una serie di casi simili per identificare tendenze o pattern.
Differenza rispetto al case report: Analizzano più pazienti invece di uno solo.
Lettere all'editore
Scopo:
Commentano articoli pubblicati.
Segnalano errori.
Presentano brevi osservazioni scientifiche.
Brevi e dirette, spesso con massimo 500-1000 parole.
Articoli metodologici
Scopo: Descrivono nuove tecniche sperimentali, strumenti o metodi di analisi.
Importanti per la ricerca, perché migliorano le procedure di raccolta e analisi dei dati.
Articoli di opinione o prospettiva
Scopo: Presentano opinioni personali di esperti su argomenti emergenti.
Più soggettivi ma basati su evidenze scientifiche.
Articoli editoriali
Scopo: Introducono un numero speciale di una rivista o discutono tematiche di attualità nel settore scientifico.
Spesso scritti dai redattori delle riviste scientifiche.
Tipi di Esperimenti
Osservazionali
Metodo:
Osservo.
Prendo dati.
Traggo delle conclusioni.
Esempio: Correlazione tra variabili X e Y.
Sperimentali
Metodo:
Faccio un esperimento.
Devo controllare che migliorano di più di chi viene trattato in un altro modo.
Prospettico: Ho deciso tutto prima e poi inizio lo studio.
Retrospettivo: Analizzo dei dati che già esistevano.
Longitudinale: Si misura pre e post qualcosa in un gruppo.
Cross-Sectional: Si misura una volta sola in più gruppi.
Case Report: Resoconto dettagliato dei sintomi, segni, diagnosi, trattamento e follow-up di un singolo paziente. Di solito descrivono un evento insolito o nuovo e, in quanto tali, rimangono una delle pietre miliari del progresso medico e forniscono molto nuove idee in medicina.
Randomized Controlled Trial (RCT)
Tipo di esperimento clinico in cui i partecipanti sono assegnati casualmente a uno o più gruppi di trattamento per valutare l'efficacia di un intervento.
La presenza di un gruppo di controllo è fondamentale per garantire la falsificabilità.
Spesso viene descritto anche il livello di "cecità".
Single-blind: I valutatori clinici dei pazienti non sanno a che gruppo appartengono i pazienti.
Double-blind: Nè i valutatori nè i pazienti sanno a che gruppo appartengono.
Triple-blind: Come il double blind ma neanche lo statistico sa quali siano gruppi.
Studio Cross-Over
Tipo di studio clinico in cui ogni partecipante riceve più di un trattamento in momenti diversi, seguendo un ordine prestabilito e con un periodo di washout (intervallo) tra un trattamento e l'altro per eliminare eventuali effetti residui.
Caratteristiche principali
Ogni partecipante riceve entrambi i trattamenti in momenti diversi.
Assegnazione randomizzata dell'ordine in cui i trattamenti vengono somministrati.
Periodo di pausa tra un trattamento e l'altro (washout) per evitare effetti residui del trattamento precedente.
Maggiore potenza statistica, poiché ogni individuo funge da proprio controllo.
Pubblicazioni Scientifiche
Peer Review
Processo di valutazione scientifica in cui un articolo viene esaminato da esperti del settore (peer reviewers) prima della pubblicazione in una rivista accademica.
Tipi di peer review
Single-blind: I revisori conoscono l'autore, ma l'autore non conosce i revisori.
Double-blind: Né autore né revisori conoscono le rispettive identità.
Open peer review: Le identità di autori e revisori sono note a entrambi.
Impact Factor (IF)
Misura della rilevanza e influenza di una rivista scientifica.
Calcolata in base al numero medio di citazioni ricevute dagli articoli pubblicati in un determinato periodo.
H-index
Misura di quanto un ricercatore viene citato.
Avere un H index pari a 8 vuol dire avere almeno 8 pubblicazioni con 8 citazioni.