Analisi di regressione (cap. 15)

0.0(0)
studied byStudied by 0 people
GameKnowt Play
learnLearn
examPractice Test
spaced repetitionSpaced Repetition
heart puzzleMatch
flashcardsFlashcards
Card Sorting

1/4

encourage image

There's no tags or description

Looks like no tags are added yet.

Study Analytics
Name
Mastery
Learn
Test
Matching
Spaced

No study sessions yet.

5 Terms

1
New cards
  • regressione lineare semplice

  • regressione lineare multipla

  • regressione lineare multivariata

Regressione lineare semplice

  • Una variabile indipendente (X) predice una variabile dipendente (Y)

  • Y = a + bX

  • Esempio: ore di studio (X) → voto esame (Y)

Regressione lineare multipla

  • Più variabili indipendenti (X₁, X₂, …) predicono una variabile dipendente (Y)

  • Y = a + b₁X₁ + b₂X₂ + … + bkXk

  • Esempio: ore di studio + qualità del sonno → voto esame

Regressione multivariata

  • Più variabili indipendenti predicono più variabili dipendenti contemporaneamente

  • Y₁, Y₂, …, Ym = a + bX₁ + cX₂ …

  • Esempio: ore di studio + qualità del sonno → voto esame e livello di ansia

<p><strong>Regressione lineare semplice</strong></p><ul><li><p>Una variabile indipendente (X) predice una variabile dipendente (Y)</p></li><li><p><strong>Y = a + bX</strong></p></li><li><p>Esempio: ore di studio (X) → voto esame (Y)</p></li></ul><p><strong>Regressione lineare multipla</strong></p><ul><li><p>Più variabili indipendenti (X₁, X₂, …) predicono una variabile dipendente (Y)</p></li><li><p><strong>Y = a + b₁X₁ + b₂X₂ + … + bkXk</strong></p></li><li><p>Esempio: ore di studio + qualità del sonno → voto esame</p></li></ul><p><strong>Regressione multivariata</strong></p><ul><li><p>Più variabili indipendenti predicono <strong>più variabili dipendenti</strong> contemporaneamente</p></li><li><p><strong>Y₁, Y₂, …, Ym = a + bX₁ + cX₂ …</strong></p></li><li><p>Esempio: ore di studio + qualità del sonno → voto esame <strong>e</strong> livello di ansia</p></li></ul><p></p>
2
New cards

Errore di predizione

È la differenza tra il valore osservato (Y) e il valore predetto dalla retta di regressione (Ŷ)

Formula: Errore (e) = Y – Ŷ

<p>È la differenza tra il <strong>valore osservato (Y)</strong> e il <strong>valore predetto dalla retta di regressione (Ŷ)</strong></p><p><strong>Formula: Errore (e) = Y – Ŷ</strong></p>
3
New cards

Tipi di deviazione: spiegata, non spiegata e totale

Totale = Spiegata + Non spiegata

  • Dev spiegata: Parte della variabilità di Y spiegata dal modello (cioè dalla retta di regressione)

  • Dev non spiegata: Parte della variabilità di Y non spiegata dal modello

  • Dev totale: Scostamento dei valori osservati dalla media di Y

<p><span>Totale = Spiegata + Non&nbsp;spiegata</span></p><ul><li><p>Dev spiegata: <span>Parte della variabilità di Y <strong>spiegata dal modello</strong> (cioè dalla retta di regressione)</span></p></li><li><p>Dev non spiegata: <span>Parte della variabilità di Y </span><strong>non spiegata dal modello</strong> </p></li><li><p>Dev totale: Scostamento dei valori osservati dalla <strong>media di Y</strong></p></li></ul><p></p>
4
New cards

Coefficiente di determinazione (R²)

Indice che misura quanta parte della variabilità totale di Y è spiegata dal modello di regressione (cioè da X)

  • “quanto bene la retta di regressione si adatta ai dati”

  • indicatore della forza predittiva del modello

Valori possibili: da 0 a 1

  • 0 → il modello non spiega nulla della variabilità di Y

  • 1 → il modello spiega tutta la variabilità di Y

→ nel caso della regressione lineare semplice è il coefficiente di Pearson alla seconda (R*2 = r*2)

<p>Indice che misura <strong>quanta parte della variabilità totale di Y</strong> è spiegata dal modello di regressione (cioè da X)</p><ul><li><p>“quanto bene la retta di regressione si adatta ai dati”</p></li><li><p> indicatore della <strong>forza predittiva</strong> del modello</p></li></ul><p><strong>Valori possibili:</strong> da <strong>0 a 1</strong></p><ul><li><p>0 → il modello non spiega nulla della variabilità di Y</p></li><li><p>1 → il modello spiega tutta la variabilità di Y</p></li></ul><p><span>→ nel caso della </span><strong>regressione lineare semplice è il coefficiente di Pearson alla seconda (</strong><span><strong>R*2 = r*2)</strong></span></p>
5
New cards

cosa sono a e b nell'equazione di regressione?

a = intercetta (costante)

  • È il valore di Y quando X = 0.

  • Graficamente: il punto in cui la retta taglia l’asse Y.

b = coefficiente angolare (pendenza)

  • Indica di quanto varia Y se X aumenta di 1 unità.

  • Segno di b:

    • positivo → relazione crescente

    • negativo → relazione decrescente