1/36
Looks like no tags are added yet.
Name | Mastery | Learn | Test | Matching | Spaced |
---|
No study sessions yet.
H0
= nulhypothese
de te verwerpen hypothese
er is geen verband tss …
het tegenovergestelde van wat we verwachten
H1
= alternatieve hypothese
de te bewijzen hypothese
er is een verband tss …
Alfa - significantieniveau
de kans dat H0 verworpen wordt maar toch waar is (meestal 5% bij een betrouwbaarheidsinterval van 95%)
parametrisch
een gekende verdeling (bv. normale verdeling)
minimaal op intervalniveau
bij meerdere steekproeven/variabelen moeten varianties van populaties gelijk zijn
niet-parametrisch
wanneer aan één van bovenstaande vereisten niet wordt voldaan
afhankelijke SP
voor- en nameting
test- en controlegroep die NIET ad random gekozen zijn
onafhankelijke SP
alle leden vd steekproeven zijn ad random gekozen
Hoe bepalen welke test gebruikt mag worden?
parametrisch vs niet-parametrisch
afhankelijke vs onafhankelijke SP
aantal SP
Binomiaal test
= z-test op proporties
bij nominale data met 1 steekproef
X2 test
bij nominale data met 2 SP
Mann-Whitney-U test
ordinale data met 2 SP
T-test
interval of ratio data met 2 SP/variabelen
kruistabel (2 cat)
Chi-square: 2×2 tabellen MAAR gevoelig voor #waarnemingen, #rijen/kolommen
Phi: 2×2 tabellen, beter dan 1
Cramer’s V: bij alle andere
correlatiecoëfficient (2 metr)
Pearson-correlatiecoëfficient: meet sterkte van het verband bij metrische variabelen
varieert tussen -1 en 1
-1 = sterk negatief verband tss variabelen
0 = geen verband
1 = sterk positief verband
Spearman: meet sterkte van het verband tss ordinale variabelen
Wanneer gebruiken we variantieanalyse?
wordt toegepast in 2 condities:
we testen verschillen tss gemiddelden van waarnemingen in >2 steekproeven
we willen het effect testen van 1 of meerdere nominale variabelen op een interval geschaalde variabele
within sum of squares (WSS)
of de binnenvariantie is de variantie die te wijten is aan het toeval of dus aan alle
andere variabelen (behalve de experimentele variabele, hier dus de prijs) die een effect hebben op de afhankelijke variabele
between sum of squares (BSS)
of de tussen-variantie is de variantie die te wijten is aan de experimentele variabele
Variantie-analyse vergt dat aan 2 assumpties voldaan is
De variabelen zijn normaal verdeeld
De varianties van de variabelen zijn gelijk (= homoskedastisch <> heteroskedastisch)
om dit te testen doen we net als bij de t-test een beroep op Levene’s test
confirmatorische factoranalyse (FA) vs principale componentenanalyse (PCA)
FA
genereert factoren
factoren brengen variabelen voort
gaat enkel over de gedeelde variantie tss variabelen (i.e. gedeelde variantie, zonder fouten/ruis, dus unieke variantie)
test of vooropgestelde structuur overeenkomst met de correlaties
PCA
componenten
componenten zijn aggregaten van variabelen
analyseert alle variantie
laat de data spreken (data driven)
Wat maakt van een factor een goede factor?
“makes sense”, is zinvol
makkelijk te interpreteren
simpel qua structuur
niet al te complex van “ladingen”
Orthogonale rotatie
(bijv. Varimax)
Factoren blijven ongecorreleerd (loodrecht op elkaar).
Simpeler, maar minder flexibel.
Oblique rotatie
(bijv. Oblimin)
Factoren mogen correleren.
Complexer, maar realistischer voor natuurlijke data.
4 stappen FA
correlatiematrix
factorextractie
factorrotatie
interpretatie van de resultaten
Schaalconstructie
bv. Likertschalen
3 overwegingen belangrijk:
validiteit: factoranalyse
betrouwbaarheid: Cronbach’s alpha
missing values
de determinatiecoëfficiënt R²
% van de totale variantie die door de regressie verklaard wordt
Hoe hoger de R², hoe beter het model de variatie in de waarnemingen vat, dus hoe beter de fit van het model
! Er is geen absolute grens om te stellen dat R hoog genoeg is, hoe hoger hoe beter !
REGRESSIEANALYSE
veronderstellingen:
meetniveau variabelen:
AV: metrish
OV: metrisch of dummy
verbanden tss OV en AV = lineaire verbanden zijn
bij meervoudige regressieanalyse mogen de onafhankelijken niet te sterk onderling correleren (multicollineariteit)
regressie formule
Y = a + bX
Y: voorspelde waarde AV
a: een constante
b: regressie coëfficient
X: OV
ADJUSTED R²
geeft aan in welke mate de variatie in de AV
(Y) kan worden “verklaard” door alle onafhankelijke variabelen
(X) in het model (cf. supra)
maar rekening houdend met:
omvang SP
# OV
kleiner dan de klassieke “verklarende waarde” (R²)
meer geschikt om modellen te vergelijken
Meervoudige regressieanalyse
Wanneer?
Nagaan wat de verklarende waarde is van meerdere variabelen voor een specifieke AV
bv. verklarende waarde van tevredenheid én vertrouwen voor veiligheidsgevoel
Nagaan in welke mate elke onafhankelijke variabele uniek bijdraagt tot het verklaren van de AV
bv. bijdrage van tevredenheid en vertrouwen afzonderlijk
Nagaan of 1 of meerdere variabelen nog additioneel kunnen bijdragen tot het verklaren van een AV, rekening houdend met de verklarende waarde van andere OV
indien al rekening houdend met tevredenheid, ook vertrouwen een additionele verklarende waarde?
Multicollineariteit
wat: indien er hoge onderlinge samenhang is tss 2 of meerdere OV
coëfficiënten geven een beeld van een gecombineerd effect
de (te sterk) samenhangende OV zorgen voor redundante informatie in het meervoudig regressiemodel
wat kunnen gevolgen zijn voor RA:
geen nieuwe info
leiden tot onstabiele coeffi
verandering richting coeffi
bestaat altijd, kwestie van de mate waarin
Indicaties multicollineariteit
incorrecte teken (+ of -) bij de coëfficiënten
grote veranderingen in de waarden voor de coeffi bij toevoeging van een nieuwe variabele in het model
verandering in significantieniveaus bij toevoeging van een nieuwe variabele in het model
sterke correlatie tss OV
Regressieanalyse (RA)
Bij (multipele) … gebruikt men het verband dat er tss 2 (of meerdere) variabelen bestaat om de waarde van 1 vd variabelen te voorspellen op grond van de kennis van de andere variabele(n)