1/30
Name | Mastery | Learn | Test | Matching | Spaced | Call with Kai |
|---|
No analytics yet
Send a link to your students to track their progress
symmetrische technieken
Alle variabelen spelen een even belangrijke rol
Cronbach’s alpha
methode voor schaalconstructie → maat voor onderlinge samenhang binnen een set variabelen.
toetst dus interne samenhang en niet interne consistentie → kan zijn dat er grote samenhang is tussen variabelen maar dat ze toch iets anders meten
op basis van theorie een set vragen ontwikkelen en dan toetsen of ze samenhangen.
>.6 = redelijk, >.8 = goed
Principale componentenanalyse (PCA)
exploratief: zoekt combinatie, composiet van variabelen die zo goed mogelijk de informatie in alle variabelen samenneemt → datareductie
principale component: nieuwe variabelen bestaande uit variabelen die sterk onderling samenhangen
geen theoretisch model achter analyse
interpretatie soms lastig
interne consistentie en homogeniteit tussen variabelen waaruit dimensie bestaat
componentlading en -scores
componentlading (ajk): van de j-de variabele op de k-de component. Dit zijn de gewichten waarmee uit de oorspronkelijke variabelen de principale componenten gevormd worden. (zie boek voor precieze berekening)
componentscores/factorscores: scores van respondenten op de principale componenten, worden uit ladingen gevormd (lading x eigen score op de component)
lading nodig voor interpretatie →
Eigenwaarde bij PCA
‘eigenwaarde’ = verklaarde variantie, hoe goed past de principale component in de oplossing?
som van gekwadrateerde factorladingen
Er is zoveel variantie te verklaren als er variabelen zijn.
In dit voorbeeld 4 variabelen, dus maximaal te verklaren variantie is 4
Eerste pc heeft altijd de meeste eigenwaarde/verklaarde variantie, tweede één na meeste, etc.
communaliteit bij PCA
Vertelt hoe belangrijk de rol is van de diverse variabelen in de oplossing.
som van gekwadrateerde factorladingen over de principale componenten.
hoge communaliteit → past goed in de oplossing.
som communaliteiten is gelijk aan som van eigenwaarden → totale verklaarde variantie
rotatie bij PCA
Nieuwe assen zoeken in bestaande ruimte die exclusiever met bepaalde variabelen te maken hebben
eerste assenstelsel van principale componenten draaien.
rodatie heeft als inhoudelijk voordeel dat de assen beter gedefinieerd worden, meer uitsluitend met bepaalde variabelen te maken hebbend en niet met anderen → interpretatie krachtiger
VARIMAX rotatie
interpretatie na rotatie
respondenten krijgen socres op de pc’s, waar je vervolgens mee kan rekenen:
scoren NL’ers hoger op pc2?
Toetsen met ANOVA of t-toets
ladingen >.3 onderstrepen en vervolgens de onderstreepte variabelen per pc interpreteren
marker en complexe variabele
marker variabele: op factor laadt maar één variabele
er valt niet veel te interpreteren, geen variabelen samengevat
weinig datareductie, nu 1 pc ipv 1 variabele
complexe variabele: laadt op meedere factoren, interpretatie is lastig.
fitmaten en aantal pc’s bepalen
Geen fitmaten, kwaliteit van de oplossing hangt uiteindelijk
van de interpreteerbaarheid af.
Hoe bepaal je dan het aantal benodigde principale
componenten?
1. Eigenwaarde > 1-criterium → als pc een eigenwaarde kleier dan 1 zou hebben, zou hij nog minder variantie verklaren dan een enkele variabele
2. Knik-criterium: eigenwaarde afzetten tegen nummer pc → tot en met de knik meenemen in analyse
3. Scree-criterium: trekken over laagste eigenwaarden een lijn en waar lijn curve kruist tot en met die meenemen. (zie boek)
4. Interpreteerbaarheid-criterium: kijken of pc een inhoudelijke betekenis heeft.
assumpties PCA
X interval
X variabelen normaal verdeeld
relaties lineair
correlaties zijn betrouwbaar geschat (niet te veel ruis), geen outliers
schending doorgaans geen probleem, geen toetsen op assumpties in de praktijk
steekproefgrootte bij PCA
In principe: steekproef > 10 x aantal variabelen
Maar gewenste N relatief groot (vanaf 200 redelijk, 300 goed, 500 prima)
per schaal idealiter 5 a 6 variabelen, min. = 3
missing bij PCA
Gevolgen missings minder ingrijpend dan bij eerder behandelde technieken
Missings worden pairwise verwijderd →
Alleen verwijderd uit correlaties met variabele waarop missing
Niet verwijderd bij correlaties tussen andere variabelen
Maar pas op: niet te veel missings → dan correlaties op telkens wisselend deel van de steekproef
VARIMAX rotatie
zorgt ervoor dat de spreiding tussen factorladingen maximaal wordt → ladingen diverse factoren gaan zo veel mogelijk uit elkaar liggen
gevolgen rotatie
door roteren veranderen:
de assen (zie Figuur 9.4 en 9.5 in het boek)
eigenwaarden
ladingen van de variabelen
maar verandert niet
de totale verklaarde variantie
de communaliteiten
ergo: de oplossing blijft even goed of slecht en de variabelen blijven het even goed of slecht doen, maar de samenvatting die je kiest wordt anders
datareductie
je zoekt naar aantal dimensies dat data redelijk samenvat en dan kijken of dimensies ook inhoudelijke betekenis hebben (‘constructen’)
niet zelfgekozen setje variabelen waarvan je wil tweten of ze samenhangen, maar een berg variabelen waarvan je wil weten welke tot dimensies gevormd kunnen worden.
waarom meerdere items binnen index
respondent begrijpt een vraag mogelijk niet
respondent interpeteert vraag mogelijk anders
construct niet in één vraag te vangen: deelaspecten die construct in volle breedte meten.
verband tussen meerdere nominale variabelen
Homogeniteitsanayse (HOMALS) of multipele correspondentie-analyse (MCA)
verband tussen variabelen van verschillende meetniveau’s
niet-lineaire PCA (PRINCALS)
niet-lineaire exploratieve technieken
geef de categorieen van de nominale en ordinale (en interval) vairabelen nieuwe waarden in een twee dimensionele ruimte, die de techniek zo kiest, dat je de samenhang tussen de variabelen maximaal maakt.
nieuwe waarden: ‘kwantificaties’-coördinaten
‘herschalen’
hoe gaan niet-lineaire exploratieve technieken ten werk
Iedere resondent heeft een aantal kenmerken
de techniek gaat respondenten en hun kenmerken in een ruimte plaatsen
de techniek gaat dat zo doen dat:
iedere respondent in het middelpunt komt van zijn kenmerken
ieder kenmerk in het midden komt van de respondenten die dat kenmerk hebben
= ‘reciprocal averaging’
homogene subgroep en profiel en plaatsing in plaatje
groep respondenten die eenzelfde antwoordpatroon op de variabelen hebben.
profiel is het antwoordpatroon
midden: kenmerken waarop respondenten weinig verschillen (gemiddelde is namelijk 0) en aan de rand: kenmerken die onderzoekseenheden goed onderscheiden/discrimineren, meestal kleine groep.
positie van respondent en positie van categorieën en betekenis herschalen
object score
categorie kwantificatie
het vervangen van oorspornkelijke scores an variabelen door nieuewe getallen, categorie kwantificaties.
discriminatiematen, eigenwaarde en Fit
hoe goed separeert een variabele de respondenten op een dimensie (=correlatie getransformeerde variabele met de dimensie). hoge score = variabele onderscheidt de respondenten goed.
hoeveel variantie verklaart een dimensie (= gemiddelde discriminatiematen) maximaal 1
hoeveel variantie verklaart de oplossing = som eigenwaarden, maximaal zo groot als gekozen aantal dimensies
passieve en actieve variabelen
Een variabele die niet in de oplossing zit maar je toch analyseert. De object scores vergelijken van personen met verschillende scores op variabelen die niet meededen in de analyse
een variabele die je analyseert in de oplossing en die de oplossing dus mee bepaalt.
gedegeneerde oplossing
hele steekproef wordt geconstrasteerd met één unieke, afwijkende respondent= uitbijter
als objectscores boven absolute waarden 4 a 5 komen, = uitbijters
oplossen:
hercoderen categoriën
missend maken score op deze variabele
variabele verwijderen
respondent verwijderen
werking principals
Techniek kiest categorie kwantificaties zo dat ze zo goed mogelijk geordend op een lijn geprojecteerd kunnen worden, met ongelijke (ordinaal) of gelijke intervallen (interval).
hoefijzerstructuur
als HOMALS dit producert, moet men misschien met een oplossing van lagere dimensionaliteit werken.
als onderzoeker vraagt om een oplossing in twee dimensies te weergeven, maar de variabelen beter in één dimensie samen te vatten zijn → homals vat de variabelen op de eerste dimensie in één schaal samen en op de tweede dimensie dezelfde schaal kwadratisch.
eigenwaarden homals berekenen
gemiddelde discriminatiewaarde