Statistiek 3 voor Pedagogen Flashcards
Hoorcollege 1
- Definitie statistiek
- Statistiek is de wetenschap van het verzamelen, organiseren en interpreteren van numerieke feiten, die we gegevens noemen
- Belangrijke zaken voor de toepassing van statistiek
- Het selecteren van een steekproef uit een populatie
- Beslissen of een steekproef representatief is
- Beschrijvende of afgeleide statistieken
- Meetniveaus (NOIR) en soorten variabelen (categorisch of kwantitatief)
- Selecteren van de juiste statistische analyse
- Experimentele vs. Niet-experimentele onderzoeksopzet
- Methoden (ontwerp) & statistiek (toolkit)
- Belangrijk voor de toepassing van statistiek (“applied statistics”):
- Selecteren van de juiste statistische analyse
Statistiek in de praktijk: pedagogische wetenschappen
- Belang van goed empirisch onderzoek (en daarvoor is statistiek noodzakelijk):
- Regressie naar het gemiddelde. Het is een statistisch feit dat extreme scores de neiging hebben om minder extreem te worden bij hertesten, een fenomeen dat bekend staat als regressie naar het gemiddelde (Kruger, Savitsky & Gilovich, 1999)
- Regressie naar het gemiddelde kan therapeuten en patiënten doen geloven dat een nutteloze behandeling effectief is (Gilovich, 1991)
Herhaling
- Overzicht van de belangrijkste concepten in de statistiek
- Beschrijvende vs. inferentiële statistiek
- Data, populatie en steekproef
- Betrouwbaarheid en validiteit
- Variabelen, meetniveaus en bereik
- Centrale tendens-, spreidings- en positiematen
- Populatieverdeling, steekproefverdeling en steekproevenverdeling
- Centrale limiet stelling en hypothesetesten
- Nadruk op empirische analyses:
- Vergelijking van 2 groepen op 1 kwantitatieve uitkomstvariabele (t-test)
- Vergelijking van 2 of meer groepen op 1 kwantitatieve uitkomstvariabele (ANOVA)
- Bepaal het verband tussen 2 kwantitatieve variabelen (regressieanalyse)
Definitie statistieken
- Statistiek is de wetenschap van het verzamelen, ordenen en interpreteren van numerieke feiten, die we gegevens noemen
- A & F: statistiek bestaat uit een geheel van methoden voor het verkrijgen en analyseren van gegevens:
- Ontwerp (onderzoeken die)
- Beschrijf (de gegevens aan)
- Trek conclusies (gebaseerd op deze gegevens)
- Beschrijvende statistieken
- Beschrijvende statistieken vatten steekproef- of populatiegegevens samen met getallen, tabellen en grafieken
- Inferentiële statistiek
- Inferentiële statistieken doen voorspellingen over populatieparameters, gebaseerd op een (willekeurige) steekproef van gegevens
Beschrijvende en inferentiële statistieken
Beschrijvende statistieken
- Variabele: meet kenmerken die tussen proefpersonen kunnen verschillen
- Soorten: gedrags-, stimulus-, subject- en fysiologische variabelen
- Meetschalen (NOIR):
- Categorisch / kwalitatief
- Nominaal: ongeordende categorieën (oogkleur, geslacht)
- Ordinaal: geordende categorieën (oneens/neutraal/eens)
- Numeriek /kwantitatief
- Interval: gelijke afstand tussen opeenvolgende waarde (oC)
- Ratio: gelijke afstand en absoluut nulpunt (oK)
- 0 betekend afwezigheid van datgene
- Bereik
- Discreet: meeteenheid die ondeelbaar is (broers/zussen)
- Continu: oneindig deelbare meeteenheid (lengte)
- In de beschrijvende statistiek zijn 3 dimensies van belang:
- Centrale tendens – “typische waarneming”
- Centrale tendens metingen: gemiddelde, modus, mediaan
- Dispersie – “variabiliteit in waarnemingen”
- Spreidingsmaten: standaardafwijking, variantie, interkwartielbereik
- Positie – “relatieve positie van de waarneming(en)”
- Geeft informatie over relatieve positie van waarnemingen: percentiel, kwartiel
Inferentiële statistieken
- Doel: betrouwbare en geldige uitspraken over de populatie op basis van een steekproef
- De steekproefstatistiek mag niet verschillen van de populatieparameter
- Problemen
- Steekproeffout – “natuurlijke (willekeurige) steekproefvariatie”
- Steekproefbias – “selectieve steekproeftrekking”
- Antwoord-bias – “onjuist antwoord”
- Non-response bias – “selectieve deelname”
- Belangrijk verschil tussen problemen inzake betrouwbaarheid (fout) en validiteit (bias)
- Oplossing
- “Een aselecte (of andere waarschijnlijkheids-) steekproefbenadering van voldoende omvang die gegevens genereert voor iedereen die benaderd is, met correcte antwoorden op alle items voor alle proefpersonen”
- Afmetingen van de verdelingen
- Verdeling van de populatie (populatieverdeling)
- Percentage leerlingen dat aangeeft behoefte te hebben aan extra ondersteuning bij wiskunde
- Verdeling van steekproefgegevens (steekproefverdeling)
- Percentage leerlingen in de steekproef dat aangeeft behoefte te hebben aan extra ondersteuning bij wiskunde
- Steekproevenverdeling
- De waarschijnlijkheidsverdeling voor de steekproefstatistiek (proportie/gemiddelde/regressiecoëfficiënt). Te interpreteren als het resultaat van het herhaald nemen van een steekproef van grootte n
- Standaard deviatie (afwijking): √π(1−π)n
- Standaardfout (sM) geschat door SEM
- Centrale limietstelling voor steekproevenverdeling
- Gegeven een populatie (van individuele X-scores) met een gemiddelde van m en een standaardafwijking van s, heeft de steekproevenverdeling van het gemiddelde (M) een gemiddelde van m en een standaardafwijking (doorgaans de “standaardfout (van de populatie)” genoemd sM) van s/ ÖN en benadert zij een normaal verdeling naarmate de steekproefgrootte waarop zij gebaseerd is, N, oneindig nadert
- Empirische regel voor de normaalverdeling
- 68% binnen ± 1 SD van het gemiddelde
- 95% binnen ± 2 SD van het gemiddelde
- Bijna 100% binnen ± 3 SD van het gemiddelde
Data, populatie, steekproef, betrouwbaarheid en validiteit
- Onderzoek doen aan de hand van gegevens (data): observatie van kenmerken
- Populatie: de totale verzameling deelnemers, relevant voor de onderzoeksvraag
- Bijv. bevolkingsparameter: gemiddeld uur zelfstudie per week van alle studenten
- Steekproef: een deelverzameling van de populatie waarover de gegevens worden verzameld
- Bijv. steekproefstatistiek: gemiddeld uur zelfstudie per week van een willekeurig gekozen steekproef van 800 studenten
- Goed gegevens zijn nodig om de onderzoeksvraag te beantwoorden:
- Betrouwbaarheid (precisie)
- Validiteit (bias/vertekening)
Soorten kansverdelingen
- (Standaard) normaal verdeling à z-statistiek
- Steekproefverdeling voor proportie(s) wanneer H0 geldt
- Steekproefverdeling voor gemiddelde wanneer H0 geldt en wanneer de standaarddeviatie van de populatie bekend is
- Student ’s T-verdeling(en) à t-statistiek
- Steekproefverdeling voor het gemiddelde wanneer H0 geldt en wanneer de standaarddeviatie van de populatie onbekend is
- Steekproefverdeling voor regressiecoëfficiënt(en wanneer H0 geldt
- T-verdeling vs. z-verdeling
- Chi-kwadraat verdeling(en) à χ2
- statistiek Steekproefverdeling voor gekwadrateerde afwijkingen (in frequenties) van categorische variabelen wanneer H0 geldt
- Fisher’s verdeling (Poisson verdeling) à F-statistiek
- Steekproefverdeling voor ANOVA omnibus test van gemiddelde wanneer H0 geldt
Scheefheid van (kans)verdelingen (skewness)
- Positieve scheefheid = scheef naar recht
- Negatieve scheefheid = scheef naar links
Hypothese testen
- Steekproefverdeling en hypothesetests
- Significantietest of hypothesetest
- Methode waarbij je op basis van de steekproef bepaalt hoe sterk het bewijs tegen een bepaalde hypothese is en vervolgens besluit deze hypothese (niet) te verwerpen
- 5 stappen van een hypothese test
- Definiëren van assumpties
- Opstellen hypothese
- Bereken test-statistiek (bijv. t-waarde)
- Bepaald de p-waarde
- Conclusie trekken
- Type I en type II fout
- De kans op een type I-fout (vals positief) wordt bepaald door
- Het gekozen significantieniveau (a)
- De kans op een type II-fout (vals negatief) wordt bepaald door:
- Effectgrootte
- Steekproefgrootte
- Variantie (spreiding) in de steekproef
- Hoe kleiner de gekozen type I-fout, hoe groter de verkregen type II-fout, gegeven een bepaalde steekproef
- Visualisatie type I-fout en type II-fout
3 voorbeelden van hypothesetests
- Vergelijking van 2 groepen met 1 kwantitatieve uitkomstvariabele (t-toets)
- Vergelijking van 2 of meer groepen met 1 kwantitatieve uitkomstvariabele (ANOVA)
- Bepaal het verband tussen 2 kwantitatieve variabelen (regressieanalyse)
Vergelijking van 2 groepen: t-toets
- Vergelijking tussen 2 steekproeven
- Afhankelijke steekproeven
- Getrouwde man en vrouw (bijv. tijd besteed aan huishoudelijke activiteiten)
- Herhaalde metingen: dezelfde persoon op 2 verschillende tijdstippen (bijv. mate van depressiesymptomen voor en na therapie)
- Onafhankelijke steekproeven:
- Mannen en vrouwen in aselecte steekproeven
- Democraten en Republikeinen
- Nulhypothese: H0 : m1 = m2
- Veronderstelling van een onafhankelijke steekproeftoets:
- De afhankelijke variabele is kwantitatief en normaal verdeeld (interval/ratio-niveau)
- Gelijke varianties voor beide groepen: s2 1 = s2 2
- Onafhankelijke waarnemingen (binnen en tussen groepen)
Vergelijking van 2 of meer groepen: ANOVA
- ANOVA = ANalysis Of VAriance
- One-way ANOVA tussen proefpersonen
- Elke deelnemer valt slecht in 1 groep
- Bijv. 4 type stresssituaties
- Voor elke deelnemer is er 1 observatie
- Bijv. zelfrapportage angst
- De groepen worden bepaald door de niveaus (categorieën) van de factor:
- In dit geval is het aantal verschillende stresssituaties
- Nulhypothese: H0 : m1 = m2 = … = mk
- Veronderstellingen voor een ANOVA omnibus test
- De afhankelijke variabele is kwantitatief en normaal verdeeld (interval-ratio-niveau)
- Gelijke varianties voor alle K-groepen: s2 1 = s2 2 = … = s2 k
- Onafhankelijke waarnemingen (binnen en tussen groepen)
- Visuele verkenning van de gegevens à
- ANOVA test-statistiek: F-ratio
- ANOVA: F = MSbg / MSwg
- MS = mean square (gekwadrateerd gemiddelde)
- bg = between groups (tussen groepen)
- wg = within groups (binnen groepen)
- Teller (MSbg) geeft informatie over variantie in gemiddelde tussen groepen (M1, M2, …, Mk)
- Noemer (MSwg) informatie over variantie in gemiddelden binnen groepen
- De F-test is een omnibus test (‘globale test’): is er een verschil tussen 1 of meer van de gemiddelden?
- Een F-test laat niet zien welke groepen verschillen
- F-test significant? 2 manieren om te testen op verschillen tussen specifieke groepen:
- Post hoc (na het feit, na gegevensverzameling, exploratief)
- A priori (vooraf gepland, bevestigend)
- Contrasten, regressieanalyse
- Variantieanalyse: ANOVA Sum of Squares
- Groepsindicator = i (i = 1, …, k)
- Deelnemer-indicator = j (j = 1, …, l)
- One-way ANOVA-tabel
- k = aantal groepen
- N = totaal aantal waarnemingen
- df = vrijheidsgraden
- ANOVA uitvoer SPSS
Verband tussen variabelen: naar bivariate statistiek
- De univariate (1 variabele) statistieken:
- Maten van centrale tendens
- Maten van spreiding
- Betrouwbaarheidsinterval: gemiddelde/proportie
- Significantietest: gemiddelde/proportie
- Significantietest: verschil tussen groepen
- Bij bivariate (2 variabelen) statistiek gaat het om het onderzoeken van een mogelijk verband tussen 2 verschillende variabelen
- Voorspellende variabele of onafhankelijke variabele
- Uitkomstvariabele of afhankelijke variabele
OLS-Bivariate regressie
- Andere methoden in statistiek 3 ([M]AN[C]OVA) kunnen worden gerelateerd aan OLS-regressie (samen Generalized Linear Model (GLM))
- Associatie tussen 2 variabelen
- Bijv. examencijfer (Y) en uren zelfstudie (X)
- Nullhypothese: H0 : ρ= 0, H0: b = 0; H0: R = 0
- Assumpties bivariate regressie (simpel lineaire regressie)
- De afhankelijke variabele (Y) is kwantitatief en de onafhankelijke variabele (X) is kwantitatief of dichotoom
- Er is een lineair verband tussen Y en X
- Onafhankelijke waarnemingen
- Gelijke variantie van de fouten
- De fouten zijn normaal verdeeld met een gemiddelde van 0 voor alle waarden van X
Regressieanalyse: componenten
- Veronderstelde functionele vorm voor de bevolking
- Yi=bXi+ei
- Regressiefunctie: Yi‘=b0+bXi
- Yi‘ = voorspelde waarde voor Yi
- Xi = waargenomen X voor persoon i
- b0 = intercept
- b) = helling
- Yi – My = totale afwijking van het gemiddelde
- Yi‘– My = voorspeld deel voor Xi
- Yi– Yi‘ = fout/residu van de voorspelling
- SStotaal=SSresidueel+SSregressie
- R2=SSreg/SStotaal
- SEest=√S¿¿¿=√1−r2∗sy
- SEest = standaardfout van de schatting (estimate)
Regressieanalyse: visueel
Q&A week 1
1 voorbeeld, 3 mogelijkheden
- Voorbeeld:
- Is er een verschil tussen engagement met tv advertenties tussen mannen en vrouwen?
- Onafhankelijke steekproef t-test
- Bovenste tabel = beschrijvende statistiek
- Onderste tabel
- Eerst: kijken of bovenste of onderste rij gebruiken
- Bovenste = assumptie van gelijke variantie
- Onderste = correctie als assumptie is geschonden
- Levene’s test à F-test meet dat
- H0 = geen verschil in variantie
- Niet significant = voldaan aan assumptie
- Hier F heeft p = .174 à niet significant, dus kijken naar bovenste rij Maar: Levene’s test heeft veel observaties nodig, anders snel niet verwerpen terwijl eigenlijk toch wel
- Daarna kijken naar t, df en sig (2-tailed)
- Er is een significant verschil (p = .023)
Simpele lineaire regressie (bivariate regressie)
- Tabel “Model Summary”
- Hierin staat de R2 à hoeveel van de variantie in de afhankelijke variabele verklaard wordt door de verklarende variabele
- Dus: 12.8% in engagement in tv advertenties wordt verklaard door geslacht
- Tabel “Coefficients”
- Het getal bij (constant) B = de a in de formule (intercept)
- Het getal bij male B = de b in de formule (slope)
- De standaard error, t-waarde en significantie is gelijk aan de uitkomsten van de t-test
- Conclusie: er is een statistisch significant verschil
- Assumptie = gelijke variantie, dus wordt niet voor gecorrigeerd in dit model
One-way ANOVA
- Zelfde tabel als bij lineaire regressie maar andere namen
- Between groups = SSregression
- Within groups = SSresidual
- Mean square = sum of squares/df
- Conclusie: er is een statistisch significant verschil
T-test, OLS en ANOVA hetzelfde maar toch anders
- T-test vergelijkt gemiddelde van de 2 groepen met elkaar
- ANOVA vergelijkt de gemiddelde van de 2 groepen met algemeen gemiddelde
- Daarom ook mogelijk meerdere groepen te vergelijken
- OLS maken van dummy-variabele, b0 = gemiddelde controle groep, b1 = verschil in de gemiddelden
Werkgroep 1
Multipele regressie
- Wanneer meerdere onafhankelijke (predictor) variabelen worden gebruikt in een regressie model, spreekt men van multipele regressie. Er worden meerdere variabelen toegevoegd om te kijken of deze meer variantie verklaren
- Hoe meer variantie te verklaren is, hoe beter de onderzoeksresultaten, want je wilt geen lurking variabele die invloed uitoefent op de resultaten
- Lurking = een variabele die zowel onafhankelijke als afhankelijke variabele beïnvloed waardoor een onechte correlatie ontstaat
- Bijv. relatie tussen ijsverkoop en verdrinking à lurking variabele = warm weer
- ^y = a + b1x1 + b2x2
Sums of squares
- Sum of squares total/ total sum of squares (SStotal)
- Dit is de totale variantie van de variabelen, dus de opgetelde afstanden van de observaties tot het gemiddelde van y
- SStotal=S(y−yˉ)2
- Sum of squares regression (SSreg)
- Dit is de variantie die verklaard wordt met het model, dus de opgetelde afstanden van de regressielijn tot het gemiddelde van y
- SSreg=S(y^−yˉ)2
- Sum of squares error / residual (SSres)
- Dit is de variantie die niet verklaard wordt met het model, dus de opgetelde afstanden van de observaties tot de regressielijn
- SSres=S(y−y^)2
- SStotal=SSreg+SSres
- De totale variantie bestaat uit het deel van de variantie dat wel verklaard wordt met het model en het deel dat niet verklaard wordt met het model
ANOVA
- Een toets om de variantie in gemiddelden van meer dan 2 groepen met elkaar te vergelijken
- Factoriele ANOVA = meer dan 1 categorische onafhankelijke variabele
- Two-way (tweewegs) ANOVA = 2 categorische onafhankelijke variabele
- Two-way ANOVA is gespecificeerde factoriele ANOVA
Warner (2013) hoofdstuk 9
- Ervan uitgaande dat X en Y lineair gerelateerd zijn kunnen scores op een kwantitatieve Y-variabele worden voorspeld op basis van scores op een kwantitatieve (of dichotome) X-variabele
- Dit kan ofwel door een voorspellingsvariabele te gebruiken op basis van ruwe scores
- Of een gestandaardiseerd z-score
- De b-coëfficiënt kan worden geïnterpreteerd in termen van “echte” eenheden
- Bijv. voor elk extra uur lichaamsbeweging (X), hoeveel kilo gewicht (Y) kan een persoon verwachten te verliezen?
- De bètacoëfficiënt kan worden geïnterpreteerd als een eenheidsvrije of gestandaardiseerde index van de sterkte van de lineaire relatie
- Voor elke toename van 1 SD in zX, hoe veel standaarddeviaties voorspellen we dat zY zal veranderen?
- De significantie van een regressievoorspelling kan worden getest met:
- Een t-test, om te testen of de ruwe helingsscore b significant verschilt van 0
- Of met een F-toets, om te beoordelen of de r of R significant verschilt van 0
- Bij bivariate regressie, waarbij er slechts 1 voorspellende variabele is, zijn deze 2 toetsen gelijk
- In meervoudige regressie, waarbij er verschillende voorspellende variabelen zijn, bieden tests van elke b-hellingscoëfficiënt informatie over de significantie van de bijdrage van elke individuele voorspeller
- Terwijl een test van R, de significantie van de hele vergelijking die alle voorspellers omvat test
- Net als ANOVA omvat regressie een opdeling van scores in componenten
- Een deel dat voorspeld wordt door X en een deel dat niet kan worden voorspeld uit X
- Kwadrateren en optellen van deze componenten geeft ons een opdeling van SStotaal in SSregressie + SSresidueel
- Wat gelijk is aan de verdeling van kwadratensommen die we zagen bij ANOVA (SStotaal = SStussen + SSbinnen)
- Onderzoekers kiezen er vaak voor om bepaalde variabele te gebruiken als voorspellers bij regressie omdat ze denken dat deze variabelen mogelijk de afhankelijke variabele kunnen veroorzaken of beïnvloeden
- Echter, als je vindt dat een X-variabele een significante voorspeller is voor een Y-variabele in een regressie, bewijst niet dat X Y veroorzaakt
- Behalve als het uit een goed gecontroleerd experiment komt
- Het meest dat we kunnen zeggen als we vinden dat een X-variabele voorspellend is voor Y in correlationeel onderzoek is dat deze bevindingen consistent zijn met theorieën dat X een oorzaak van Y zou kunnen zijn
Hoorcollege 2
ANOVA
- Eenvoudige regressie
- Een kwantitatieve Y en een kwantitatieve X
- Nullhypothese H0 : ρ= 0, H0: b = 0; H0: R = 0
- ANOVA
- Een kwantitatieve Y en een kwalitatieve X
- Nullhypothese H0 : μ1 = μ2 = … = μk
- Assumpties voor een omnibus test in ANOVA (F-test):
- De afhankelijke variabele is kwantitatief en normaal verdeel (interval/ratio niveau)
- Vrij robuust als de veronderstelling wordt geschonden, vooral bij grote steekproeven
- Alternatief indien geschonden: niet-parametrische Kruskal-Wallis H-test (hoef je niet te kennen)
- Gelijke varianties voor alle k groepen: s2 1 = s2 2 = … = s2 k
- Vrij robuust als de veronderstelling wordt geschonden, vooral bij grote steekproeven
- Alternatief indien geschonden: Welch Test (SPSS)
- Onafhankelijke waarnemingen (binnen en tussen groepen)
- Niet robuust als de veronderstelling wordt geschonden
- Hiermee reeds rekening houden tijdens de ontwerpfase van het onderzoek
ANOVA: voorspelling
- Waarneming van groep met een verwachte waarde voor responsvariabele
- Binnen een groep is er willekeurige variatie tussen de waarnemingen:
- Waargenomen respons = verwachte respons + error
- De “j-ste” observatie van de “i-ste” groep:
- Yij=m+ai+eij
- m = algemeen gemiddelde
- ai = groepseffect
- eij = error ~N(0, s2)
- Dus gelijk aan de OLS-methode, is de voorspelde waarde voor een observatie
- Y’ij=m+ai
ANOVA: onderzoeksopzet
- Bepaald of er verschillen zijn tussen 3 of meer onafhankelijke groepen gebaseerd op specifieke karakteristieken dat de personen in deze groepen hebben
ANOVA-voorbeeld: groepsverschillen (SPSS)
- Zelfde voorbeeld als hc 1
- Zelf gerapporteerde angst in 4 verschillende condities
- 28 waarnemingen in het totaal
- 7 waarnemingen per conditie
ANOVA test-statistiek: F-ratio
- ANOVA: F = MSbg / MSwg
- MS = mean square (gekwadrateerd gemiddelde)
- bg = between groups (tussen groepen)
- wg = within groups (binnen groepen)
- Teller (MSbg) geeft informatie over variantie in gemiddelde tussen groepen (M1, M2, …, Mk)
- Noemer (MSwg) informatie over variantie in gemiddelden binnen groepen
- De F-test is een omnibus test (‘globale test’): is er een verschil tussen 1 of meer van de gemiddelden?
- Een F-test laat niet zien welke groepen verschillen
- F-test significant? 2 manieren om te testen op verschillen tussen specifieke groepen:
- Post hoc (achteraf, na gegevensverzameling, exploratief) à Tukey’s test
- A priori (vooraf gepland, bevestigend) à contrasten, regressieanalyse
- Variantieanalyse: binnen en tussen groepen
- Groepsindicator = i (i = 1, …, k)
- Deelnemer-indicator = j (j = 1, …, l)
- ANOVA-test: F-verdeling
- Vrijheidsgraden voor de teller: df1 = k – 1
- Vrijheidsgraden voor de noemer: df2 = N – k
- One-way ANOVA-tabel
- k = aantal groepen
- N = totaal aantal waarnemingen
- df = vrijheidsgraden
- ANOVA uitvoer SPSS
F-test vergelijkt 2 modellen
- F-test vergelijkt de model fit van 2 modellen:
- Compleet model: Yij = m + ai + eij Ec = S (Yij – Mi)2
- Gereduceerd model: Yij = m + eij Er = S (Yij – My)2
- “Is een model met minder parameters (d.w.z. alleen het totale gemiddelde) een statistisch significant minder adequate weergave van de gegevens dan het volledige model met extra parameters (d.w.z. groepsgemiddelden)?”
- F = ( Er−Ec )/(d f r−df c) Ec /df c = S ¿ ¿= MSbetween MSwithin = n∗sa 2+se 2 se 2
- Als H0 geldt à sa 2 = 0 en F=1
- Effectgrootte is eta squared (kwadraat) = h2 = SSbetween SStotaal
- En dus gelijk aan R2 in OLS
ANOVA: meervoudig toetsen en type 1 fout
- Bij het uitvoeren van veel significantietoetsen is er telkens kans op een type 1 fout
- Bijv. 20 hypothesen met gegeven a = 0.05
- Dit wordt beschouwd als een familie van hypothesen
- Onder H0 : het verwachte aantal (Type 1) fouten is dan 20 * a = 1
- Kans op 1 of meer vals-positieven = 1 – (1-a)20 = 0.64 > .05
- Methoden om dit “experimenteel risico van type 1 fout” te beheersen”
- Bijv. Tukey’s post-hoc (minder conservatief) en Bonferroni (meest conservatief)
ANOVA: voorbeeld
- Werkstress
- Veel voorkomende bronnen van werkstress
- Lage salarissen
- Te hoge werkdruk
- Weinig mogelijkheden voor groei of promotie
- Werk dat niet boeiend of uitdagend is
- Gebrek aan sociale steun
- Niet genoeg controle hebben over werk gerelateerde beslissingen
- Tegenstrijdige eisen of onduidelijke prestatieverwachtingen
- Gevolgen
- Korte termijn: hoofdpijn, buikpijn, slaapstoornissen, kortademigheid en concentratieproblemen
- Chronische stress: angst, slapeloosheid, hoge bloeddruk, verzwakt immuunsysteem, gezondheidsaandoeningen (depressie, obesitas en hartziekten)
- Coping: overeten, ongezond eten, roken en/of drugs- en alcoholmisbruik
- Stappen ondernemen om stress te beheersen
- Hou je stressoren bij
- Ontwikkel gezonde coping
- Stel grenzen
- Neem de tijd om op te laden
- Leer te ontspannen
- Praat met je supervisor
- Zoek steun
- Lichamelijke activiteit
- Lichaamsbeweging is een geweldige