1/75
Looks like no tags are added yet.
Name | Mastery | Learn | Test | Matching | Spaced | Call with Kai |
|---|
No analytics yet
Send a link to your students to track their progress
Ange och beskriv de olika skalorna för data.
Skalnivå beskriver vilken info som finns hos mätvärdena. Nominalskala är kategorisering, ex kön eller nationalitet. Ordinalskala (rangordningsskala) är när man rangordnar något, ex vilken musikstil man föredrar bäst 1-4. Visar alltså vilken ordning något kommer, men ej hur stort mellanrum det är mellan. Ex gillar musikstil 2 lagom mycket och 1 jättemycket. Intervallskala är skalstegen däremot lika stora, ex celsius, dock så finns det ingen nollpunkt. Psykologiska mått tenderar att ligga där. Kvotskala har lika stora skalsteg som intervallskalan men har en absolut nollpunkt, dvs kan ej att gå längre ner än 0 som ex vikt eller längd.
Vad är beroende variabel och oberoende?
Beroende variabel → BV, det man se effekterna på dvs undersöker om oberoende variabel påverkar beroende variabel.
Oberoende variabel → den variabeln som manipuleras, eventuella orsaken. Exempelvis om man vill undersöka om högt ljud påverkar uppmärksamhet
Vad är inferensstatistik? Vad är deskriptiv statistik?
Handlar om att dra slutsatser om populationens egenskaper utifrån stickprovet. Medan deskriptiv är statistik som beskriver stickprovet, ex medelvärde och median.
Vad betyder följande symboler? Σ, N, X, μ, Xmed ett streck över, s, s²
Σ → stort sigma, summan av följande talen.
N →antalet observationer.
X → Observerad data, resultat.
μ → sanna medelvärde, populationens medelvärde.
X med ett streck över → är genomsnittet av alla X.
s→ standardavvikelse.
s²→ standardavvikelse upphöjt till 2 innebär variansen i stickprovet
Vad är variationsbredd? Vad är spridningsmått?
Variationsbredd är avståndet mellan det högsta och det lägsta värdet, känsligt för extremvärde. Spridningsmått beskriver variationen, standardavvikelse och varians för intervall- och kvotdata, variationsvidd, percentiler, deciler och kvartiler för ordinaldata.
Vad betyder normalfördelning?
I en normalfördelning ligger de flesta observationerna nära medelvärdet och fördelningen av värdena är symmetrisk. Normalfördelningen bestäms av två parametrar medelvärdet och standardavvikelsen (variansen), i en perfekt normalfördelning sammanfaller typvärde, median och medelvärde. Varje observation i en normalfördelning kan omvandlas till ett z-värde (standardvärde,hur många standardavvikelser under eller över medelvärdet ligger man). Ett resultat med hög varians skaparen bredare normalfördelning och ett resultat medlåg varians skapar en toppigare normalfördelning
Vad är ett p-värde?
P-värdet anger sannolikheten att erhålla ett resultat minst så extrem som den faktiskt observerade, givet att nollhypotesen är sann.P-värdet säger något om hur stor risk det är att få ett statistiskt signifikant resultat trots att det är nollhypotesen som råder. Jämförs direkt med vald alfanivå, är p-värdet lägre än alfanivån (t.ex. 0,05) så är resultatet statistiskt signifikan.
Vad är ett R-värde?
R-värdet tas fram genom Pearsons korrelation och kallas även för produktmomentkorrelationskoefficenten. R uttrycker ett sambands styrka (0-1)samt dess riktning (+/-) och varierar mellan-1 (ett perfekt negativt samband) och+1 (ett perfekt positivt samband). R = 0 innebär att variablerna inte har något som helst samband med varandra. Obs! Mäter endast linjära samband. Vi kan inte dra kausala slutsatser utifrån vetskapen att det finns ett samband.Korrelationskoefficientens siffror anger styrkan i sambandet ej ifall resultatet går att generalisera till populationen.
Vad är population och sample? Hur skiljer sig deras standardavvikelser (σ vs s)?
Stickprov: det urvalet från populationen man har tillgång till, används för att skatta populationen. Population: den grupp individer/observationer man försöker spegla med stickprovet
Standardavvikelsen för populationen är o (sigma) Kan inte göra tecknet Standardavvikelsen för ett stickprov är s och är en skattning av o. S korrigeras genom n-1 istället för n.
Vad betyder standard deviation i praktiken? Vad säger ett högt respektive lågt värde om datans spridning?
SD (standardavvikelse) anger hur mycket observationerna i genomsnitt avviker från medelvärdet, dvs spridning och variation inom gruppen. Lågt indikerar att värdet tenderar att vara nära medelvärdet av populationen, medan ett högre är att det är mer utspritt över en större area.
Vad är skillnad mellan mean, median och mode i termer av vad de representerar?
Mean: aritmetiskt genomsnitt som är känsligt för extremvärden
Median: mitt värdet, robust mot outliers
Mode: vanligaste värdet (mest frekvent)
I vilken typ av fördelning är median ett bättre centralmått än mean, och varför?
I snedfördelade fördelningar (skewed) eller när det finns outliers. Mean dras mot riktningen som snedfördelningen går åt.
Hur påverkas mean och SD av outliers?
Mean dras mot extremvärdet, SD ökar eftersom att avståndet till medelvärdet blir stort (iom att det påverkas starkt av extremvärdena).
Vad innebär en positiv respektive negativ skewness, och hur relaterar detta till relation mellan mean och median?
Positiv: lång svans åt höger (mean är större än median). Negativ: lång svans åt vänster (mean blir mindre än median)
Vad menas med att en variabel är approximately normally distributed?
Att fördelningen liknar en normalfördelning (behöver inte vara exakt då det är extremt ovanligt)
Varför är normalfördelningsantagandet viktigt för många statistiska test (t-test, ANOVA, correlation)?
För att testerna bygger på antagandet att datan är normalfördelat.
Vad är ett z-score och vad betyder det konceptuellt?
Ett z-score anger hur många standardavvikelser ett värde ligger från medelvärdet. Ex z -2 innebär att värdet ligger två standardavvikelser över 0. Varje observation i en normalfördelning kan omvandlas till ett z-värde. Med hjälp av z-värde kan man jämföra mätvärden från olika mätningar (ex hur ligger en elev i förhållande till övriga elever på olika nationella prov?).
Vad innebär ett z-score på +2 respektive −1.5 i förhållande till fördelningen?
2 SD över medelvärdet, 1,5 SD under medelvärdet.
Varför kan z-scores användas för att jämföra resultat från olika skalor?
Eftersom de är standardiserade i SD (som enheter) och därför inte är beroende av skalor.
Vad är skillnaden mellan descriptive statistics och inferential statistics?
Deskriptiv: beskriver data, exempelvis mean, SD, median osv
Inferential: drar slutsatser om populationen, exempelvis t-test, ANOVA, p-värde och konfidensintervall
När kan det vara missvisande att rapportera bara mean utan spridningsmått?
En grupp kan ha samma mean eller så kan de variera mycket (spridning). Då missar man variationen och därmed hur heterogen populationen är.
Varför är det viktigt att alltid rapportera både central tendency och variability?
Central tendency (centralmått): ett typiskt värde i datan, främst medelvärde, median och typvärde (mode). Sammanfattar till ett representativt tal.
Variability: spridningen i en datamängd kring ett centralt värde (ex medelvärdet). Exempelvis SD, varians, variationsbredd osv.
Typ samma som förra frågan, men man vill också kunna bedöma exempelvis effektstorlek eller osäkerhet kring resultatet.
Hur används deskriptiv statistik som grund för att avgöra om antaganden för senare test är rimliga?
Man har en baseline med outliers, spridning osv vilket gör att man kan bedöma huruvida det är rimligt att göra en bedömning utifrån datan samt hur rimligt det faktiskt är.
Vad skulle du kontrollera i en histogram/boxplot innan du går vidare till t-test eller ANOVA?
Symmetri, outliers, spridning och normalform.
Vad är en null hypothesis (H0) och varför formuleras den alltid som “ingen effekt” eller “ingen skillnad”?
Det finns ingen verklig effekt eller skillnad i populationen. Statistisk prövning bygger på att man tester hur osannolika den observerade datan vore om inget verkligt samband fanns. Är det slump eller inte?
Vad är en alternative hypothesis (H1)?
Att det finns en effekt eller skillnad i populationen
Vad betyder ett p-value i korrekt statistisk mening? Varför är det fel att tolka p som sannolikheten att H0 är sann?
Sannolikheten att få ett lika extremt eller mer extremt resultat givet att H0 är sant. För att p beräknas under antaget att H0 redan är sann. Hur ovanlig datan är om H0 stämmer.
Vad innebär det att ett resultat är “statistically significant” vid α = .05?
Att sannolikheten för att få resultatet om H0 vore sann är mindre än 5%. H0 förkastas.
Vad är alpha-nivån och hur relaterar den till risken för Type I error?
Alpha är den förutbestämda risken att begå typ 1 fel. Man accepterar 5% risk för att få en falsk positiv.
Vad är ett Type I error i ord och i forskningspraktik?
Att man förkastar en sann H0. Man hittar en effekt som egentligen inte finns.
Vad är ett Type II error i ord och i forskningspraktik?
Att inte förkasta en falsk H0. Man missar en effekt som egentligen finns.
Vad menas med power?
Sannolikheten att man förkastar en falsk nollhypotes när den ska förkastas. Upptäcka en skillnad eller effekt som faktiskt finns. Alfanivån, experimentell design och parametriska krav uppfyllda (BV på intervall eller högre, popoulationsvariation är homogen + data är normalfördelad) påverkar.
Hur relaterar power till risken för Type II error?
Hög power leder till en låg risk att missa en verklig effekt.
Hur påverkas power av sample size?
Större stickprov leder till högre power, lättare att säga att det inte bara är brus.
Hur påverkas power av effect size?
Större effekt kopplar till högre power för att ju starkare verklig skillnad/samband, desto lättare är det att upptäcka den.
Hur påverkas power av val av alpha-nivå?
Högre alpha leder till högre power men högre risk för Typ 1 error
Varför kan ett icke-signifikant resultat bero på låg power snarare än frånvaro av effekt?
För litet stickprov kan göra att man missar effekt eller att det blir mycket brus (slumpmässiga fel, störningar osv).
Varför är det problematiskt att öka power genom att välja en mer liberal alpha?
Det ökar risken för falsk positiv (typ ett fel).
Vad är skillnaden mellan statistical significance och practical/clinical significance?
Statistical significance: huruvida en effekt sannolikt inte beror på slum (alltså att p är mindre än a)
Practical/clinical significance: effekten är stor nog att den är användbar för populationen.
Varför räcker det inte att bara rapportera p-value?
P säger om en effekt finns men inte hur stor samt hur viktig den är. Effektstorlek och kontext behövs också.
I vilka situationer är det särskilt viktigt att diskutera power (t.ex. små stickprov)?
Ickesignifikanta resultat: för man kan missa verkliga effekter
Små stickprov: inte representativt för populationen
Vad menas med ett samband mellan två variabler?
Att de tenderar att hänga ihop med varandra
Vad mäter Pearson’s correlation coefficient (r)?
Styrka och riktning på det linjära sambandet mellan två kontinuerliga variabler.
Vilket värdeintervall kan r anta och vad betyder ytterligheterna −1, 0 och +1?
-1: helt negativt linjärt samband
0: inget linjärt samband
1: helt positivt linjärt samband
Vad är skillnaden mellan positiv och negativ korrelation?
Positiv: När x ökar tenderar y att öka eller vice versa (samma riktning)
Negativ: när den ena variabeln ökar minskar den andra eller vice versa (motsatt riktning)
Vad menas med att Pearson r mäter ett linjärt samband?
Hur punkterna i ett spridningsdiagram ligger kring linjen.
Vad är determinationskoefficienten r²?
En koefficent som anger hur stor del av variationen i den beroende variabeln kan förklaras av variationer i den oberoende variabeln när sambandet är linjärt.
Hur tolkas r² i termer av “förklarad varians”?
Om r² är 0,25 så förklaras cirka 25% av variansen.
Varför betraktas r² som ett effect size-mått?
För att den beskriver hur stor effekten är i praktiken, inte bara signifikans.
Vad är skillnaden mellan att tolka r och att tolka r²?
r: riktning och korrelationen
r2: effektstorleken (utan riktning)
Hur formuleras null hypothesis (H0) i en korrelationsstudie?
Det finns inget linjärt samband i populationen (p=0)
Hur formuleras alternative hypothesis (H1)?
Det finns linjärt samband i populationen (p ej lika med 0)
Vad innebär det att en korrelation är statistiskt signifikant?
Den observerade korrelationen är väldigt ovanlig om H0 är sann.
Vad är/mäter Cohen’s d?
Cohen’s d, vanligt mått på effektstorlek. Kvantifierar skillnaden mellan två gruppmedelvärden uttryckt i enheter av SD. Bedömer hur stor en effekt är, inte bara dess signifikans (p-värde).
Om det är 0,2 är det låg effekt, 0,5 medel och 0,8 stor effekt. Man jämför två medelvärden (exempelvis två grupper) och mäter skillnaden mellan gruppernas medelvärden i standardavvikelser. Om d = 0,5 så är skillnaden en halv SD.
Vad mäter determinationskoefficienten r²? (1p)
r2 är r i kvadrat. Beskriver andel förklarad varians i ett linjärt samband.
r säger riktning på sambandet och styrka på det linjära sambandet (alltid mellan -1 och 1). Med r2 vill man ha ett mått som kan tolkas som procent. Så där får man styrkan oavsett riktning.
Varians är ett mått på hur mycket y varierar mellan personer. Exempelvis om Y är poäng på ett prov.
Om man har två variabler, exempelvis x (antal pluggtimmar) och y (poäng på prov) så kan man ställa sig frågan; hur mycket av skillnaderna i y hänger ihop med x?
Får man exempelvis r = 0,6 så blir det i kvadrat 0,36 vilket innebär att 36% av variationen i tentapoäng hänger ihop med antal pluggtimmar.
Vilka är de viktigaste antagandena för Pearson correlation?
Datan ska vara på intervall eller kvotnivå (!!!)
Endast linjära samband (plotta, rita, data)
Homoskedasticitet → variansen (spridning) i Y är densamma för alla X värden (aka konstant), variansen i X densamma för alla Y värden. Är svårt att testa för, behöver kontrolleras visuellt.
Normalfördelning → testa för båda variablerna
Var oxå försiktig med outliers, se Anscombe
Vad innebär linearity i detta sammanhang?
Beskriver förhållande mellan två variabler som följer en rät linje (scatterplot), där förändring i en variabel motsvaras direkt och proportionerligt av en förändring i en annan. Viktigt för regression.
Varför är normality (approximate normal distribution) relevant?
Många parametriska metoder, ex t-test och ANOVA, förutsätter att data är normalfördelad för att ge korrekt P-värde och konfidensintervall.
Hur kan outliers påverka r?
Outliers (extremvärden) kan förvränga korrelationskoefficienten (r) genom att höja eller sänka dess värde avsevärt, då det kan gälla enstaka avvikare.
Varför ska man alltid plotta data (scatterplot) innan man tolkar en korrelation?
För att undvika att göra en felaktig slutsats, kan visuellt bekräfta att samband är linjärt och identifiera potentiella outliers som kan snedvrida korrelationen.
När är det mer lämpligt att använda Spearman’s rho istället för Pearson’s r?
Om förutsättningar för Pearson ej uppfylls eller om datan är på ordinalnivå (kan då vara bättre att ta Spearman). Alltså som sambandet ej följer en rät linje, ej är normalfördelat, ej är på intervall/kvotnivå och är icke-linjära samband. Då Spearman mäter om sambandet mellan två variabler är monotont (ökar/minskar en så ökar/minskar den andra)
Varför innebär korrelation aldrig kausalitet? Ge ett exempel på hur en tredje variabel kan skapa ett skenbart samband.
Två variabler kan korrelera utan att det ena orsakar den andra, samband kan bero på tredje faktor eller ren slump. Korrelation visar statistiskt samband, medan kausalitet kräver att en ändring i en variabel direkt orsakar en ändring i en annan. Ex glassförsäljning och drunkning.
Vad menas med “directionality problem” i korrelationsstudier?
Uppstår när det är oklart vilken variabel som orsakar förändring i den andra i en korrelationsstudie. Det innebär att man inte kan avgöra om A påverkar B, eller om B påverkar A, eftersom båda variablerna kan vara ömsesidigt relaterade utan att man kan fastställa riktningen på samband.
Varför ingår nästan alltid både hypotesformulering och signifikansprövning för r?
Hypotesformulering för att ge strukturerade och evidensbaserade bakgrund till analysen medan prövningen testar p-värden och konfidensintervaller mot datan.
Hur kopplas r² till effektstorlek i samma anda som η² i ANOVA och Cohen’s d i t-test?
r² kopplas till effektstorlek genom att mäta andelen förklarad varians, likt η² i ANOVA, och representerar hur mycket av den beroende variabelns variation som kan förklaras av OV i regression. Medan Cohen’s d mäter skillnaden mellan medelvärden i standardavvikelser så anger r² styrkan av associationen (effektstorleken).
När används de olika t-testerna?
Används när den beroende variabeln är kontinuerlig och du vill testa om ett medelvärde eller två skiljer sig mer än vad slumpen rimligen kan förklara.
Oberoende variabel: manipulerar (orsaken O rsaken)
Beroende: den som mäts/observeras i relation till den (effekten)
One sample t-test→ När man har en grupp och vill jämföra dess medelvärde mot ett känt eller hypotetiskt värde
Nollhypotesen blir att värdena kommer vara samma/liknande, alternativ blir att de inte är det
Frihetsgrader: n - 1
Stort t innebär att medelvärdet skiljer sig mycket från H0
Litet p innebär att resultatet vore osannolikt givet att H0 är sann (p < .05)
Independent sample t-test→ När man jämför två oberoende grupper
Om t är stort och p litet så finns det en signifikant skillnad mellan gruppernas medelvärden
Frihetsgrader: n1 + n2 - 2 (n1 och n2 är antalet observationer i vardera grupp)
Paired sample t-test → När samma personer mäts två gånger.
Man räknar skillnaden inom varje par och gör sedan ett one-sample t-test på skillnaderna. Man ser alltså om det har skett någon förändring eller inte.
Frihetsgrader: n - 1
a) Vad innebär en interaktionseffekt i en tvåvägs-ANOVA? (2p) Ge ett konkret exempel på en interaktionseffekt. (2p)
Innebär att effekten av en oberoende variabel på den beroende variabeln ej är konstant, utan beror på vilken nivå den oberoende variabeln befinner sig på. Kombination av två variabler ger en unik effekt som ej förklaras av enskild huvudeffekt.
Exempelvis studera effekten av studieteknik (a: mindmaps vs repitionsläsning) och ämnestyp (B:historia vs matematik) på provresultat (beroende variabel). Interaktion kan då bli att mindmaps har betydligt högre resultat historia men lägre i matematik jämfört med repetitionsläsning.
När ska man använda en envägs-ANOVA istället för ett t-test? (2p)
När vill jämföra medelvärden för tre eller fler oberoende grupper (eller nivåer av en faktor) och undersöka om minst en grupp skiljer sig signifikant från de andra. T-test är begränsat till att jämföra endast 2 grupper.
c) Vad menas med en interaktionseffekt? (1p)Vad menas med en huvudeffekt i en tvåvägs-ANOVA? (1p)
Interaktionseffekt innebär att effekten av en OV på BV skiljer sig beroende på nivån av en annan OV. Två faktorerna samverkar alltså.
Vad betyder SE?
Osäkerheten i stickprovsmedelvärdet.
Litet SE innebär säkrare uppskattning av populationens medelvärde
Vad och när används chi2 test?
Ett icke-parametriskt test som används för att undersöka skillnadermellan två betingelser då beroendevariabeln är på nominalnivå (d.v.s. Ja/nej,man/kvinna)
Används när man har kategoriska variabler och data är antal/frekvenser i en tabell
Om man vill testa om det finns ett samband mellan två kategorier (är de oberoende eller inte)
Om variablerna är oberoende så är fördelningen i kolumnerna samma i alla rader
Är de beroende så skiljer sig fördelningen mellan rader/kolumner
O: Observed, det man ser i varje ruta/har observerat
E: Expected, det du skulle förvänta dig i varje ruta om H0 vore sann
Om det inte finns något samband ska varje rad ha samma proportioner som hela tabellen
Om det finns totalt 60% veganer i hela tabellen och en viss förskola har 40 barn, då är det förväntat att 0,6 x 40 är veganer i den förskolan om H0 är sann
Man kan jämföra p med a eller x2 med kritiskt x2 värde från en tabell
Man använder df och a i en x2 tabell för att få x2 krit. Om x2 är större än x2 krit så förkastar man H0.
Hur räknar man ut Cohen’s d?
Om vi gör ett one sample t-test har vi ett stickprov med ett medelvärde och ett populationsmedelvärde. Då tar vi stickprovsM minus populationM och delar på standardavvikelsen. Vid paired samples t-test tar vi skillnaden mellan alla parade mätvärden och delar på standardavvikelsen. Vid independent samples t-test (här kanske de blir komplicerat enl. Philip) tar man ena gruppens medelvärde minus medelvärdet i andra gruppen. Eftersom dessa grupper kan va olika stora finns det en speciell formel för att räkna ut en sådan standardavvikelse. Vi har formen för den polade variansen som den kallas under independent samples t-test i formelbladet.
Vad anger SS(total) SS(between) SS(within) och Df för samtliga?
SS(total) → den totala kvadratsumman och är ett mått på den totala variationen i hela materialet. Över alla individer och betingelser lägger vi ihop personernas kvadrerade avvikelser från totalmedelvärdet.
SS(between) →kvadratsumman mellan grupper. Om man har olika många personer i de olika grupperna beräknar man för varje grupp produkten av antalet personer i gruppen (nj) och gruppmedelvärdets kvadrerade avvikelse från totalmedelvärdet. Sen lägger man ihop alla dessa produkter. Ju större SS(b) blir desto större är mellangruppsvariationen.
SS(within) → kvadratsumman inom grupperna. Man lägger ihop alla individernas kvadrerade avvikelser från sina gruppmedelvärden. Ju större SSW blir, desto större är inomgruppsvariationen.
Df(total) →antalet individer minus ett
Df(b) →antalet grupper minus ett
Df(w) →antalet individer minus antalet grupper
Vad och när används ANOVA?
ANOVA (variansanalys): Analysis of Variance är en vidareutveckling av t-test, det finns envägs-ANOVA och tvåvägs-ANOVA av beroende och oberoende data. Analysen hjälper oss att undersöka modeller som är mer komplexa och närmare verkligheten. Den oberoende variabeln kallas ofta för faktor. ANOVA beräknar olika källor av varians
Envägs-ANOVA → Envägs-ANOVA används när man haren oberoende variabel med fler än två betingelser och har uppfyllt parametriska krav.
Detta kan delas in i en beroende eller oberoende envägs-ANOVA. Vi vill med envägs-ANOVA undersöka om värdena varierar mer mellan betingelserna än inom betingelserna. Om mellangruppsvariansen (som kan antas bero på manipulationen) är hög i relation till inomgruppsvariansen kommer vi antagligen att kunna avfärda nollhypotesen (dvs. signifikant skillnad)
Tvåvägs ANOVA → Tvåvägs ANOVA används vid faktoriell design för att undersöka effekten på en beroende variabel av två eller fler oberoende variabler (med två eller fler betingelser)samt att de parametriska kraven ska vara uppfyllda. Tvåvägs-ANOVA kan vara beroende, oberoende eller mixad.Tre resultat man kan få reda på med en tvåvägs-ANOVA är huvudeffekt av OBV1, huvudeffekt av OBV2 och interaktion mellan OBV1 och OBV
Vilka typer av varianser kan det bl.a finnas i en studie?
Inomgruppsvarians(felvarians): Variationen inom varje betingelse (stor variation–stor skillnad mellan olika observationer). Beräknas med hjälp av ANOVA.
Inomgruppsvarians kan bero på systematiskaindividuella skillnader, t.ex.skillnader i förmågor, svarsstil(t.ex. olika bra minne, motivation) eller slumpmässiga fel, t.ex. mätfel(t.ex. begränsningar i testet)
Mellangruppsvarians (systematisk varians):Variationen mellan de betingelser manjämför (stor variation = stor skillnad mellan betingelserna). Beräknas med hjälp av ANOVA.
Mellangruppsvarians kan bero på variation i BV som beror på förändring i OBV(presentationsformatens effekt på minnet), OVV(ovidkommande variabler-t.ex. olika instruktioner, uttröttning)
Total varians: Mellangruppsvarians+inomgruppsvarians.
Mätvariation: När upprepade mätningar av samma objekt varierar. Kan vara begränsad reliabilitet ex. att man mäter kroppslängd med en liten linjal eller attsystemet ändras ex. att det skulle finnas en viss variation i kroppslängd överdygnet.
Naturlig variation: Att objekt skiljer sig åt i allmänhet t.ex. att människor är olika långa.
Inducerad variation:Att vi placerar folk i olika miljöer/betingelser t.ex. att de fårolika kost.
Vad är F-kvoten?
F-kvoten (felvariansen): Mellangruppsvariansensrelation till inomgruppsvariansen (felvariansen).Om mellangruppsvariansen är hög i förhållande till felvariansen blir F hög. Ifall F är mindre än 1 så är felvariansen större än mellangruppsvariansen och då är resultatet inte signifikant. Vi använder F-värdet i ANOVA-tabeller för att se om resultatet av analysen är signifikant.