Fundamentalt problem med type-1 og 2 feil:
I mange tilfeller i sv tror vi aldri at nullhypotesen er sann: feks, endring av en lov vil alltid føre til NOE endring, så hypotesen om at loven fører til 0 endring gir ikke mening.
Har egentlig ingen praktisk betydning - Å unnlate å avvise en nullhypotese betyr ikke at vi aksepterer nullhypotesen. avvise en nullhypotese betyr ikke at den alternative hypotesen er riktig da det kan være mange andre alt. forklaringer som egnt er riktige.
Man trenger:
overbevisende teori
nye tester
gjennomgang av alternative forkalrnger
Å leke rundt med signifikanstesting til et gitt nivå er nådd: eks, forskere fant følge Gelman lave p-verder i en medisinsk røntgenundersøkelse av en død laks.
Hvordan unngå dette:
formulere hypoteser på forhånd
,mønstre fra data burde testes på nytt
analysere all data, ikke kun deler av data
raportere alle sammenligninger og analyser
gjøre all data offentlig
Mønstre av tilfeldig variasjon (plott over residualer får frem ikke modellerte mønstre i dataene)
Utvalgsfordelingen til data og estimatorene våre (bootstrapping: estimere usikkerhet i estimatene våre, feks får man bootstrappet Standardfeil)
Usikkerhet i prediksjoner fra estimerte modeller (posterior_epred for å illustrere usikkerhet i predikerte sannsynligheter i logistisk regresjon)
Sannsynlighetsfordeling (normalfordeling eller binomial fordeling)
Set seed
Funksjoner
Subsetting
If else statements
Loops
Gir en formening om hvordan datasettet ville sett ut dersom vi kunne ha samlet inn data på nytt.
Bootstrapping er en form for resirkulering av datasett, der man kan anslå usikkerhet i parameterestimatene gjennom å få bootstrappet standardfeil --> særskilt nyttig dersom vi mangler mål på usikkerhet.
Fremgangmåte: Tilfeldig gjenvalg av utvalgets data der utbytting er "lov".
Man lager altså nye datasett - og hver observasjon kan forekomme flere ganger i datasettet, mens noe kan bli utelatt helt.
Komplikasjoner:
passer dårlig for tidsserie- og flernivådata
funker dårlig dersom det originale utvalgte var skjevt og var preget av lav validitet (eks: ingen mørke stemte på republikanere, men var bare ikke blitt spurt)
Validitet
Ytre validitet (representativitet)
Additivitet og lineær modell
Uavhengige residualer (fravær av autokorrelasjon)
Lik varians for residualene (homoskedastisitet)
Normalfordelte residualer: (omtrent kun relevant for prediksjon)
mønsteret er tilfeldig, og ingen residualer skiller seg kraftig ut
residualene danner et horisontalt bånd rundt null. Dette tilsier at variansen til residualene er relativt like (aka homoskedastisitet)
Forenkle tolkning av modeller F.eks: endre skala, sentrere konstantledd til gjennomsnitt så det blir mer forståelig, standardisering for å enklere kunne sammenligne koeffisienter.
Modellere sammenhenger slik at de blir ikke-lineære eller ikke-additive (at prediktorene faktisk interagerer med hverandre).
Standardiserte koeffisienter reflekterer økninger på ett standardavvik i X
Standardisering gjør det enklere å sammenligne koeffisienter, fordi man får de på samme skala, nemlig standardavvik.
"Når X øker med ett standardavvik, øker Y med koeffisienten"
⚠️ gir lite mening for binære variabler
Utfall som alltid er større enn 0. Noen typer modeller ignorerer at utfallet for noen variabler alltid er større enn 0. Dersom man gjør en posterior_predictive test vil man gjerne observere at fordelingen til prediksjonene fra modellen ikke samsvarer godt nok med fordelingen på Y. En måte å tilpasse modellen på så den i større grad samsvarer med fordelingen på Y, er å logtransformere Y.
⚠️ ikke like enkelt dersom utfallet også kan være akkurat 0, ettersom log-0 er udefinert, det vil si at en DIREKTE log-transformering av verdien 0 ikke er mulig.
Multiplikative sammenhenger (motsatte av additiv). Logtransformering tillater koeffisienter med multiplikativ tolkning. Sammenhengene mellom X og Y er ikke alltid additive, da bryter man i tillegg med en av forutsetningene for lineær regresjon. Dermed kan logtransformering være gunstig.
Mer enkelt er logtransformering ofte anbefalt for skjeve data, ettersom logtransformering gjerne har effekten av å spre ut data som har klumpet seg, og på den andre siden samle data som er veldig spredt - for eksempel til kun den ene siden av fordelingen. Det er flere grunner til å ville gjøre dette:
Det kan bidra til at dataene i større grad likner på en normalfordeling, som kan være gunstig dersom man gjennomfører en statistisk analyse som forutsetter normalitet.
Det kan bidra til å møte forutsetning om homoskedastisitet -altså at residualene er like på tvers av verdiene - for lineær regresjon
Det kan også bidra til å gjøre et ikke-lineært forhold, mer lineært.
Kryssvalidering (Leave One Out)
utelate en observasjon av gangen
bruke resten av dataene til å predikere den utelatte observasjonen
gjenta til man har predikert for hver og en utelatt variabel
bruke elpd til å vurdere hvor godt modellen predikerer
jo større elpd jo bedre!
family = binomial(link = “logit”)
lineære modeller er kontinuerlig og egner seg ikke bra for binære utfall, den logistiske der i mot passer også for utfall som er mellom 1 og 0.
det er teknisk mulig å implementere en lineær modell, men den vil da predikere observasjoner større en 1 og mindre enn 0, samt ofte ikke passe god med observasjonene som ikke nødvendigvis tilnærmer seg en rett linje lenger, da vil også forutsetning om homoskedastisitet være brutt ettersom residualene gjerne vil ha rimelig forskjellige størrelser / avstand til regresjonslinjen.
Logistisk regresjon oversetter fra den lineære formen, til sannsynligheten for et utfall.
Nå er koffa vanskelig å tolke fordi de er på en logit-skala (endringer i log, ikke skalaenhet)
Koffa vil avhenge av de andre prediktorene
Man kan tolke som odds, altså sannsynligheten for at noe vil skje / sannsynligheten for at noe ikke skjer.
exp(coefficients(logmod1)) #eksponensiering av koffa gir relative forskjeller i odds, men er fortsatt ikke veldig intuitivt og tolke "Når man øker normnetwoods med 1, øker oddsen med 14.5"
Utfallsvariabel Y
Prediktorer X, med sine koeffisienter β, som gir oss den lineære prediktoren Xiβ
Link-funksjon. Mange forskjellige funksjoner som kobler den lineære X til Y
(for eksempel: Istedenfor å få de på samme skala som Y/utfallet, får du det på LOGIT-skala).
Fordeling: vi predikerer ikke utfallene perfekt, så det vil være noe variasjon rundt punktestimatene predikert av modellen, Y.
(av og til har vi andre tilleggs-parametere for å håndtere spesielle problemer som oppstår i noen type modeller)
POWER er en designanalyse som kan gjennomføres for å komme frem til sannsynligheten for å få et signifikant resultat, dersom man gjennomfører en potensiell undersøkelse.
Man gjør tre antakelser som danner basisen for simuleringen.
Størrelse på sammenhengen (antakelse om hvor stor eller liten en sammenheng er)
Signifikansnivå
Utvalgsstørrelse
Gelman viser til signifikant funn i 80% av simuleringene som en slags terskel - da basert på hva forskningsinstitutter godkjenner.
den tilfeldige fordelingen av behandling gjør at ignorerbarhetsantakelsen holder i gjennomsnitt
troverdig at forskjellene vi estimerer ikke påvirkes av bakenforliggende variabler
vi kan estimere årsakssammenheng mellom X og Y, selv om selvfølgelig masse andre faktorer kan forklare variasjon i utfallene, og feks økologisk validitet kan være et problem for generalisering, vil vi fortsatt kunne estimere den direkte årsakssammenhengen mellom X og Y.