1. Utfall som alltid er stÞrre enn 0. Noen typer modeller ignorerer at utfallet for noen variabler alltid er stÞrre enn 0. Dersom man gjÞr en posterior_predictive test vil man gjerne observere at fordelingen til prediksjonene fra modellen ikke samsvarer godt nok med fordelingen pÄ Y. En mÄte Ä tilpasse modellen pÄ sÄ den i stÞrre grad samsvarer med fordelingen pÄ Y, er Ä logtransformere Y.
â ïž ikke like enkelt dersom utfallet ogsĂ„ kan vĂŠre akkurat 0, ettersom log-0 er udefinert, det vil si at en DIREKTE log-transformering av verdien 0 ikke er mulig.
2. Multiplikative sammenhenger (motsatte av additiv). Logtransformering tillater koeffisienter med multiplikativ tolkning. Sammenhengene mellom X og Y er ikke alltid additive, da bryter man i tillegg med en av forutsetningene for lineĂŠr regresjon. Dermed kan logtransformering vĂŠre gunstig.
3. Mer enkelt er logtransformering ofte anbefalt for skjeve data, ettersom logtransformering gjerne har effekten av Ä spre ut data som har klumpet seg, og pÄ den andre siden samle data som er veldig spredt - for eksempel til kun den ene siden av fordelingen.
Det er flere grunner til Ă„ ville gjĂžre dette:
- Det kan bidra til at dataene i stÞrre grad likner pÄ en normalfordeling, som kan vÊre gunstig dersom man gjennomfÞrer en statistisk analyse som forutsetter normalitet.
- Det kan bidra til Ä mÞte forutsetning om homoskedastisitet -altsÄ at residualene er like pÄ tvers av verdiene - for lineÊr regresjon
- Det kan ogsÄ bidra til Ä gjÞre et ikke-lineÊrt forhold, mer lineÊrt.