1/48
Looks like no tags are added yet.
Name | Mastery | Learn | Test | Matching | Spaced | Call with Kai |
|---|
No analytics yet
Send a link to your students to track their progress
Hypothesentests
Entscheidung über Beibehalten oder Ablehnen der Nullhypothese
Hypothesen werden nicht bewiesen
H₀ = Ausgangsannahme
H₁ = Untersuchungsziel
Ziel ist Ablehnung von H₀
Signifikanzniveau (α)
Irrtumswahrscheinlichkeit für Fehler 1. Art
z. B. 0,05 = 5 % Risiko, H₀ fälschlich abzulehnen
je kleiner α, desto strenger der Test
Statistisches Testen
Mittelwerttest prüft Durchschnitt – Häufigkeitstest prüft Anteil/Prozentsatz
Fehler 1. und 2. Art
α-Fehler = H₀ wird fälschlich abgelehnt
β-Fehler = H₀ wird fälschlich beibehalten
t-Test
Wird verwendet bei unbekannter Populationsvarianz und meist kleinen Stichproben
Arten des t-Tests
Einstichproben-t-Test prüft Mittelwert gegen Referenzwert
Zweistichproben-t-Test vergleicht zwei Mittelwerte
ANOVA (Varianzanalyse)
Prüft, ob sich mehr als zwei Gruppen im Mittelwert unterscheiden
vergleicht Varianz zwischen Gruppen mit Varianz innerhalb der Gruppen
basiert auf F-Verteilung
F = Varianz zwischen / Varianz innerhalb
F groß → signifikante Unterschiede
Post-hoc-Test
Nach signifikanter ANOVA wird z. B. Tukey-HSD verwendet, um festzustellen, welche Gruppen sich unterscheiden
Zwei-Wege-ANOVA
Untersucht gleichzeitig zwei unabhängige Faktoren auf eine Zielgröße und prüft auch Interaktionseffekte
Zwei-Wege-ANOVA mit Replikation
Mehrere Beobachtungen pro Faktor-Kombination
Korrelationsanalyse
Misst Stärke und Richtung des Zusammenhangs zwischen zwei Variablen
keine Aussage über Kausalität
Korrelationsarten
Kovarianz – Bravais-Pearson (r) – Spearman (ρ) – Kendall (τ)
t- vs. z-Test
z-Test bei bekannter Varianz und großer Stichprobe
t-Test bei unbekannter Varianz und kleiner Stichprobe
t-Verteilung breiter wegen höherer Unsicherheit
Pearson-Korrelationskoeffizient (r)
Misst Stärke und Richtung des linearen Zusammenhangs zwischen zwei metrischen Variablen
Spearman-Rangkorrelation (ρ)
Misst Stärke des monotonen Zusammenhangs
verwendet Rangdaten
geeignet für ordinale Daten (z. B. Schulnoten, Zufriedenheitsskalen)
Vorteile von Spearman gegenüber Pearson
Robuster gegenüber Ausreißern
auch für ordinale Daten geeignet
erkennt monotone, nicht zwingend lineare Zusammenhänge
Variablentypen im Modell
Independent Variable (IV) = Einflussvariable
Dependent Variable (DV) = Zielvariable
Control Variable (CV) = Kontrollvariable zur Vermeidung von Verzerrung
Arten der Power-Analyse
A-priori (vor Studie, Standard) – Post-hoc (nach Studie, kritisch betrachtet)
Effektgröße (Cohen’s d)
Maß für Stärke des Unterschieds zwischen zwei Gruppen
Regression
Modelliert Zusammenhang zwischen abhängiger Variable (y) und einer oder mehreren unabhängigen Variablen (x) – Ziel: Vorhersage und Erklärung
Residuen
Differenz zwischen beobachtetem und vorhergesagtem Wert – Quadratsumme der Residuen = SSE
Ziel der Regression
Minimierung der quadrierten Residuen (Methode der kleinsten Quadrate)
Bestimmtheitsmaß (R²)
Gibt an, wie viel Prozent der Varianz von y durch das Modell erklärt werden
Unterschied Korrelation vs. Regression
Korrelation beschreibt Zusammenhang zwischen ZWEI Variablen
Regression beschreibt Einfluss von X auf Y, es werden ALLE Variablen berücksichtig
VIF (Variance Inflation Factor)
Messzahl für Multikollinearität
Moderation (Interaktionseffekt)
Effekt von x auf y hängt von einer dritten Variable (Moderator z) ab
Homoskedastizität
Annahme konstanter Streuung der Residuen über alle x-Werte – gleich breite „Fehlerwolke“
Heteroskedastizität
Nicht konstante Streuung der Residuen (z. B. Trichterform)
verletzt Regressionsannahme
prüfbar über Residuenplot oder Breusch-Pagan-Test
Polynom-Regression
Erweiterung der linearen Regression bei gekrümmtem Zusammenhang (z. B. x², x³) – Gefahr von Overfitting bei zu hohem Polynomgrad
LASSO-Regression
Lineare Regression mit Regularisierung
bestraft große Koeffizienten
unwichtige Variablen erhalten Koeffizient 0
reduziert Overfitting und führt automatische Variablenselektion durch
Operations Research
Analytischer Ansatz zur Entscheidungsoptimierung mithilfe von Mathematik, Statistik und Algorithmen – Ziel: Kosten senken, Ressourcen optimal nutzen
Lineare Optimierung
Sucht optimale Lösung eines Problems mit linearer Zielfunktion unter Nebenbedingungen – häufig Minimierungsproblem (z. B. Kosten)
Sensitivitätsanalyse
Untersucht, wie empfindlich die optimale Lösung auf Änderungen von Parametern reagiert – berücksichtigt Nebenbedingungen und Schattenpreis
Multikollinearität
Starke Korrelation zwischen unabhängigen Variablen, sodass sie ähnliche Informationen enthalten