PickMyTest

Einfaktorielle Varianzanalyse (ANOVA)

Vergleich der Mittelwerte von drei oder mehr unabhängigen Gruppen

Einfaktorielle Varianzanalyse (ANOVA)#

Die einfaktorielle ANOVA (Analysis of Variance) prüft, ob sich die Mittelwerte von drei oder mehr unabhängigen Gruppen statistisch signifikant unterscheiden. Sie ist die Erweiterung des t-Tests für unabhängige Stichproben auf mehr als zwei Gruppen.

Wann verwenden?#

Verwende die einfaktorielle ANOVA, wenn du:

  • Drei oder mehr unabhängige Gruppen hinsichtlich einer metrischen Variable vergleichen möchtest
  • Die abhängige Variable metrisch (stetig) ist
  • Die Daten in allen Gruppen annähernd normalverteilt sind
  • Die Varianzen in den Gruppen annähernd gleich sind (Homoskedastizität)

Wichtig: Die ANOVA testet nur, ob irgendein Unterschied zwischen den Gruppen besteht (Omnibus-Test). Sie sagt nicht, welche Gruppen sich unterscheiden. Dafür sind Post-hoc-Tests erforderlich (z. B. Tukey-HSD, Bonferroni).

Voraussetzungen#

  • Unabhängigkeit der Beobachtungen (zwischen und innerhalb der Gruppen)
  • Metrisches Skalenniveau der abhängigen Variable
  • Normalverteilung in jeder Gruppe (Shapiro-Wilk-Test pro Gruppe)
  • Varianzhomogenität (Levene-Test) – bei Verletzung: Welch-ANOVA

Hinweis: Die ANOVA ist relativ robust gegenüber leichten Verletzungen der Normalverteilungsannahme, insbesondere bei großen und gleich großen Stichproben. Bei deutlicher Verletzung ist der Kruskal-Wallis-Test die geeignete nichtparametrische Alternative.

Formel#

Die Teststatistik basiert auf dem Verhältnis der Varianz zwischen den Gruppen zur Varianz innerhalb der Gruppen:

F=MSbetweenMSwithinF = \frac{MS_{between}}{MS_{within}}

Die mittleren Abweichungsquadrate berechnen sich aus den Quadratsummen:

MSbetween=SSbetweendfbetween=j=1knj(XˉjXˉ)2k1MS_{between} = \frac{SS_{between}}{df_{between}} = \frac{\sum_{j=1}^{k} n_j (\bar{X}_j - \bar{X})^2}{k - 1} MSwithin=SSwithindfwithin=j=1ki=1nj(XijXˉj)2NkMS_{within} = \frac{SS_{within}}{df_{within}} = \frac{\sum_{j=1}^{k} \sum_{i=1}^{n_j} (X_{ij} - \bar{X}_j)^2}{N - k}

wobei:

  • kk die Anzahl der Gruppen ist
  • njn_j die Größe der j-ten Gruppe ist
  • NN die Gesamtstichprobengröße ist
  • Xˉj\bar{X}_j der Mittelwert der j-ten Gruppe ist
  • Xˉ\bar{X} der Gesamtmittelwert ist

Die Teststatistik folgt einer F-Verteilung mit df1=k1df_1 = k - 1 und df2=Nkdf_2 = N - k Freiheitsgraden.

Beispiel#

Praxisbeispiel: Vergleich von Lehrmethoden

Eine Bildungsforscherin möchte drei verschiedene Lehrmethoden vergleichen. Sie teilt 90 Studierende zufällig in drei Gruppen ein:

  • Gruppe 1 (n=30): Traditionelle Vorlesung
  • Gruppe 2 (n=30): Problembasiertes Lernen
  • Gruppe 3 (n=30): E-Learning

Am Ende des Semesters schreiben alle Studierenden dieselbe Klausur. Die einfaktorielle ANOVA prüft, ob sich die mittleren Klausurergebnisse der drei Gruppen signifikant unterscheiden.

Falls das Ergebnis signifikant ist (p<.05p < .05), folgen Post-hoc-Tests (z. B. Tukey-HSD), um zu bestimmen, welche Gruppen sich konkret voneinander unterscheiden.

Effektstärke#

Eta-Quadrat (η2\eta^2) als Maß der Effektstärke:

η2=SSbetweenSStotal\eta^2 = \frac{SS_{between}}{SS_{total}}

Partielles Eta-Quadrat wird häufig in der Praxis berichtet:

ηp2=SSbetweenSSbetween+SSwithin\eta_p^2 = \frac{SS_{between}}{SS_{between} + SS_{within}}
Effektstärkeη²
Klein0.01
Mittel0.06
Groß0.14

Tipp: Alternativ kann auch Omega-Quadrat (ω2\omega^2) berichtet werden, das eine weniger verzerrte Schätzung der Populationseffektstärke liefert.

Weiterführende Literatur

  • Fisher, R. A. (1925). Statistical Methods for Research Workers. Oliver and Boyd.
  • Field, A. (2018). Discovering Statistics Using IBM SPSS Statistics (5. Aufl.). SAGE.
  • Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences (2. Aufl.). Lawrence Erlbaum Associates.