PickMyTest

Lineare Gemischte Modelle (LMM)

Lineare gemischte Modelle erweitern die RM-ANOVA um fehlende Daten, ungleiche Zeitabstände und verschachtelte Strukturen — die moderne Alternative für Messwiederholungen.

Lineare Gemischte Modelle (LMM)#

Wenn du eine RM-ANOVA verwenden würdest, aber fehlende Daten, ungleiche Zeitabstände oder verschachtelte Strukturen hast — dann sind lineare gemischte Modelle (LMM) dein Werkzeug. Sie sind keine komplizierte Spezialmethode, sondern die natürliche Weiterentwicklung der Varianzanalyse. Tatsächlich ist die RM-ANOVA ein Spezialfall des LMM.

Wann verwenden?#

  • Du hast Messwiederholungen, aber einige Daten fehlen — LMM können mit fehlenden Werten umgehen, ohne dass du Personen komplett ausschließen musst
  • Deine Messungen haben ungleiche Zeitabstände (z. B. Erhebungen nach 1, 3 und 12 Monaten)
  • Deine Daten sind verschachtelt (z. B. Schüler in Klassen, Patienten in Kliniken)
  • Du brauchst mehr Flexibilität als eine klassische ANOVA bietet — etwa unterschiedliche Kovarianzstrukturen
  • Du willst individuelle Verläufe modellieren (jede Person kann ihren eigenen Ausgangswert und ihre eigene Steigung haben)

Fixed und Random Effects — einfach erklärt#

Stell dir vor, du untersuchst den Lernfortschritt von Schülern in verschiedenen Klassen:

  • Fixed Effects beantworten deine Forschungsfrage: „Verbessert die neue Lehrmethode die Leistung?" — das sind die Effekte, die du auf die Population verallgemeinern willst.
  • Random Effects modellieren die Struktur deiner Daten: „Schüler in derselben Klasse sind sich ähnlicher als Schüler aus verschiedenen Klassen." — sie fangen die Variation zwischen Gruppen (z. B. Klassen) auf.

Merke: Fixed Effects = das, was dich inhaltlich interessiert. Random Effects = die Verschachtelung in deinen Daten.

Voraussetzungen#

  • Linearität — der Zusammenhang zwischen Prädiktoren und Outcome ist linear
  • Normalverteilung der Residuen (nicht der Rohdaten!)
  • Normalverteilung der Random Effects
  • Unabhängigkeit der Beobachtungen auf der höchsten Ebene (z. B. zwischen Klassen)

Hinweis: LMM sind robust gegenüber leichten Verletzungen der Normalverteilung, besonders bei größeren Stichproben. Prüfe die Residuen mit einem QQ-Plot. Anders als bei der RM-ANOVA ist keine Sphärizitäts-Annahme nötig.

Formel#

Die Grundidee ist einfach — es wird nur ein Zufallsanteil ergänzt:

Yij=(β0+b0j)+(β1+b1j)Xij+εijY_{ij} = (\beta_0 + b_{0j}) + (\beta_1 + b_{1j}) \cdot X_{ij} + \varepsilon_{ij}

Dabei ist:

  • β0\beta_0 = fester Achsenabschnitt (Gesamtmittel, Fixed Effect)
  • b0jb_{0j} = zufällige Abweichung des Achsenabschnitts für Gruppe jj (Random Intercept)
  • β1\beta_1 = fester Effekt des Prädiktors (z. B. Zeit)
  • b1jb_{1j} = zufällige Abweichung der Steigung für Gruppe jj (Random Slope)
  • εij\varepsilon_{ij} = Residuum

Vereinfacht: Jede Person (oder Gruppe) bekommt ihren eigenen Startpunkt und ihre eigene Steigung, aber alle werden aus einer gemeinsamen Verteilung gezogen.

Die RM-ANOVA ist ein Spezialfall des LMM — mit balanciertem Design, vollständigen Daten und compound-symmetry-Kovarianzstruktur liefern beide identische Ergebnisse.

Beispiel#

Praxisbeispiel: Stressreduktion mit fehlenden Daten

60 Patienten nehmen an einem 8-wöchigen Stressreduktionsprogramm teil. Der Stresslevel wird zu 4 Zeitpunkten gemessen (Woche 0, 2, 5 und 8 — ungleiche Abstände). 12 Patienten erscheinen nicht zu allen Terminen.

Mit RM-ANOVA: 12 Patienten werden komplett ausgeschlossen → nur 48 Patienten → Informationsverlust und mögliche Verzerrung.

Mit LMM: Alle 60 Patienten werden einbezogen. Das Modell nutzt die vorhandenen Daten jeder Person.

Modell: Stress ~ Zeit + (1 + Zeit | Person)

Ergebnisse:

  • Fixed Effect Zeit: β1=2.34\beta_1 = -2.34, SE=0.41SE = 0.41, p<.001p < .001 — der Stress sinkt im Schnitt um 2.34 Punkte pro Messzeitpunkt
  • Random Intercept SD: 4.12 — Personen starten auf unterschiedlichen Stresslevels
  • Random Slope SD: 1.08 — die Stressreduktion variiert zwischen Personen

Effektstärke#

Für LMM werden zwei R2R^2-Maße berichtet (nach Nakagawa & Schielzeth):

Rmarginal2=σf2σf2+σr2+σe2R^2_{\text{marginal}} = \frac{\sigma^2_f}{\sigma^2_f + \sigma^2_r + \sigma^2_e}

Rconditional2=σf2+σr2σf2+σr2+σe2R^2_{\text{conditional}} = \frac{\sigma^2_f + \sigma^2_r}{\sigma^2_f + \sigma^2_r + \sigma^2_e}

  • Marginales R2R^2: Varianzaufklärung nur durch die Fixed Effects
  • Konditionelles R2R^2: Varianzaufklärung durch Fixed + Random Effects
MaßInterpretation
Rm2R^2_m = 0.13, Rc2R^2_c = 0.55Fixed Effects erklären 13 %, mit Random Effects 55 % — die Gruppenstruktur erklärt viel
Rm2Rc2R^2_m \approx R^2_cGeringe Variation zwischen Gruppen — ein einfacheres Modell reicht vermutlich

Tipp: Wenn Rm2R^2_m und Rc2R^2_c stark auseinanderklaffen, sind die Random Effects wichtig und ein einfaches Regressionsmodell wäre unzureichend.

Weiterführende Literatur

  • Winter, B. (2020). Statistics for Linguists: An Introduction Using R. Routledge. (Sehr zugängliche Einführung in LMM)
  • Nakagawa, S. & Schielzeth, H. (2013). A general and simple method for obtaining R2R^2 from generalized linear mixed-effects models. Methods in Ecology and Evolution, 4(2), 133–142.
  • Baayen, R. H., Davidson, D. J. & Bates, D. M. (2008). Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language, 59(4), 390–412.