Regressionsvoraussetzungen testen &
Alternativen bei verletzten Regressionsannahmen

Arndt Regorz, Dipl. Kfm. & M.Sc. Psychologie, 03.06.2022

Wenn man eine multiple Regression durchführt, sind eine Reihe von Voraussetzungen zu testen, um zu gültigen Ergebnissen zu kommen. Hier werden die wesentlichen Voraussetzungen vorgestellt und ggf. mögliche Maßnahmen erläutert, wenn die Voraussetzungen verletzt sind.

Inhalt

  1. Normalverteilung
  2. Homoskedastizität
  3. Linearität
  4. Keine starke Multikollinearität
  5. Unkorreliertheit der Fehler
  6. Skaleneigenschaften
  7. Keine starken Ausreißer
  8. Testen der Regressionsvoraussetzungen mit R

1. Normalverteilung

Dieses Tutorial erläutert die Voraussetzung normalverteilter Fehlerterme bei der Regression:
Normalverteilung als Regressionsvoraussetzung

Und hier wird mit Bootstrapping eine mögliche Alternative erklärt, wenn die Normalverteilungsvoraussetzung verletzt ist (theoretische Grundlagen und Umsetzung mit SPSS):
Bootstrapping bei Regression

Der Einsatz von Bootstrapping bei der Regression mit R wird hier gezeigt:
Regression mit Bootstrapping in R

2. Homoskedastizität

Dieses Tutorial erläutert die Voraussetzung der Homoskedastizität (Varianzhomogenität):
Homoskedastizität als Regressionsvoraussetzung

Und hier wird als mögliche Alternative bei Heterkoskedastizität der Einsatz robuster Standardfehler erklärt:
Robuste Standardfehler bei Heteroskedastizität

3. Linearität

Dieses Tutorial erläutert die Voraussetzung der Linearität:
Linearität als Regressionsvoraussetzung

Und hier wird als mögliche Alternative bei einem nicht linearen Zusammenhang die polynomiale Regression erklärt:
Polynomiale Regression

4. Keine starke Multikollinearität

Dieses Tutorial erläutert die Voraussetzung, dass keine starke Multikollinearität zwischen den verschiedenen Prädiktoren herrscht:
Regressionsvoraussetzung: Keine starke Multikollinearität

Hier wird die Interpretation der SPSS-Tabelle „Kollinearitätsdiagnose“ erklärt:
SPSS-Tabelle "Kollinearitätsdiagnose" bei Regression

Die Voraussetzung, dass es keine starke Multikollinearität gibt, gilt anders als die anderen auf dieser Seite aufgeführten Voraussetzungen nur bei einer multiplen Regression, also mit zwei oder mehr Prädiktoren. Bei einer einfachen Regression können/müssen Sie das nicht prüfen.

5. Unkorreliertheit der Fehlerterme

Dieses Tutorial erläutert die Voraussetzung unkorrelierter Fehler (manchmal auch ausgedrückt als unabhängige Fehler):
Regressionsvoraussetzung: Unkorreliertheit der Fehler bzw. Residuen

Wenn eine genestete Datenstruktur vorliegt, einer der Hauptgründe für eine Verletzung dieser Voraussetzung, kommen i.d.R. Verfahren der Mehrebenenanalyse (HLM, Linear Mixed Effects Models) zum Einsatz, siehe Mehrebenenanalyse (HLM, Linear Mixed Effects Models).

6. Skaleneigenschaften

Dieses Tutorial erläutert die notwendigen Skaleneigenschaften für die multiple lineare Regression:
Regressionsvoraussetzung: Geeignete Skaleneigenschaften

Wenn Ihr Prädiktor / Ihre UV lediglich ordinalskaliert ist, gibt es eine Reihe von Optionen, wie man dennoch eine multiple lineare Regression durchführen kann:
Ordinale Prädiktoren/UVs in der Regression

7. Keine starken Ausreißer

Dieses Tutorial erläutert den Umgang mit Ausreißern bei der Regression:
Regressionsvoraussetzung: Keine starken Ausreißer

Mit R können Sie eine robuste Regression durchführen, ein Verfahren, das robust gegen den Einfluss von Ausreißern ist:
Robuste Regression mit R

8. Testen der Regressionsvoraussetzungen mit R

Hier wird der Test der Regressionsvoraussetzungen mit R demonstriert (R-Syntax)
Regressionsvoraussetzungen mit R testen

(Der Test der Regressionsvoraussetzungen mit SPSS ist jeweils in die o.g. Tutorials integriert.)