Neben grafischen und numerischen Analysen für unterschiedlich skalierte Erfassungsvariablen bietet die SPSS Software die Möglichkeit, eine Regressionsanalyse für metrische Paarungen von abhängigen und unabhängigen Variablen durchzuführen.

Im Folgenden wird zunächst auf die (mathematischen) Grundzüge eines Regressionsmodells im Allgemeinen eingegangen. Danach wird beschrieben, wie die Anwendung lineare Regression SPSS Version 22 abläuft. (Für ältere Versionen ist der Ablauf ähnlich, die Ausgabeformate können jedoch abweichen.)
Abschließend werden die Ergebnisse – anhand eines Beispiels zu lineare Regression SPSS anwendend interpretiert und bewertet.

Sollten Sie Unterstützung bei Auswertungen mit SPSS benötigen, helfen unsere Statistiker Ihnen gerne weiter. Nutzen Sie einfach unser Kontaktformular für eine kostenlose Beratung & ein unverbindliches Angebot – oder rufen Sie uns an.

Lassen Sie uns Ihre Anforderungen wissen & wir erstellen Ihnen innerhalb weniger Stunden ein kostenfreies Angebot.

Jetzt unverbindlich anfragen

Für die Regressionsanalyse SPSS nutzen – der mathematische Hintergrund

Bei einer Regression handelt es sich um ein strukturprüfendes Verfahren, mit dem die Art eines Zusammenhangs festgestellt werden kann. Ausgang einer Regressionsanalyse ist die Annahme, dass zwei oder mehr metrisch (kardinal) skalierte Variablen in einem funktionalen Zusammenhang zueinander stehen. Ziel ist es, den Wert von abhängigen Variablen (gemeinhin mit Y bezeichnet) durch unabhängige (erklärende) Variablen (mit X bezeichnet) vorherzusagen.

Nun wird angenommen, dass sich Y als f(X) für eine Funktion f schreiben lässt – diese Funktion y=f(x) anhand von Beobachtungsdaten zu schätzen wird als Regression bezeichnet.
Da die beobachteten Daten als Realisation zufälliger Größen (Ausgangsvariablen und ggf. Basisfehler) aufgefasst werden, muss selbst eine exakte Regression nicht zwangsläufig dem realen ‚wahren‘ Sachverhalt entsprechen.

Zur Bestimmung der Funktionsparameter gibt es verschiedene Ansätze, von denen sich die Methode der kleinsten Quadrate bewährt hat. Zum einen entspricht die quadratische Abweichung dem erprobten Modell der Varianz, die für Verteilungsmodelle relativ einfach zu bestimmen ist. Zum anderen existieren für quadratische Optimierungen bereits numerisch implementierte Algorithmen, auf die in SPSS zurückgegriffen werden kann.
Eine einfache lineare Regression folgt dem Modell Y = a + b*X, wobei a und b die Regressionskoeffizienten darstellen, konkret steht a für die Konstante und b für den Anstieg der Regressionsgeraden.

Ausführlicheres zum Begriff und zum mathematischen Modell der Regression in der Statistik findet sich hier.

Lineare Regression SPSS – Die Durchführung

Die lineare Regression SPSS findet sich unter: „Analysieren → Regression → Linear“

Pfad zur Regression SPSS

Zunächst gilt zu entscheiden, welcher Funktionstyp zu Grunde gelegt werden soll, ob die Wahl also auf einen linearen Zusammenhang Y = a + b*X fällt oder ob eine logistische oder multinomiale Regression die Basis bildet.

Im zweiten Schritt ist festzulegen, ob das Modell eine oder mehrere unabhängige Variablen erfassen soll, in letzterem Fall ob es sich um mittelbare oder unmittelbare Einflüsse handelt. In SPSS findet dies unter dem ersten Menüpunkt statt – in einem geführten Dialog werden zunächst die Eingangsvariablen und die Zielvariable festgelegt, danach können weitere Modellierungskriterien berücksichtigt werden.

Die einzelnen zu wählenden Regressionsmodelle unterscheiden sich in den jeweiligen Messniveaus der abhängigen bzw. unabhängigen Variablen:

  • Lineare Regression SPSS – sie berücksichtigt eine metrisch (kardinal) skalierte abhängige und eine (zumeist) metrisch skalierte (erklärende) unabhängige Variable
  • Multiple Regression SPSS – sie berücksichtigt eine metrisch skalierte abhängige und mehrere unabhängige Variablen, die metrisch, ordinal oder dichotom skaliert sein können
  • Logistische Regression SPSS– sie berücksichtigt eine dichotome (mit genau zwei Ausprägungen) abhängige und ein oder mehrere unabhängige Variablen mit beliebigem Skalenniveau
  • Multinominale logistische Regression SPSS – sie berücksichtigt eine nominal skalierte abhängige Variable mit mehr als zwei Ausprägungen und ein oder mehrere unabhängige Variablen mit beliebigem Skalenniveau

Der Anschaulichkeit halber wird hier die lineare Regression SPSS vorgestellt; die multiple Regression SPSS, logistische Regression SPSS und die multinomiale Regression SPSS laufen vom Prinzip her gleich ab.

Zusätzlich zur analytischen Betrachtung bietet SPSS die Möglichkeit einer grafischen Darstellung, sinnvoll ist hier die Visualisierung mittels Streudiagramm, SPSS ermöglicht dies unter dem Reiter: „Grafik → Diagrammerstellung → Streu-/Punktdiagramm“.

Zieht man die gewünschten (metrischen) Variablen auf die entsprechenden Achsen, wird im Streudiagramm für eine abhängige und eine unabhängige Variable die Punktwolke angezeigt – im Diagrammeditor kann die Darstellung zusätzlich um die Regressionsgerade (auch: Anpassungsgerade genannt) erweitert werden.

Grafische Regression SPSS

 

Weiters ermöglicht SPSS die Bestimmung der Modellgüte R^2 sowie der Konfidenzbereiche für die Funktionsparameter zu einem vorher festgelegten Signifikanzniveau (Voreinstellung auf 95%).

Lineare Regression SPSS – Auswertung und Interpretation

Von den ausgegebenen Tabellen ist zunächst die Übersicht der Koeffizienten von Bedeutung.
In der Spalte „nicht standardisierte Koeffizienten“ finden sich unter B die gewünschten Werte.

Im Fall einer linearen Regression sind das ein konstanter (Start-)Wert und die Steigung – wird zum Beispiel das „Alter des Ehemannes“ als unabhängige und das „Haushaltseinkommen pro Jahr“ als abhängige Variable betrachtet, stellt der konstante Wert das Mindesteinkommen bei 0 Lebensjahren dar. Beta repräsentiert dagegen die Zu-/ Abnahme des jährlichen Haushaltseinkommens pro Lebensjahr des Ehemannes.

Koeffiziententabelle SPSS

 

Die rechte Spalte gibt die t-Statistik sowie die zugehörige Signifikanz für die Hypothese Y = a + b*X an. Liegt sie Signifikanz unter 5%, so kann angenommen werden, dass der funktionale Zusammenhang tatsächlich ein linearer ist. Weitere Details zu Signifikanz und p-Wert finden Sie hier.

Bei der Interpretation ist dennoch Vorsicht geboten – da es sich bei der Regressionsfunktion stets um die Beschreibung zufälliger Größen handelt, ist ein mathematischer Zusammenhang nicht gleichbedeutend mit einem kausalen. Im voran genannten Beispiel schließt das Modell andere Einflussfaktoren wie das Einkommen der Ehefrau, Beiträge berufstätiger Kinder und sonstige Einnahmen aus. Ebenfalls vernachlässigt werden die Branche, die Anzahl der Erwerbsjahre oder der Bildungsgrad. Folglich müssten hier zusätzlich Gruppierungen nach den genannten Kriterien erfolgen, was im Zuge einer Varianzanalyse in SPSS erfolgen könnte.

Darüber hinaus könne auch bereits der funktionalen Annahme Schwächen innewohnen – konkretes Beispiel: Werden im Rahmen einer Marktforschungsstudie die Aktivierungsgrade von Probanden untersucht, so haben diese eine natürliche Obergrenze von 100% – jedoch wird diese lediglich von Modellen des begrenzten exponentiellen Wachstums berücksichtigt.
Zusammenfassend gilt es die Ergebnisse kritisch zu interpretieren, da ein statistischer Zusammenhang nicht zwangsläufig einen kausalen Zusammenhang impliziert.

Weiterführende Links zur SPSS Regressionsanalyse

http://www.von-der-lippe.org/dokumente/buch/buch08.pdf

https://www.uni-trier.de/fileadmin/urt/doku/linreg/linreg.pdf

https://ssor.vcu.edu/