Die inferenzielle Statistik (auch: schließende Statistik) befasst sich mit dem Testen sogenannter Hypothesen. Als Hypothese wird dabei eine Annahme über die gesamte Population (Grundgesamtheit) im Hinblick auf die Untersuchung einer Stichprobe verstanden. Diese ist in der Regel das Ergebnis einer vorangegangenen deskriptiven Analyse.
Im Folgenden werden zunächst drei mathematische Arten von Hypothesen behandelt, bevor der Begriff der Signifikanz erläutert wird. Beispiele zur Anwendung finden sich in den Glossarartikeln zu den einzelnen Verfahren in SPSS.
Sollten Sie Unterstützung bei Ihrer inferenziellen Statistik in SPSS benötigen, helfen unsere Statistiker Ihnen gerne weiter. Nutzen Sie einfach unser Kontaktformular für eine kostenlose Beratung & ein unverbindliches Angebot – oder rufen Sie uns an.
Hypothesenbildung in der inferenziellen Statistik
Aus statistischer Sicht beschreiben Hypothesen Annahmen über bestimmte Merkmalseigenschaften eines empirischen Sachverhaltes, zu deren Entscheidungsfindung zwei Hypothesen gegenübergestellt werden. Diese beiden Hypothesen lauten Nullhypothese (H0) und Alternativhypothese (H1). Zunächst wird die Nullhypothese formuliert, die besagt, dass es zwischen den Merkmalseigenschaften keine signifikanten Zusammenhänge gibt. Die Alternativhypothese – als die eigentliche Forschungshypothese – dagegen beinhaltet die Behauptung eines signifikanten Effektes.
- 1. Verteilungshypothese – die Alternativhypothese behauptet, dass die empirische Verteilung des untersuchten Merkmals (in der Stichprobe) von einer angenommenen tatsächlichen Verteilung (in der Grundgesamtheit) abweicht. Beispiel: Hypothese, dass der IQ einer Jahrgangsstufe nicht gleichverteilt (bzw. normalverteilt) sei
- 2. Abweichungshypothese – die Alternativhypothese behauptet, dass zwei Gruppen sich bezüglich eines Merkmals tatsächlich unterscheiden. Beispiel: Hypothese, dass sich das Einkommen zwischen Männer und Frauen unterscheidet.
- 3. Korrelationshypothese – die Alternativhypothese behauptet, dass zwischen zwei (oder mehreren) Merkmalen ein direkter Zusammenhang besteht. Beispiel: Hypothese, dass die Schuhgröße das Einkommen beeinflusst.
Die Signifikanz und der Fehler erster Art
Da für jedes der drei genannten Hypothesenpaare entweder die Alternativhypothese oder die Nullhypothese zutreffen können, ergeben sich 4 Fälle:
Nullhypothese gilt tatsächlich | Alternativhypothese gilt tatsächlich | |
Stichprobe legt Nullhypothese nahe | kein Problem | ein Fehler zweiter Art tritt auf |
Stichprobe legt Alternativhypothese nahe | ein Fehler erster Art tritt auf | kein Problem |
Aus mathematischer Sicht ist im Falle einer Entscheidung für die Alternativhypothese die Wahrscheinlichkeit eines Fehlers erster Art von Interesse – diese wird auch statistisches Signifikanzniveau oder p-Wert genannt.
Als Faustregel gilt dabei:
- p > 0.05 – die Alternativhypothese kann nicht angenommen werden
- p < 0.05 – die Alternativhypothese kann angenommen werden, die Eigenschaft ist signifikant
- p < 0.01 – die Alternativhypothese kann angenommen werden, die Eigenschaft ist hoch signifikant
- p < 0.001 – die Alternativhypothese kann angenommen werden, die Eigenschaft ist höchst signifikant
Statistische Testverfahren in SPSS
Zur Ermittlung der Signifikanz bietet SPSS für die Hypothesentestung unterschiedliche implementierte Testverfahren. Diese lassen sich weiter in parametrische und nicht-parametrische untergliedern, je nachdem, ob eine Normalverteilung der Daten angenommen werden kann oder nicht.
- 1. Verteilungshypothese – ein metrisch (kardinal) skaliertes Merkmal wird mittels Chi Quadrat in SPSS oder Kolmogorov-Smirnov Test auf Gleich- oder Normalverteilung getestet
- 2. Abweichungshypothese – ein metrisches Merkmal wird mittels eines Mittelwertvergleichs (t-Test SPSS) auf Lageunterschiede zwischen zwei (oder mehr) Gruppen oder zu zwei (oder mehr) Messzeitpunkten getestet. Sind die Merkmale ordinal skaliert, wird stattdessen ein Mediantest durchgeführt
- 3. Korrelationshypothese – metrische (oder ordinale) Merkmale werden mittels Korrelation oder Regression SPSS nutzend auf lineare Zusammenhänge getestet: bei Normalverteilung mittels Pearson-Korrelation, bei nicht normalverteilten bzw. ordinaler Skalenpaarung mittels Spearman-Rangkorrelation.
Für Paarungen unterschiedlicher Skalierungen und mehrerer Variablen hängt die Wahl des Testverfahrens von der unabhängigen Variablen ab. Eine Übersicht zu sogenannten multivariaten Verfahren findet sich hier.
Häufig gestellte Fragen
Weiterführende Links
https://novustat.com/statistik-glossar/multivariate-statistik.html
https://novustat.com/statistik-glossar/p-wert-statistik.html
https://www.uni-due.de/imperia/md/content/dokforum/skript_teil_2.pdf