Methodenlehre und Statistik (2016)
ISBN
978-3-658-11935-5

Inhaltsverzeichnis

  1. Die wissenschaftliche Sicht auf den Menschen
  2. Grundbegriffe der Datenerhebung: Vom Mensch zur Zahl
  3. Deskriptive Datenanalyse: Der Mensch als Datenpunkt
  4. Explorative Datenanalyse: Muster und Zusammenhänge erkennen
  5. Inferenzstatistik: Erkenntnisse aus Daten verallgemeinern
  6. Inferenzstatistische Aussagen für Lagemaße und Anteile
  7. Inferenzstatistische Aussagen für Zusammenhangs- und Unterschiedshypothesen
  8. Effektgrößen
  9. Das Allgemeine Lineare Modell und die Multiple Regression
  10. Unterschiede zwischen zwei Gruppen: der t-Test
  11. Unterschiede zwischen mehr als zwei Gruppen
  12. Testverfahren für nominalskalierte und ordinalskalierte Daten

Kapitel 1: Die wissenschaftliche Sicht auf den Menschen

Im Grunde genommen versucht jeder Mensch ein Psychologe zu sein. Menschen fragen oder wundern sich, warum andere Menschen bestimmte Dinge tun oder lassen, warum sie dieses oder jenes sagen, warum sie ihnen sympathisch erscheinen oder nicht. Und sie haben ihre ganz persönlichen Ideen und Erklärungen – nicht nur für das Verhalten anderer sondern auch für ihr eigenes. Diese Alltagspsychologie
liefert einen guten Anhaltspunkt für die Themen, mit denen sich auch „echte“ Psychologen beschäftigen. Der entscheidende Unterschied liegt jedoch in der Art und Weise, wie nach den Antworten auf die gestellten Fragen gesucht wird, oder kurz, in der Methode.

zurück zur Übersicht

Kapitel 2: Grundbegriffe der Datenerhebung: Vom Mensch zur Zahl

Statistik bezeichnet die, meist hypothesengeleitete, Auswertung von numerischen (quantitativen) Daten, die Rückschlüsse auf gestellte Forschungsfragen zulassen. Doch die Daten und Zahlen, mit denen man bei der Auswertung arbeitet, kommen nicht aus dem luftleeren Raum, sondern mu¨ssen zunächst gewonnen werden. In der Datenerhebung – gewissermaßen der „Umwandlung“ des Menschen, seines Verhaltens und Erlebens in Zahlen – liegt deshalb eine große Herausforderung. Als Statistiker sollte man den Prozess der Datenerhebung nie aus den Augen verlieren – denn allzu leicht verfällt man sonst dem Trugschluss, dass die Zahlen, mit denen man arbeitet, objektive und zweifelsfreie Aussagen über den Menschen erlauben. Tatsächlich aber wird der Transformationsprozess vom Mensch zur Zahl an vielen
Stellen durch die Entscheidungen des Forschers beeinflusst, ob nun bei der Operationalisierung oder bei der Wahl der Stichprobe.

zurück zur Übersicht

Kapitel 3: Deskriptive Datenanalyse: Der Mensch als Datenpunkt

Nach dem Durchführen einer Studie liegen Daten vor – gewonnen durch Messungen in Beobachtungen, Befragungen oder Experimenten. Diese Daten können, je nach Umfang der Studie, sehr vielschichtig und komplex sein. Der nächste große Schritt besteht nun in der statistischen Auswertung der Daten. Dieser Schritt beinhaltet drei Aufgaben: das Beschreiben und Darstellen der Daten, das Erkennen und Beschreiben von eventuellen Mustern in den Daten und schließlich das statistische Pru¨fen der Daten dahingehend, ob sie auf die Population verallgemeinert werden können oder nicht.

zurück zur Übersicht

Kapitel 4: Explorative Datenanalyse: Muster und Zusammenhänge erkennen

Die deskriptive Datenanalyse hat den Zweck, die in einer Stichprobe gefundenen Daten mit Hilfe von Kennwerten zu beschreiben und grafisch oder tabellarisch darzustellen. Bei dieser Darstellung von Daten geht es um einzelne Variablen und ihre Auspra¨gungen. In der explorativen Datenanalyse gehen wir nun einen Schritt weiter und versuchen, mit Hilfe von geeigneten Darstellungen und Berechnungen die Daten nach Mustern oder Zusammenhängen zu untersuchen. Daher auch der Begriff „explorativ“ – wir forschen (explorieren) in den Daten nach interessanten Informationen, die man bei der einfachen Betrachtung in der deskriptiven Analyse nicht auf den ersten Blick sehen kann.

zurück zur Übersicht

Kapitel 5: Inferenzstatistik: Erkenntnisse aus Daten verallgemeinern

Das Anliegen einer jeden wissenschaftlichen Aussage ist, dass sie möglichst allgemeingültig sein soll. Das heißt, wissenschaftliche Erkenntnisse über Sachverhalte, Zusammenha¨nge und Gesetzmäßigkeiten bekommen erst dadurch ein großes Gewicht, dass sie einen großen Geltungsbereich haben und damit für eine große Anzahl von Menschen oder für eine große Anzahl von Sachverhalten zutreffen. Wie man aufgrund der gesammelten Daten von wenigen Personen Schlüsse (Inferenzen) über sehr große Gruppen von Menschen machen kann, werden wir uns im Zuge der Inferenzstatistik anschauen.

zurück zur Übersicht

Kapitel 6: Inferenzstatistische Aussagen und Lagemaße und Anteile

Wie sehr können wir unserem Mittelwert trauen? Zur Beantwortung dieser Frage gibt es zwei alternative Möglichkeiten. Einerseits können wir versuchen, den Fehler zu schätzen, den wir bei einer solchen
Verallgemeinerung „durchschnittlich“ machen werden. Das ist der sogenannte Standardfehler. Die andere Möglichkeit besteht darin, nicht einfach unseren gefundenen Mittelwert als Schätzung anzugeben, sondern einen Bereich um den Mittelwert herum, der den wahren Mittelwert in der Population wahrscheinlich enthält. Man spricht bei diesem Bereich von einem Konfidenzintervall.

zurück zur Übersicht

Kapitel 7: Inferenzstatistische Aussagen für Zusammenhangs- und Unterschiedshypothesen

Mittelwerte und Anteile sind relativ einfache Angaben, die man über empirisch gewonnene Daten macht. Im vorigen Kapitel haben wir gesehen, wie man die Güte einer Verallgemeinerung von einer Stichprobe auf eine Population einschätzen und mit Hilfe von Zahlen ausdrücken kann. Neben der bloßen Angabe von Mittelwerten oder Anteilen sind Forscher jedoch fast immer bestrebt, auch Aussagen über bestimmte Hypothesen zu treffen. Solche Hypothesen beziehen sich immer entweder auf Zusammenhänge zwischen Variablen oder auf Unterschiede zwischen bestimmten Gruppen.

zurück zur Übersicht

Kapitel 8: Effektgrößen

Rufen wir uns noch einmal kurz die Idee der Inferenzstatistik ins Gedächtnis: Wir wollen Aussagen darüber machen, wie sehr wir der Schätzung eines Populationseffektes aufgrund eines Stichprobeneffektes trauen können. Dafür haben wir drei Möglichkeiten kennengelernt. Der Standardfehler gibt an, mit welchem „durchschnittlichen“ Fehler bei einer solchen Schätzung zu rechnen ist. Konfidenzintervalle geben einen Bereich von Werten auf der abhängigen Variable an, der den wahren Wert in der Population mit einer bestimmten Wahrscheinlichkeit enthält. Und Signifikanztests fragen nach der Wahrscheinlichkeit, mit der ein Effekt auftreten konnte, wenn in der Population eigentlich die Nullhypothese zutrifft. Konfidenzintervalle und Signifikanztests liefern dabei einfache und schnelle Entscheidungshilfen.

zurück zur Übersicht

Kapitel 9: Das Allgemeine Lineare Modell und die Multiple Regression

Signifikanztests berechnen aus einem gefundenen Effekt (zum Beispiel einem Mittelwertsunterschied) eine Prüfgröße (zum Beispiel einen t-Wert), die dann mit Hilfe einer Prüfverteilung auf Signifikanz geprüft wird. Unterschiedliche Fragestellungen führen zu unterschiedlichen Effekten und schließlich zu unterschiedlichen Prüfgrößen und Prüfverteilungen. Daher gibt es eine Reihe verschiedener Signifikanztests, die jeweils für spezielle Fragestellungen zu verwenden sind. Das Prinzip dieser Tests ist dabei aber stets das gleiche.

zurück zur Übersicht

Kapitel 10: Unterschiede zwischen zwei Gruppen: der t-Test

Der t-Test geht auf den Engländer William Gosset zuru¨ck, der – weil er in einer Brauerei beschäftigt war, deren Mitarbeiter keine Studienergebnisse veröffentlichen durften – unter dem Pseudonym Student publizierte. Daher wird die auf ihn zurück gehende t-Verteilung auch manchmal Students t-Verteilung genannt. Der t-Test ist im Prinzip kein einzelner Test, sondern eine Gruppe von Tests, die für verschiedene Fragestellungen verwendet werden ko¨nnen. Das Prinzip des t-Tests ist aber immer der Vergleich zwischen zwei Mittelwerten. Dabei kann es sich um Mittelwerte aus unabhängigen oder abhängigen Stichproben handeln oder um einen Mittelwert, der gegen einen theoretisch zu erwartenden Mittelwert getestet wird.

zurück zur Übersicht

Kapitel 11: Unterschiede zwischen mehr als zwei Gruppen: die Variantanalyse

Der t-Test ist ein relativ leicht nachvollziehbares Verfahren, das die Bedeutsamkeit der Differenz zweier Mittelwerte untersucht: der Mittelwertsunterschied wird anhand der Streuungen der Mittelwerte relativiert. Der Anwendungsbereich des t-Tests ist aber auf den Vergleich von zwei Mittelwerten beschränkt. Da sich psychologische Fragestellungen oft aber auf mehr als zwei Mittelwerte beziehen, benötigen wir hier ein anderes Verfahren. Dieses Verfahren untersucht nicht mehr nur eine Differenz zwischen zwei Mittelwerten, sondern die Variation mehrerer Mittelwerte. Das Verfahren versucht also, die Varianz von Mittelwerten zu erklären und wird daher als Varianzanalyse bezeichnet.

zurück zur Übersicht

Kapitel 12: Testverfahren  für nominalskalierte und ordinalskalierte Daten

Wir haben bisher über eine Reihe von Analyseverfahren gesprochen, die Zusammenhänge von Variablen untersuchen (wie Korrelation und Regression) oder zur Untersuchung von Unterschieden zwischen Gruppen angewendet werden (t-Tests und Varianzanalyse). All diese Verfahren haben die Besonderheit, dass sie auf bestimmten Annahmen beruhen, die sich auf die Verteilung der Messwerte in der Population beziehen: diese sollten immer einer Normalverteilung folgen. Das ist deswegen notwendig, weil diese Verfahren mit Prüfverteilungen arbeiten, die nur dann exakte Werte liefern, wenn die zugrunde liegende Populationsverteilung normalverteilt ist. Es gibt nun aber zwei denkbare Fa¨lle, in denen diese Voraussetzung verletzt ist...

zurück zur Übersicht