Synopses & Reviews
Synopsis
Dieses Buch f hrt ein in die Ans tze: Korrelation, Regression (linear, multipel, nichtlinear), logistische (bin r, multinomial) und ordinale Regression, sowie die berlebenszeitanalyse (Sterbetafel- Methode, Kaplan-Meier-Ansatz, sowie Regressionen nach Cox). Weitere Abschnitte behandeln zus tzliche regressionsanalytische Ans tze und Modelle (z. B. Partial Least Squares-Regression, Ridge-Regression, Modellierung individueller Wachstumskurven). Auch auf m gliche Fallstricke und h ufig begangene Fehler wird eingegangen. Separate Abschnitte stellen die diversen Voraussetzungen f r die Durchf hrung der jeweiligen Analyse, sowie Ans tze zu ihrer berpr fung zusammen. Dieses Buch ist angenehm verst ndlich und anwendungsorientiert geschrieben, ohne jedoch die Komplexit t und damit erforderliche Tiefe bei der Vorstellung der Verfahren zu vernachl ssigen.
Synopsis
Dieses Buch f hrt ein in die grundlegenden Ans tze: Korrelation, Regression (linear, multipel, nichtlinear), logistische und ordinale Regression, sowie die berlebenszeitanalyse (Survivalanalyse). Bei allen Ans tzen werden Voraussetzungen und h ufig begangene Fehler ausf hrlich erl utert. Das Buch ist f r Mauslenker und Syntaxprogrammierung gleicherma en geeignet. Das Buch wurde f r SPSS Version 16 geschrieben. Zahlreiche Rechenbeispiele werden von der Fragestellung, der Anforderung der einzelnen Statistiken (per Maus, per Syntax) bis hin zur Interpretation des SPSS Ausgaben systematisch durchgespielt. Es wird auch auf diverse Fehler und Fallstricke eingegangen. Zur Pr fung von Daten vor der Durchf hrung einer statistischen Analyse wird auf "Datenqualit t mit SPSS" (Schendera, 2007) verwiesen. Bei der Korrelationsanalyse werden z.B. die Voraussetzungen wie z.B. Skalenniveau, Homoskedastizit t und Kontinuit t erl utert. Weitere Abschnitte behandeln die Themen Linearit t, Scheinkorrelation und Alphafehler-Kumulation. Auch wird erl utert, warum die blo e Angabe eines Korrelationskoeffizienten im Prinzip Unfug ist. Als spezielle Anwendungen werden der Vergleich von Korrelationskoeffizienten und die Kanonische Korrelation vorgestellt. Bei der Regressionsanalyse werden z.B. das Grundprinzip der klassischen bivariaten, linearen Regression vorgestellt: Eine lineare Funktion wird mittels einer linearen Regressionsanalyse untersucht. An einem einfachen Beispiel die berpr fung der Linearit t und Identifikation von Ausrei ern anhand von Hebelwerten und Residuen erl utert. Auch wird das berpr fen auf eine m glicherweise vorliegende Autokorrelation erl utert. Am Beispiel der nichtlinearen einfachen Regression wird demonstriert, warum es ein (nicht selten begangener) Fehler ist, eine nichtlineare Funktion mittels einer linearen Regressionsanalyse zu untersuchen. Weitere Abschnitte bieten zwei L sungsm glichkeiten an: Eine nichtlineare Funktion kann linearisiert und mittels einer linearen Regression analysiert werden. Alternativ kann eine nichtlineare Funktion mittels einer nichtlinearen Regression gesch tzt werden. Au erdem werden Sinn und Grenzen der SPSS Prozedur CURVEFIT f r die (non)lineare Kurvenanpassung erl utert. Abschlie end wird eine nichtlineare Regression mit zwei Pr diktoren vorgestellt. An der multiplen linearen Regression werden Besonderheiten des Verfahrens, sowie die Multikollinearit t und andere Fallstricke erl utert. Zu den Besonderheiten der multiplen Regression z hlen u.a. die Verfahren der Variablenselektion, sowie die Interpretation der speziellen Statistiken der multiplen Regression. Neben dem Identifizieren und Beheben von Multikollinearit t wird auch auf das Umgehen mit zeitabh ngigen (autoregressiven) Daten eingegangen. Abschlie end werden Hinweise f r die Berechnung einer Partialregression gegeben. Bei den Verfahren der logistischen, sowie ordinalen Regression wird zun chst auf das Kausalmodell und das Messniveau der abh ngigen Variablen eingegangen. Als grundlegendes Verfahren wird zun chst die bin re logistische Regression vorgestellt und die Gemeinsamkeiten und Unterschiede zu anderen Verfahren erl utert. Anhand mehrerer Rechenbeispiele werden u.a. die unterschiedlichen Verfahren der Variablenselektion, sowie die Interpretation der ausgegebenen Statistiken erl utert. Abschlie end wird auf das h ufige Auseinanderklaffen von Modellg te und Vorhersagegenauigkeit eingegangen. Die multinomiale logistische Regression wird analog behandelt. Zus tzlich wird der Spezialfall der Gematchten Fall-Kontroll-Studie (1:1) mit metrischen Pr diktoren vorgestellt. Anschlie end wird die ordinale Regression vorgestellt und die Gemeinsamkeiten und Unterschiede mit den anderen Verfahren erl utert. Anhand mehrerer Rechenbeispiele werden u.a. die Interpretation der SPSS Ausgaben f r Modelle mit intervallskalierten und kategorial skalierten Pr diktoren erl utert. Bei der berlebenszeitanalyse (syn.: Survivalanalyse, survival analysis, Lebenszeitanalyse, lifetime analysis, failure time analysis, time to effect, time to event analysis, etc.) werden z.B. das das Grundprinzip der Survivalanalyse, sowie die Bedeutung zensierte Daten erl utert. Als Verfahren zur Sch tzung der berlebenszeit S(t) werden die versicherungsmathematische Methode (Sterbetafel-Methode), der Kaplan-Meier-Ansatz, sowie Regressionen nach Cox behandelt. Bei der Sterbetafel-Methode werden Beispiele mit bzw. ohne Faktoren vorgestellt. Beim Kaplan-Meier-Ansatz werden Beispiele mit/ohne Faktoren, mit Schichtvariablen, sowie f r die Ermittlung von Konfidenzintervallen vorgestellt. Bei den Regressionen nach Cox werden neben dem Unterschied zwischen Ans tzen f r zeitunabh ngige und zeitabh ngige Kovariaten, ebenfalls zahlreichen Rechenbeispiele, sowie Cox-Regressionen f r Interaktionen, sowie auch die berpr fung der speziellen Voraussetzungen der Cox-Regression vorgestellt. Weitere Abschnitte behandeln weitere regressionsanalytische Ans tze und Modelle (u.a. PLS-Regression, Ridge-Regression, Modellierung individueller Wachstumskurven).