Induktive Statistik: Eine Einführung mit R und SPSS [4 ed.] 9783540775096, 3540775099 [PDF]

Statistische Verfahren werden in der Medizin und in allen Naturwissenschaften, in der Wirtschaft, in der Technik und zun

148 40 3MB

German Pages 483 [499] Year 2008

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Front Matter....Pages I-XIX
Front Matter....Pages 1-1
Kombinatorik....Pages 3-12
Elemente der Wahrscheinlichkeitsrechnung....Pages 13-33
Zufällige Variablen....Pages 35-67
Diskrete und stetige Standardverteilungen....Pages 69-96
Grenzwertsätze und Approximationen....Pages 97-106
Front Matter....Pages 107-107
Schätzung von Parametern....Pages 109-126
Prüfen statistischer Hypothesen....Pages 127-164
Nichtparametrische Tests....Pages 165-189
Front Matter....Pages 191-191
Lineare Regression....Pages 193-229
Varianzanalyse....Pages 231-263
Analyse von Kontingenztafeln....Pages 265-288
Lebensdaueranalyse....Pages 289-310
Fehlende Daten....Pages 311-326
Front Matter....Pages 327-327
Einführung in SPSS....Pages 329-352
Einführung in R....Pages 353-386
Back Matter....Pages 387-483
Papiere empfehlen

Induktive Statistik: Eine Einführung mit R und SPSS [4 ed.]
 9783540775096, 3540775099 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Springer-Lehrbuch

Helge Toutenburg Christian Heumann

Induktive Statistik Eine Einführung mit R und SPSS

Vierte, überarbeitete und erweiterte Auflage Mit Beiträgen von Michael Schomaker und Malte Wißmann

123

Prof. Dr. Helge Toutenburg PD Dr. Christian Heumann Institut für Statistik der Universität München Akademiestraße 1 80799 München [email protected] [email protected]

Die erste Auflage erschien bei Prentice Hall unter: H. Toutenburg, A. Fieger, C. Kastner: Induktive Statistik für Betriebs- und Volkswirte. Eine Einführung mit SPSS für Windows, ISBN 3-8272-9512-2

ISBN 978-3-540-77509-6

e-ISBN 978-3-540-77510-2

DOI 10.1007/978-3-540-77510-2 Springer-Lehrbuch ISSN 0937-7433 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2000, 2005, 2008 Springer-Verlag Berlin Heidelberg Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, Leipzig Einbandgestaltung: WMX Design GmbH, Heidelberg Gedruckt auf s¨ aurefreiem Papier 987654321 springer.com

Vorwort der vierten Auflage

Auf Grund des Erfolges der ersten drei Auflagen wurde vom Springer-Verlag eine vierte Auflage angeregt, die insbesondere eine ausf¨ uhrlichere Darstellung von SPSS- Modulen und zus¨ atzlich eine Einf¨ uhrung in die Programmiersprache R beinhalten sollte. Die Autoren haben die dritte Auflage korrigiert und in einigen Kapiteln erweitert und zwei selbstst¨andige Kapitel zu SPSS und zu R aufgenommen. Analog zum Buch “Deskriptive Statistik” wurde ein einf¨ uhrendes Kapitel zum Thema “Fehlende Daten” eingef¨ ugt. Diese Erweiterung ist einmalig f¨ ur ein deutschsprachiges Lehrbuch der Statistik.

Helge Toutenburg Christian Heumann M¨ unchen, im November 2007

Vorwort der dritten Auflage

Unsere Zeit ist gepr¨ agt durch eine F¨ ulle von Informationen und Daten. Wir werden (an B¨orsentagen) u ¨ ber Dollarkurs, Dow Jones und Dax informiert, erhalten Kenntnis von der durchschnittlichen Zahl der Zuschauer und der Torquote in der Fußball-Bundesliga, der Aufschlaggeschwindigkeit von Boris Becker, erfahren die Schwankungen in den Arbeitslosenzahlen und wissen, dass die Durchschnittstemperatur im April 2004 um soundsoviel Grad unter dem langj¨ahrigen Mittel dieses Monats lag. Diese Angaben werden h¨ aufig grafisch aufbereitet in Form von Kurven oder Tabellen oder durch geeignete Maßzahlen wie Mittelwerte verdichtet. Darstellungen und Aufbereitungen dieser Art sind Gegenstand der deskriptiven Statistik, die auf die Beschreibung eines fest gegebenen Datenmaterials abzielt. Gegenstand der induktiven Statistik ist dagegen die Untersuchung von Daten, die als zuf¨ allige Stichprobe einer Grundgesamtheit entstammen. Die Stichprobenelemente k¨ onnen als Realisation eines Zufallsexperiments angesehen werden, d.h., die Werte der Stichprobenelemente sind nicht von vornherein bekannt. Ziel der induktiven Statistik ist es, durch geeignete Verfahren von der Stichprobe auf die Grundgesamtheit zu schließen und die Sicherheit der Schlussfolgerung abzusch¨ atzen, d.h., Wahrscheinlichkeiten f¨ ur die verschiedenen m¨ oglichen Folgerungen anzugeben. Dazu ben¨otigt man • • • •

Methoden und Gesetze der Wahrscheinlichkeitsrechnung, Regeln der Kombinatorik, geeignete Sch¨atzmethoden f¨ ur unbekannte Parameter und statistische Entscheidungsregeln.

Die Wahrscheinlichkeitsrechnung liefert die formalen Grundlagen f¨ ur die Untersuchung von Gesetzm¨ aßigkeiten bei zuf¨ alligen Ereignissen. Die Herausbildung der Wahrscheinlichkeitsrechnung – auch als Mathematik des Zufalls bekannt – ist eng mit der Entwicklung der Naturwissenschaften, speziell seit dem 19. Jahrhundert, verbunden. Ausgehend von einem Briefwechsel zwischen Blaise Pascal (1623–1662) und Pierre de Fermat (1601–1665) im Jahr 1654, der der Beantwortung einiger Fragen u ucksspiele diente, entwickelten Christian Huygens (1629– ¨ber Gl¨ 1695), Jacob Bernoulli (1654–1705), Abraham de Moivre (1667–1754), Thomas Bayes (1702–1761) und einige andere diese Erkenntnisse weiter. Pierre

VIII

Vorwort

Simon Laplace (1749–1827) legte schließlich durch die Zusammenfassung der zu seiner Zeit bekannten Begriffe und Gesetze einen wichtigen Grundstein f¨ ur die heutige Wahrscheinlichkeitsrechnung. Dabei spielten auf Grund des Laplaceschen Wahrscheinlichkeitsbegriffes kombinatorische Regeln, die bereits von Jacob Bernoulli diskutiert wurden, eine wichtige Rolle. W¨ahrend sich die Wahrscheinlichkeitsrechnung selbst auch nach Laplace stetig weiterentwickelte – verbunden mit Namen wie Carl Friedrich Gauss (1777–1855), Simeon Denis Poisson (1781–1840), Auguste Bravais (1811–1863), William Searly Gosset (1876–1937), Ronald Aylmer Fisher (1890–1962) u.a. – wurden die Grundlagen der Wahrscheinlichkeitsrechnung kaum weiterentwickelt. Erst Andrej Nikolajewitsch Kolmogorov (1908–1987) gelang es nach Vorarbeiten anderer Mathematiker, ein Axiomensystem der Wahrscheinlichkeitsrechnung (Kolmogorov, 1933) aufzustellen, das bis heute die formal widerspruchsfreie Grundlage der Wahrscheinlichkeitsrechnung darstellt. Eine ausf¨ uhrliche Darstellung der Entstehungsgeschichte der Wahrscheinlichkeitsrechnung findet man etwa bei Menges (1968) oder Stigler (1986). Die Mathematische Statistik entwickelte sich (unter Verwendung von Methoden der Wahrscheinlichkeitsrechnung) aus der deskriptiven Statistik zu einer selbstst¨andigen Disziplin, deren Anwendungsbereich zunehmend an Breite und Bedeutung gewinnt. Statistische Methoden werden heute in fast allen Gebieten von Medizin, Naturwissenschaften, Technik und Wirtschafts- und Sozialwissenschaften angewendet. Die Statistik ist zur charakteristischen ” Methode des modernen Wissenschaftsbetriebs geworden“ (Miethke, 1973). Trotz – oder gerade wegen – der Vielzahl der Anwendungsgebiete der Mathematischen Statistik sollte man jedoch stets darauf bedacht sein, dass man sich dessen, was man macht, noch bewußt ist, d.h., ... die mathematische ” Statistik ist kein Automat, in den man nur seinen Groschen hineinzustecken braucht, um sinnvolle Resultate zu erhalten. Vielmehr muß man sich in die Denkweise dieses Gebietes einleben, damit man die Anwendungsm¨oglichkeiten sehen lernt und in einem konkreten Fall das richtige Verfahren ausw¨ahlen kann.“ (Kreyszig, 1979). Statistische Methoden werden u ¨ berall dort eingesetzt, wo Versuchsergebnisse nicht beliebig oft und exakt reproduzierbar sind. Die Ursachen hierf¨ ur liegen in der nat¨ urlichen Variabilit¨ at der Versuchsobjekte oder in der Ver¨anderung der Versuchs- und Meßbedingungen. Dabei k¨onnen sowohl kontrollierbare als auch unkontrollierbare Faktoren das Versuchsergebnis beeinflusssen. Damit ist es notwendig, geeignete Methoden anzugeben, mit deren Hilfe man aus derartigen Stichproben die interessierenden Parameter der Grundgesamtheit sch¨ atzen kann. Will man dar¨ uber hinaus auf Grund einer vorliegenden Stichprobe Aussagen u ¨ber die Grundgesamtheit oder einige ihrer Parameter treffen, so sind hierf¨ ur statistische Entscheidungsregeln notwendig, mit deren Hilfe Aussagen als richtig oder falsch eingestuft werden k¨onnen, wobei dies nur mit einer gewissen Sicherheit m¨oglich ist.

Vorwort

IX

Auf Grund der Vielzahl der Problemstellungen, die aus den verschiedensten Anwendungsbereichen kommen, hat die Statistik eine Spezialisierung nach Anwendungsgebieten erfahren. Es gibt eine Reihe von relativ ¨ selbstst¨andigen Disziplinen wie Okonometrie, Biometrie, Psychometrie usw. Hinzu kommt in j¨ ungster Zeit die Disziplin Computational Statistics, die sich mit speziellen rechenintensiven Methoden wie Resampling, iterativen Verfahren, Computergrafik usw. besch¨ aftigt. Eine ausf¨ uhrliche Darstellung zur Entwicklung der Statistik und ihrer Bedeutung f¨ ur die moderne Gesellschaft findet man in Rao (1995). C.R. Rao f¨ uhrt insbesondere aus: Ist die Statistik, so wie sie heutzutage erforscht und praktiziert wird, eine Wissenschaft, Technologie oder Kunst? Vielleicht ist sie ja eine Kombination von allen dreien. Sie ist eine Wissenschaft in dem Sinne, dass sie ihre eigene Identit¨at hat, mit einem großen Repertoire an Techniken, hergeleitet aus einigen Grundprinzipien. Diese Techniken k¨ onnen nicht auf eine routinem¨aßige Art und Weise angewandt werden; der Anwender muß die n¨otige Expertise erwerben, die richtige Technik in einer gegebenen Situation zu w¨ ahlen und, falls n¨ otig, Modifikationen vorzunehmen. Statistik spielt eine wesentliche Rolle in der Einf¨ uhrung empirischer Gesetze in den Geistes- und Sozialwissenschaften. Weiterhin gibt es philosophische Themen, die in Zusammenhang mit den Grundlagen der Statistik – der Art der Quantifizierung und des Ausdrucks der Unsicherheit – stehen, die unabh¨ angig von jedem Inhalt diskutiert werden k¨onnen. Statistik ist also im weiteren Sinne eine separate Disziplin, wom¨ oglich eine Disziplin aller Disziplinen. Sie ist eine Technologie in dem Sinne, dass statistische Methodologie in jedes Betriebssystem eingebaut werden kann, um ein gew¨ unschtes Niveau und eine angestrebte Stabilit¨ at der Leistung zu erhalten, wie zum Beispiel in Qualit¨ atssicherungsprogrammen in der industriellen Produktion. Statistische Methoden k¨ onnen auch zum Kontrollieren, Reduzieren und Zulassen von Unsicherheit verwendet werden und dadurch die Effizienz individueller und institutioneller Bem¨ uhungen maximieren. Statistik ist auch eine Kunst, denn ihre Methodologie, die von induktiver Argumentation abh¨ angt, ist nicht v¨ ollig codifiziert oder frei von Kontroversen. Verschiedene Statistiker, die mit den gleichen Daten arbeiten, k¨onnen zu verschiedenen Schl¨ ussen kommen. In der Regel steckt in gegebenen Daten mehr Information, als mittels der zur Verf¨ ugung stehenden statistischen Verfahren extrahiert werden kann. Die Zahlen ihre eigene Geschichte erz¨ ahlen zu lassen h¨angt von der Kunst und Erfahrung eines Statistikers ab. Dies macht Statistik zur Kunst ...

X

Vorwort Tabelle 0.1. Statistische Datenanalyse, entnommen aus Rao (1995)

Formulierung der Fragestellung

Techniken der Datensammlung

Historisch ver¨ offentlichtes Material

Versuchsplanung

Wie wird gemessen?

Daten

Begleitende Variablen

Kreuzuntersuchuung der Daten

Modellierung

Inferenzielle Datenanalyse

Stichprobenerhebungen

Expertenwissen

Anf¨angliche explorative Aufdeckungsanalyse (Aufdecken von Ausreißern, Fehlern, Bias, interne Konsistenz, externe Validierung, spezielle Charakteristika)

Spezifizierung (Kreuzvalidierung, wie verwendet man Expertenwissen und fr¨ uhere Resultate, Bayesansatz)

Testen von Hypothesen

Sch¨atzen (Punkt, Intervall)

Entscheidungsfindung

Metaanalyse

Zusammenfassende Statistiken

Grafische Darstellung

Orientierungshilfe f¨ ur zuk¨ unftige Untersuchungen

Es gibt eine Vielzahl deutschsprachiger B¨ ucher zur Statistik, wobei die Autoren unterschiedliche Schwerpunkte gesetzt haben—von der Darstellung spezifischer Lehrinhalte in ausgew¨ ahlten Fachdisziplinen (Statistik f¨ ur Soziologen, Wirtschaftswissenschaftler, Zahnmediziner etc.) bis hin zu ausgefeilten Methodensammlungen (Explorative Datenanalyse, Regressionsmodelle etc.) oder erweiterten Handb¨ uchern zu Standardsoftware.

Vorwort

XI

Das vorliegende Buch soll insbesondere den Stoff von Vorlesungen Stati” stik II f¨ ur Nebenfachstudenten“ abdecken und eine Verbindung zwischen den Methoden der induktiven Statistik und ihrer Umsetzung mit Standardsoft¨ ware – hier: SPSS f¨ ur Windows – herstellen, sowie als Lehr- und Ubungsmaterial (durch Einschluss von Aufgaben und Musterl¨osungen) die Ausbildung der Studenten unterst¨ utzen. Das Manuskript dieser 3. Auflage ist ein Produkt der mehrj¨ahrigen Erfahrung der AG Toutenburg in der Ausbildung der Nebenfachstudenten. Der Autor und seine Mitarbeiter –insbesondere Herr Dr. Andreas Fieger und Herr Dr. Christian Kastner– haben sich bem¨ uht, ihre Erfahrungen aus ¨ ¨ dem Lehr- und Ubungsbetrieb und die Erfahrungen der Leiter der Ubungsgruppen so umzusetzen, dass der Text den Anforderungen eines begleitenden ¨ Lehr- und Ubungsmaterials gerecht wird. Die Einbeziehung von SPSS soll den Weg zur modernen Arbeitsweise bei der Datenanalyse mit dem Computer ebnen. Das vorliegende Manuskript entstand auf Einladung des Springer–Verlags, Heidelberg. Herrn Dr. Werner M¨ uller ist f¨ ur seine Unterst¨ utzung zu danken. Ich w¨ urden mich freuen, wenn das Buch sein Ziel erreicht und die Studenten anspricht.

Helge Toutenburg

Inhaltsverzeichnis

Teil I. Wahrscheinlichkeitstheorie 1.

2.

Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Grundbegriffe der Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Permutationen ohne Wiederholung . . . . . . . . . . . . . . . . . 1.3.2 Permutationen mit Wiederholung . . . . . . . . . . . . . . . . . . 1.4 Kombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Kombinationen ohne Wiederholung und ohne Ber¨ ucksichtigung der Reihenfolge . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.2 Kombinationen ohne Wiederholung, aber mit Ber¨ ucksichtigung der Reihenfolge . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.3 Kombinationen mit Wiederholung, aber ohne Ber¨ ucksichtigung der Reihenfolge . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.4 Kombinationen mit Wiederholung und mit Ber¨ ucksichtigung der Reihenfolge . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 3 3 4 4 6 7

10 11 12

Elemente der Wahrscheinlichkeitsrechnung . . . . . . . . . . . . . . . 2.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Zuf¨allige Ereignisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Relative H¨ aufigkeit und Laplacesche Wahrscheinlichkeit . . . . . 2.4 Axiome der Wahrscheinlichkeitsrechnung . . . . . . . . . . . . . . . . . . 2.4.1 Folgerungen aus den Axiomen . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Rechenregeln f¨ ur Wahrscheinlichkeiten . . . . . . . . . . . . . . 2.5 Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.1 Motivation und Definition . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.2 Der Satz von Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Unabh¨ angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13 13 14 17 19 19 21 21 21 23 27 30

7 9 10

XIV

Inhaltsverzeichnis

3.

Zuf¨ allige Variablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Verteilungsfunktion einer Zufallsvariablen . . . . . . . . . . . . . . . . . . 3.3 Diskrete Zufallsvariablen und ihre Verteilungsfunktion . . . . . . 3.4 Stetige Zufallsvariablen und ihre Verteilungsfunktion . . . . . . . . 3.5 Erwartungswert und Varianz einer Zufallsvariablen . . . . . . . . . 3.5.1 Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.2 Rechenregeln f¨ ur den Erwartungswert . . . . . . . . . . . . . . . 3.5.3 Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.4 Rechenregeln f¨ ur die Varianz . . . . . . . . . . . . . . . . . . . . . . . 3.5.5 Standardisierte Zufallsvariablen . . . . . . . . . . . . . . . . . . . . 3.5.6 Erwartungswert und Varianz des arithmetischen Mittels 3.5.7 Ungleichung von Tschebyschev . . . . . . . . . . . . . . . . . . . . . 3.5.8 kσ-Bereiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Die Quantile, der Median und der Modalwert einer Verteilung 3.7 Zweidimensionale Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1 Zweidimensionale diskrete Zufallsvariablen . . . . . . . . . . . 3.7.2 Zweidimensionale stetige Zufallsvariablen . . . . . . . . . . . . 3.7.3 Momente von zweidimensionalen Zufallsvariablen . . . . . 3.7.4 Korrelationskoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35 35 37 39 42 47 48 48 50 50 52 52 53 55 56 57 57 59 61 63 64

4.

Diskrete und stetige Standardverteilungen . . . . . . . . . . . . . . . . 4.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Spezielle diskrete Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Die diskrete Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Die Einpunktverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.3 Die Null-Eins-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.4 Die hypergeometrische Verteilung . . . . . . . . . . . . . . . . . . 4.2.5 Die Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.6 Die geometrische Verteilung . . . . . . . . . . . . . . . . . . . . . . . 4.2.7 Die Poissonverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.8 Die Multinomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Spezielle stetige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Die stetige Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Die Exponentialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.3 Die Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.4 Die zweidimensionale Normalverteilung . . . . . . . . . . . . . 4.4 Pr¨ ufverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Die χ2 -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2 Die t-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.3 Die F -Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

69 69 69 69 70 70 72 74 77 79 80 82 82 83 85 89 91 91 92 93 94

Inhaltsverzeichnis

5.

XV

Grenzwerts¨ atze und Approximationen . . . . . . . . . . . . . . . . . . . . 97 5.1 Die stochastische Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 5.2 Das Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 5.3 Der zentrale Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 5.4 Approximationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 5.4.1 Approximation der Binomialverteilung durch die Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 5.4.2 Approximation der Binomialverteilung durch die Poissonverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.4.3 Approximation der Poissonverteilung durch die Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.4.4 Approximation der hypergeometrischen Verteilung durch die Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.5 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

Teil II. Induktive Statistik 6.

7.

Sch¨ atzung von Parametern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Allgemeine Theorie der Punktsch¨ atzung . . . . . . . . . . . . . . . . . . . 6.3 Maximum-Likelihood-Sch¨ atzung . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1 Das Maximum-Likelihood-Prinzip . . . . . . . . . . . . . . . . . . 6.3.2 Herleitung der ML-Sch¨ atzungen f¨ ur die Parameter der Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Konfidenzsch¨ atzungen von Parametern . . . . . . . . . . . . . . . . . . . . 6.4.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.2 Konfidenzsch¨ atzung der Parameter einer Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Sch¨atzen einer Binomialwahrscheinlichkeit . . . . . . . . . . . . . . . . . 6.6 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

109 109 110 112 112

Pr¨ ufen statistischer Hypothesen . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Testtheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Einstichprobenprobleme bei Normalverteilung . . . . . . . . . . . . . . 7.3.1 Pr¨ ufen des Mittelwertes bei bekannter Varianz (einfacher Gauss-Test) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.2 Pr¨ ufung des Mittelwertes bei unbekannter Varianz (einfacher t-Test) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ur die Varianz . . . . . . . . . . 7.3.3 Pr¨ ufen der Varianz; χ2 -Test f¨ 7.4 Zweistichprobenprobleme bei Normalverteilung . . . . . . . . . . . . . 7.4.1 Pr¨ ufen der Gleichheit der Varianzen (F-Test) . . . . . . . . 7.4.2 Pr¨ ufen der Gleichheit der Mittelwerte zweier unabh¨angiger normalverteilter Zufallsvariablen . . . . . . . . . . . . . . . .

127 127 127 131

114 117 117 118 122 125

131 135 137 139 139 142

XVI

Inhaltsverzeichnis

7.5 7.6

7.7 7.8 8.

7.4.3 Pr¨ ufen der Gleichheit der Mittelwerte aus einer verbundenen Stichprobe (paired t-Test) . . . . . . . . . . . . . . . . Pr¨ ufen der Korrelation zweier Normalverteilungen . . . . . . . . . . Pr¨ ufen von Hypothesen u ¨ ber Binomialverteilungen . . . . . . . . . . 7.6.1 Pr¨ ufen der Wahrscheinlichkeit f¨ ur das Auftreten eines Ereignisses (Binomialtest f¨ ur p) . . . . . . . . . . . . . . . . . . . . 7.6.2 Pr¨ ufen der Gleichheit zweier Binomialwahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6.3 Exakter Test von Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6.4 McNemar-Test f¨ ur bin¨ aren Response . . . . . . . . . . . . . . . . Testentscheidung mit Statistik Software . . . . . . . . . . . . . . . . . . . Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Nichtparametrische Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Anpassungstests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.1 Chi-Quadrat-Anpassungstest . . . . . . . . . . . . . . . . . . . . . . . 8.2.2 Kolmogorov–Smirnov–Anpassungstest . . . . . . . . . . . . . . . 8.3 Homogenit¨ atstests f¨ ur zwei unabh¨ angige Stichproben . . . . . . . . 8.3.1 Kolmogorov-Smirnov-Test im Zweistichprobenproblem 8.3.2 Mann-Whitney-U -Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4 Homogenit¨ atstests im matched-pair Design . . . . . . . . . . . . . . . . 8.4.1 Vorzeichen-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.2 Wilcoxon-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5 Matched-Pair Design: Pr¨ ufung der Rangkorrelation . . . . . . . . . 8.6 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

145 147 149 149 152 153 155 157 161 165 165 165 166 168 172 172 174 179 179 182 184 187

Teil III. Modellierung von Ursache–Wirkungsbeziehungen 9.

Lineare Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1 Bivariate Ursache-Wirkungsbeziehungen . . . . . . . . . . . . . . . . . . . 9.2 Induktive univariate lineare Regression . . . . . . . . . . . . . . . . . . . . 9.2.1 Eigenschaften der Sch¨ atzfunktion b . . . . . . . . . . . . . . . . . 9.2.2 Hypothesentests f¨ ur den Parameter b . . . . . . . . . . . . . . . 9.3 Induktive multiple Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.1 Beste lineare erwartungstreue Sch¨atzung von β . . . . . . 9.3.2 Sch¨ atzung von σ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.3 Klassische Normalregression . . . . . . . . . . . . . . . . . . . . . . . 9.3.4 Maximum-Likelihood-Sch¨ atzung . . . . . . . . . . . . . . . . . . . . 9.3.5 Pr¨ ufen von linearen Hypothesen . . . . . . . . . . . . . . . . . . . . 9.3.6 Pr¨ ufen der univariaten Regression . . . . . . . . . . . . . . . . . . 9.3.7 Konfidenzbereiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.8 Vergleich von Modellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.9 Kriterien zur Modellwahl . . . . . . . . . . . . . . . . . . . . . . . . . .

193 193 194 195 197 197 198 199 200 200 201 206 208 212 213

Inhaltsverzeichnis

XVII

9.3.10 Die bedingte KQ-Sch¨ atzung . . . . . . . . . . . . . . . . . . . . . . . 9.4 Ein komplexes Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4.1 Normalverteilungsannahme . . . . . . . . . . . . . . . . . . . . . . . . 9.4.2 Schrittweise Einbeziehung von Variablen . . . . . . . . . . . . 9.4.3 Grafische Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5 Kategoriale Einflussgr¨ oßen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.6 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

215 215 216 217 221 222 227

10. Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 Einfaktorielle Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2.1 Darstellung als restriktives Modell . . . . . . . . . . . . . . . . . . 10.2.2 Zerlegung der Fehlerquadratsumme . . . . . . . . . . . . . . . . . 10.2.3 Sch¨ atzung von σ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2.4 Pr¨ ufen des Modells . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3 Multiple Vergleiche von einzelnen Mittelwerten . . . . . . . . . . . . . 10.4 Rangvarianzanalyse – Kruskal-Wallis-Test . . . . . . . . . . . . . . . . . 10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung . . . . . . . . . 10.5.1 Definitionen und Grundprinzipien . . . . . . . . . . . . . . . . . . 10.5.2 Modellannahmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.6 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

231 231 232 235 237 239 240 243 246 250 250 254 262

11. Analyse von Kontingenztafeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1 Zweidimensionale kategoriale Zufallsvariablen . . . . . . . . . . . . . . 11.2 Unabh¨ angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3 Inferenz in Kontingenztafeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3.1 Stichprobenschemata f¨ ur Kontingenztafeln . . . . . . . . . . . 11.3.2 ML-Sch¨ atzung bei Multinomialschema . . . . . . . . . . . . . . 11.3.3 Exakter Test von Fisher f¨ ur 2 × 2-Tafeln . . . . . . . . . . . . 11.3.4 Maximum-Likelihood-Quotienten-Test auf Unabh¨angigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.4 Differenziertere Untersuchung von I × J-Tafeln . . . . . . . . . . . . . 11.5 Die Vierfeldertafel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.6 Zweifache Klassifikation und loglineare Modelle . . . . . . . . . . . . . 11.7 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

265 265 267 268 268 270 273

12. Lebensdaueranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.1 Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2 Survivorfunktion und Hazardrate . . . . . . . . . . . . . . . . . . . . . . . . . 12.3 Kaplan-Meier-Sch¨ atzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.4 Log-Rank-Test zum Vergleich von Survivorfunktionen . . . . . . . ¨ 12.5 Einbeziehung von Kovariablen in die Uberlebensanalyse ..... 12.5.1 Das Proportional–Hazard–Modell von Cox . . . . . . . . . . . ¨ 12.5.2 Uberpr¨ ufung der Proportionalit¨atsannahme . . . . . . . . . . 12.5.3 Sch¨ atzung des Cox–Modells . . . . . . . . . . . . . . . . . . . . . . . .

289 289 291 292 296 300 301 302 303

273 274 277 280 286

XVIII Inhaltsverzeichnis

¨ 12.5.4 Sch¨ atzung der Uberlebensfunktion unter dem Cox– Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5.5 Einige Wahrscheinlichkeitsverteilungen f¨ ur die Verweildauer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5.6 Modellierung der Hazardrate . . . . . . . . . . . . . . . . . . . . . . . 12.6 Aufgaben und Kontrollfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13. Fehlende Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.1 Betrachtung eines einzelnen Merkmals . . . . . . . . . . . . . . . . . . . . 13.1.1 Behandlung fehlender Daten f¨ ur eine bin¨are Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.1.2 Fehlende Daten bei einer univariat normalverteilten Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2 Betrachtung zweier Merkmale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2.1 Zwei kategoriale Merkmale . . . . . . . . . . . . . . . . . . . . . . . .

304 304 306 309 311 314 314 321 321 323

Teil IV. Einf¨ uhrung in statistische Software 14. Einf¨ uhrung in SPSS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1 Grundaufbau des Programms . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1.1 Das Datenfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1.2 Das Ausgabefenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1.3 Das Syntaxfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.2 Einige praktische Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.2.1 Wahrscheinlichkeitstheorie und die Erzeugung von Zufallszahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.2.2 Verwendung von statistischen Tests . . . . . . . . . . . . . . . . . 14.2.3 Modellierung von Ursache-Wirkungsbeziehungen . . . . .

329 329 330 331 332 333

15. Einf¨ uhrung in R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.1 Installation und Grundaufbau des Programmpakets R . . . . . . . 15.1.1 R als u ¨berdimensionierter Taschenrechner . . . . . . . . . . . 15.1.2 Programmiersprache R . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.1.3 Grafische F¨ ahigkeiten von R . . . . . . . . . . . . . . . . . . . . . . . 15.2 Einige praktische Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.2.1 Wahrscheinlichkeitstheorie und die Erzeugung von Zufallszahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.2.2 Verwendung von statistischen Tests . . . . . . . . . . . . . . . . . 15.2.3 Modellierung von Ursache–Wirkungsbeziehungen . . . . .

353 353 354 355 356 360

¨ A. L¨ osungen zu den Ubungsaufgaben ........................ A.1 Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.2 Elemente der Wahrscheinlichkeitsrechnung . . . . . . . . . . . . . . . . . A.3 Zuf¨allige Variablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

387 388 391 401

333 337 346

360 364 378

Inhaltsverzeichnis

A.4 Diskrete und stetige Standardverteilungen . . . . . . . . . . . . . . . . . A.5 Grenzwerts¨ atze und Approximationen . . . . . . . . . . . . . . . . . . . . . A.6 Sch¨atzung von Parametern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.7 Pr¨ ufen statistischer Hypothesen . . . . . . . . . . . . . . . . . . . . . . . . . . A.8 Nichtparametrische Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.9 Lineare Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.10 Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.11 Analyse von Kontingenztafeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.12 Lebensdaueranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

XIX

415 424 429 434 441 450 453 456 460

B. Tabellenanhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 477 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479

Teil I

Wahrscheinlichkeitstheorie

1. Kombinatorik

1.1 Einleitung Dieses Kapitel dient der Vorbereitung auf die Grundlagen der Wahrscheinlichkeitsrechnung in Kapitel 2. Klassische wahrscheinlichkeitstheoretische Probleme liefern beispielsweise die Gl¨ ucksspiele, die als Experiment mit zuf¨alligem Ergebnis aufgefaßt werden k¨ onnen. Hier ist man insbesondere daran interessiert, die Chancen f¨ ur gewisse Gewinnklassen auszurechnen. Chance wird dabei als das Verh¨ altnis der f¨ ur die spezielle Gewinnklasse g¨ unstigen Ergebnisse zu der Anzahl aller gleichm¨ oglichen Ergebnisse verstanden. Dieser Quotient ist die Grundlage der klassischen Definition der Wahrscheinlichkeit nach Laplace (vgl. Abschnitt 2.3). Wir haben somit die Menge aller m¨oglichen Ergebnisse und die darin enthaltene Menge der f¨ ur die spezielle Gewinnklasse g¨ unstigen Ergebnisse zu betrachten. Die Anzahl der Elemente einer Menge M wird als M¨ achtigkeit |M | der Menge M bezeichnet. Beispiel. Beim Roulette besteht die Menge der m¨oglichen Ergebnisse aus den Zahlen 0, . . . , 36 mit der M¨ achtigkeit 37. Die Gewinnklasse Rouge“ besteht ” aus den roten Zahlen, die M¨ achtigkeit dieser Menge ist 18. Da der M¨achtigkeit von Mengen eine zentrale Bedeutung in der Wahrscheinlichkeitsrechnung zukommt, betrachten wir in den folgenden Abschnitten die grundlegenden Modelle und Fragestellungen der Kombinatorik, die sich mit der Berechnung von M¨ achtigkeiten besch¨aftigt. Dabei stehen die folgenden beiden Fragestellungen im Vordergrund: • Gegeben seien n Elemente. Auf wieviele Arten kann man sie anordnen? (Permutationen) • Auf wieviele Arten kann man m Elemente aus n Elementen ausw¨ahlen? (Kombinationen)

1.2 Grundbegriffe der Kombinatorik Als theoretische Grundlage f¨ ur das Gl¨ ucksspiel kann das Urnenmodell betrachtet werden. Man nehme eine Urne, in der sich n Kugeln befinden. Diese k¨onnen – je nach Fragestellung – entweder alle verschieden sein, oder es

4

1. Kombinatorik

k¨onnen sich mehrere Gruppen von gleichartigen Kugeln in der Urne befinden. Als das Resultat des Ziehens von Kugeln aus der Urne erhalten wir eine Auswahl (Stichprobe) von Kugeln aus der Gesamtheit (Grundgesamtheit) aller in der Urne vorhandenen Kugeln. Wir unterscheiden dabei zwischen der ungeordneten und der geordneten Auswahl von Elementen. Definition 1.2.1. Eine Auswahl von Elementen heißt geordnet, wenn die Reihenfolge der Elemente von Bedeutung ist, anderenfalls heißt die Auswahl von Elementen ungeordnet. Beispiele. • geordnete Auswahl: – Einlauf der ersten drei Pferde beim Pferderennen mit Sieger, Zweitem, Drittem – Wahl eines Vorsitzenden und seines Stellvertreters in einem Sportverein • ungeordnete Auswahl – Ziehungsergebnis ‘6 aus 49’ (ohne Zusatzzahl) – qualifizierte Fußballmannschaften f¨ ur die Weltmeisterschaft 2006 ¨ Bei den obigen Beispielen will man sich eine Ubersicht u ¨ber die Zahl der verschiedenen Auswahlm¨ oglichkeiten verschaffen, d. h., man fragt nach der Zahl der m¨oglichen Einl¨ aufe der ersten drei Pferde bei z. B. acht Pferden im Wettbewerb, nach der Anzahl der m¨ oglichen Wahlausg¨ange in einem Sportverein, nach den verschiedenen Tippergebnissen beim Lotto, nach den verschiedenen Teilnehmerfeldern f¨ ur die Weltmeisterschaft 2006 usw.

1.3 Permutationen Definition 1.3.1. Gegeben sei eine Menge mit n Elementen. Jede Anordnung dieser Elemente in einer bestimmten Reihenfolge heißt Permutation dieser Elemente. Bei Permutationen k¨ onnen wir zwei F¨ alle unterscheiden: Sind alle n Elemente verschieden (also unterscheidbar), so spricht man von Permutationen ohne Wiederholung. Sind einige Elemente gleich, so handelt es sich um Permutationen mit Wiederholung. 1.3.1 Permutationen ohne Wiederholung Sind alle n Elemente verschieden, so gibt es n! verschiedene Anordnungen dieser Elemente.

(1.1)

1.3 Permutationen

5

Definition 1.3.2. Der Ausdruck n! heißt n Fakult¨ at und ist f¨ ur ganzzahliges n ≥ 0 wie folgt definiert:  1 f¨ ur n = 0 (1.2) n! = 1 · 2 · 3 · · · n f¨ ur n > 0 So ist beispielsweise

1! = 1 2! = 1 · 2 = 2

3! = 1 · 2 · 3 = 6 . Die Regel Es gibt n! Permutationen ohne Wiederholung“ u uft man ¨ berpr¨ ” ¨ leicht durch folgende Uberlegung. Bei n verschiedenen Elementen hat man n M¨oglichkeiten, das erste Element zu w¨ ahlen. Hat man das erste Element festgelegt, so verbleiben f¨ ur die Wahl des zweiten Elements n − 1 M¨oglichkeiten, . . . , f¨ ur die Wahl des letzten Elements bleibt eine M¨oglichkeit. Im Urnenmodell entspricht dies dem Ziehen aller n Kugeln der Reihe nach. Beispiel 1.3.1. 3 Kinder stellen sich an einem Eisstand an. F¨ ur die Reihenfolge des Anstehens von Ulrike, Angela und Sabina gibt es 3! = 6 M¨oglichkeiten: (U, A, S), (A, S, U), (S, A, U) (U, S, A), (A, U, S), (S, U, A) urzt durch die Ziffern Beispiel 1.3.2. 4 Filialen einer Gesch¨ aftskette (abgek¨ 1, 2, 3 und 4) werden nach ihrem Jahresumsatz angeordnet. Es gibt daf¨ ur 4! = 24 verschiedene M¨ oglichkeiten. F¨ ur die Filiale mit dem h¨ochsten Umsatz gibt es 4 M¨oglichkeiten. In der folgenden Auflistung sind die Gruppen mit gleich besetzter erster Position in Spalten nebeneinander angeordnet. Ist die erste Position festgelegt, verbleiben f¨ ur die zweite Position 3 M¨oglichkeiten. Ist diese bestimmt, verbleiben f¨ ur Position drei 2 M¨oglichkeiten. Mit der Festlegung der dritten (vorletzten) Position ist schließlich auch die letzte Position vier bestimmt. In der linken Spalte der folgenden Auflistung wird f¨ ur die erste Position Filiale 1 und f¨ ur die zweite Position zun¨ achst Filiale 2 gew¨ahlt. F¨ ur die dritte und vierte Position verbleiben damit die beiden Kombinationen 3, 4 und 4, 3. W¨ahlen wir dann f¨ ur die zweite Position Filiale 3, so verbleiben die beiden Kombinationen 2, 4 und 4, 2. Bei Filiale 4 an Position zwei gibt es schließlich die beiden Kombinationen 2, 3 und 3, 2. Die weiteren Spalten werden analog gebildet. Filiale 1 mit h¨ ochstem Umsatz (1, 2, 3, 4) (1, 2, 4, 3) (1, 3, 2, 4) (1, 3, 4, 2) (1, 4, 2, 3) (1, 4, 3, 2)

··· ··· ··· ··· ··· ··· ···

Filiale 4 mit h¨ochstem Umsatz (4, 1, 2, 3) (4, 1, 3, 2) (4, 2, 1, 3) (4, 2, 3, 1) (4, 3, 1, 2) (4, 3, 2, 1)

6

1. Kombinatorik

1.3.2 Permutationen mit Wiederholung Sind nicht alle Elemente verschieden, sondern gibt es n1 gleichartige Elemente E1 , n2 gleichartige – aber von E1 verschiedene – Elemente E2 , . . ., und schließlich ns gleichartige – aber von E1 , . . . , Es−1 verschiedene – Elemente s Es , so haben wir folgende Struktur von insgesamt n = i=1 Elementen: Gruppe 1: n1 Elemente E1 Gruppe 2: n2 Elemente E2 .. .. . . Gruppe s: ns Elemente Es

Die Anzahl der m¨ oglichen (unterscheidbaren) Permutationen mit Wiederholung ist n! . (1.3) n1 ! n2 ! n3 ! · · · ns !

Intuitiv l¨asst sich (1.3) wie folgt erl¨ autern: Es gibt n! verschiedene Anordnungen f¨ ur die n Elemente (vgl. (1.1)). Das Vertauschen von Elementen innerhalb einer Gruppe f¨ uhrt nicht zu unterschiedlichen Anordnungen. Daher d¨ urfen bei der Bestimmung der Gesamtzahl der Anordnungen die ni !, i = 1, . . . , s gleichen Anordnungen jeder Gruppe nicht gez¨ahlt werden. In der Urne liegen also nicht mehr n v¨ ollig verschiedene Kugeln, sondern es gibt nur noch s beispielsweise durch ihre Farbe unterscheidbare Kugelarten, wobei jede Kugelart mehrfach (ni -fach) in der Urne vorkommt. Es werden wieder alle Kugeln der Reihe nach aus der Urne gezogen.

Beispiel 1.3.3. In einer Kartei, in der n = 10 Mitarbeiter verzeichnet sind, sind n1 = 4 Mitarbeiter Frauen und n2 = 6 M¨anner. Nach (1.1) gibt es 10! verschiedene Permutationen der Karteikarten. Ist bei einer solchen Anordnung nur wichtig, ob eine Karteikarte zu einer Frau (w) oder zu einem Mann (m) geh¨ort, so sind dabei 4! Permutationen bez¨ uglich der Frauen und 6! Permutationen bez¨ uglich der M¨ anner nicht unterscheidbar. Also ist die Anzahl der (unterscheidbaren) Permutationen mit Wiederholung nach (1.3) gleich 10 · 9 · 8 · 7 · 6! 10 · 9 · 8 · 7 5040 10! = = = = 210 . 4! 6! 4! 6! 4! 24 Anmerkung. Der Quotient (1.3) wird uns in Abschnitt 4.2.8 im Zusammenhang mit der Multinomialverteilung wieder begegnen, er wird auch Multinomialkoeffizient genannt. Neben der eben beschriebenen Anordnung von n Elementen interessiert, insbesondere in der Stichprobenziehung, der Begriff der Kombination, den wir nun einf¨ uhren werden.

1.4 Kombinationen

7

1.4 Kombinationen Definition 1.4.1. Eine Auswahl von m Elementen aus einer Gesamtmenge von n (unterscheidbaren) Elementen (mit n ≥ m) heißt Kombination mter Ordnung aus n Elementen. F¨ ur Kombinationen gibt es vier Modelle, je nachdem, ob ein Element mehrfach ausgew¨ ahlt werden darf oder nicht (mit bzw. ohne Wiederholung) und ob die Reihenfolge der Anordnung der Elemente eine Rolle spielt oder nicht (mit bzw. ohne Ber¨ ucksichtigung der Reihenfolge). Eine wichtige Notationshilfe bei der Bestimmung der Anzahl von Kombinationen ist der Binomialkoeffizient. Definition 1.4.2. Der Binomialkoeffizient ist f¨ ur ganzzahlige n ≥ m ≥ 0 definiert als   n n! . (1.4) = m! (n − m)! m (Der Binomialkoeffizient wird als



nu ¨ ber m“ oder



m aus n“ gelesen).

Es gilt   n = 1 (als Definition) 0   n =n 1     n n = . m n−m 1.4.1 Kombinationen ohne Wiederholung und ohne Ber¨ ucksichtigung der Reihenfolge Die Anzahl der Kombinationen ohne Wiederholung und ohne Ber¨ ucksichtigung der Reihenfolge betr¨ agt   n . (1.5) m Man stelle sich vor, die n Elemente werden in zwei Gruppen unterteilt: die Gruppe der ausgew¨ ahlten m = n1 Elemente und die Gruppe der nicht ausgew¨ahlten restlichen n − m = n2 Elemente. Die Reihenfolge innerhalb der beiden Gruppen interessiert dabei nicht. Damit kann (1.5) mit (1.3) gleichgesetzt werden:   n n! n! . (1.6) = = m m! (n − m)! n1 ! n2 !

8

1. Kombinatorik

Beispiel 1.4.1. Aus n = 4 Buchstaben (a,b,c,d) lassen sich   4 4! =6 = 2! 2! 2 Paare (m = 2) von Buchstaben bilden, bei denen Wiederholungen (eines Buchstabens) nicht zugelassen sind und die Reihenfolge unber¨ ucksichtigt bleibt: (a,b)

(a,c) (b,c)

(a,d) (b,d) (c,d)

Beispiel 1.4.2. Aus n = 3 Mitgliedern (Christian, Thomas, Sandro) eines Vereins soll ein Vorstand aus m = 2 Mitgliedern ausgew¨ahlt werden. Die Reihenfolge spielt keine Rolle (ohne Ber¨ ucksichtigung der Reihenfolge), und es m¨ ussen zwei verschiedene Personen gew¨ ahlt werden (ohne Wiederholung). Die Anzahl der verschiedenen m¨ oglichen Vorst¨ande ist dann   3 3! = 3, = 2! · 1! 2 n¨amlich (Christian, Thomas), (Christian, Sandro), (Thomas, Sandro). Beispiel 1.4.3. Die Ziehung ‘6 aus 49’ (ohne Zusatzzahl) ist eine Kombination 6. Ordnung (m = 6) aus n = 49 Elementen. Dabei wird keine Zahl wiederholt gezogen, und f¨ ur die Gewinnklasse spielt die Reihenfolge der Ziehung der Zahlen keine Rolle. Also liegt eine Kombination ohne Wiederholung und ohne Ber¨ ucksichtigung der Reihenfolge vor. Es gibt somit   43! · 44 · 45 · 46 · 47 · 48 · 49 49 49! = = 13983816 = 6! 43! 1 · 2 · 3 · 4 · 5 · 6 · 43! 6 (d. h. rund 14 Millionen) m¨ ogliche Ziehungsergebnisse. Beispiel 1.4.4. Beim Pferderennen gibt es die Wettart Dreiereinlauf“, bei ” der die ersten drei Pferde (mit Festlegung des Platzes) getippt werden. Ber¨ ucksichtigt man zun¨ achst die Reihenfolge nicht, so gibt es bei n = 20 Pferden   20 20! 18 · 19 · 20 = = = 1140 3 3! 17! 1·2·3 verschiedene Ergebnisse f¨ ur die ersten drei Pferde (ohne Ber¨ ucksichtigung ihrer Reihenfolge).

1.4 Kombinationen

9

1.4.2 Kombinationen ohne Wiederholung, aber mit Ber¨ ucksichtigung der Reihenfolge Sollen zwei Kombinationen, die genau dieselben m Elemente enthalten, aber in verschiedener Anordnung, als verschieden gelten, so spricht man von Kombination mit Ber¨ ucksichtigung der Reihenfolge. Die Anzahl der Kombinationen ohne Wiederholung, aber unter Ber¨ ucksichtigung der Reihenfolge betr¨agt   n n! = m! . (1.7) (n − m)! m Die Ber¨ ucksichtigung der Anordnung der m Elemente erh¨oht also die Anzahl der Kombinationen um den Faktor m! (vgl. (1.5)), d. h. um die Kombinationen, die vorher als gleich galten. Wir ziehen aus der Urne also m verschiedene Kugeln ohne Zur¨ ucklegen, halten aber die Reihenfolge fest, in der sie gezogen wurden. Beispiel 1.4.5. Ber¨ ucksichtigt man bei der Dreiereinlaufwette die Reihenfolge der ersten drei Pferde, so gibt es bei n = 20 gestarteten Pferden 20! = 18 · 19 · 20 = 6840 (20 − 3)! verschiedene Ergebnisse, also (vgl. Beispiel 1.4.4) 6 = 3! mal mehr m¨ogliche Ergebnisse als ohne Ber¨ ucksichtigung der Rangfolge der ersten drei Pferde. Beispiel 1.4.6. Wird die Reihenfolge (Vorsitzender, Stellvertreter) bei der Wahl eines Vorstandes aus m = 2 Personen bei n = 3 Mitgliedern ber¨ ucksichtigt, so gibt es   3! 3 = · 2! = 6 2 (3 − 2)! verschiedene Vorst¨ ande, n¨ amlich

(Christian, Thomas) (Thomas, Christian) (Sandro, Christian)

(Christian, Sandro) (Thomas, Sandro)

(Sandro, Thomas)

Beispiel 1.4.7. Man w¨ ahle aus n = 4 verschiedenen Buchstaben a, b, c, d genau m = 2 verschiedene Buchstaben aus, wobei die Reihenfolge zu ber¨ ucksichtigen ist. Wir erhalten als Anzahl   4 4! = · 2! = 12 . 2 2! Die Kombinationen lauten: (a,b) (b,a) (c,a) (d,a)

(c,b) (d,b)

(a,c) (b,c) (d,c)

(a,d) (b,d) (c,d)

10

1. Kombinatorik

1.4.3 Kombinationen mit Wiederholung, aber ohne Ber¨ ucksichtigung der Reihenfolge L¨ asst man zu, dass Elemente mehrfach in der Kombination auftreten, so spricht man von Kombination mit Wiederholung. Die Anzahl der Kombinationen mit Wiederholung, aber ohne Ber¨ ucksichtigung der Reihenfolge betr¨agt   n+m−1 (n + m − 1)! . (1.8) = m! (n − 1)! m

Im Vergleich zum Fall der Kombinationen ohne Wiederholung (1.5) vergr¨oßert sich die Menge, aus der ausgew¨ ahlt wird, um m − 1 Elemente. Im Urnenmodell entspricht dies dem Ziehen mit Zur¨ ucklegen, aber ohne Ber¨ ucksichtigung der Reihenfolge. Beispiel 1.4.8. Aus n = 4 verschiedenen Buchstaben (a,b,c,d) lassen sich     3! · 4 · 5 4+2−1 5 5! = = 10 = = 2! 3! 1 · 2 · 3! 2 2 Paare (m = 2) von Buchstaben bilden, bei denen Wiederholungen (eines Buchstabens) zugelassen sind und die Reihenfolge unber¨ ucksichtigt bleibt: (a,a)

(a,b) (b,b)

(a,c) (b,c) (c,c)

(a,d) (b,d) (c,d) (d,d)

Beispiel 1.4.9. Wenn wir zulassen, dass ein Vereinsmitglied bei der Vorstandswahl zwei Posten besetzt, gibt es bei n = 3 Mitgliedern     3+2−1 4 4! = = =6 2 2 2! 2! m¨ogliche Zweiervorst¨ ande ohne Ber¨ ucksichtigung der Reihenfolge: (Christian, Christian)

(Christian, Thomas) (Thomas, Thomas )

(Christian, Sandro) (Thomas, Sandro) (Sandro, Sandro)

1.4.4 Kombinationen mit Wiederholung und mit Ber¨ ucksichtigung der Reihenfolge Die Anzahl der Kombinationen mit Wiederholung und mit Ber¨ ucksichtigung der Reihenfolge betr¨ agt nm . (1.9) In diesem Modell gibt es f¨ ur jede der m Auswahlstellen n m¨ogliche Elemente. ¨ Ubertragen auf das Urnenmodell heißt das, dass in jedem Zug eine Kugel ausgew¨ahlt und danach wieder zur¨ uckgelegt wird, und dass zus¨atzlich die Reihenfolge in der Ziehung von Interesse ist.

1.5 Zusammenfassung

11

Beispiel 1.4.10. Aus n = 4 Buchstaben lassen sich 42 = 16 Paare (m = 2) von Buchstaben bilden, bei denen Wiederholungen (eines Buchstabens) zugelassen sind und die Reihenfolge ber¨ ucksichtigt wird: (a,a) (b,a) (c,a) (d,a)

(a,b) (b,b) (c,b) (d,b)

(a,c) (b,c) (c,c) (d,c)

(a,d) (b,d) (c,d) (d,d)

Beispiel 1.4.11. In einem Verein mit m = 3 Mitgliedern gibt es 32 = 9 Zweier-Vorst¨ande, wenn Doppelbesetzung (Wiederholung) zugelassen ist und bei den unterscheidbaren Paaren die Reihenfolge ber¨ ucksichtigt wird. Durch die Ber¨ ucksichtigung der Reihenfolge erh¨ oht sich die Zahl der verschiedenen Vorst¨ande um 3 (vgl. Beispiel 1.4.9): (Christian, Christian) (Thomas, Christian) (Sandro, Christian)

(Christian, Thomas) (Thomas, Thomas) (Sandro, Thomas)

(Christian, Sandro) (Thomas, Sandro) (Sandro, Sandro)

Beispiel 1.4.12 (W¨ urfelwurf ). Beim viermaligen W¨ urfeln gibt es bei jedem Wurf 6 M¨oglichkeiten, also insgesamt 64 = 1296 verschiedene Wurfserien, von (1, 1, 1, 1) bis (6, 6, 6, 6).

1.5 Zusammenfassung Die in diesem Kapitel vorgestellten kombinatorischen Regeln zur Berechnung der M¨achtigkeit von Mengen sind nochmals in Tabelle 1.1 zusammengefaßt. Tabelle 1.1. Regeln der Kombinatorik ohne Wiederholung Permutationen Kombinationen ohne Reihenfolge Kombinationen mit Reihenfolge

n! ! n m ! n m! m

mit Wiederholung n! n1 ! · · · ns ! n+m−1 m nm

!

12

1. Kombinatorik

1.6 Aufgaben und Kontrollfragen Aufgabe 1.1: Welche kombinatorischen Regeln kennen Sie? Erkl¨aren Sie die Unterschiede zwischen diesen Regeln. Aufgabe 1.2: a) Wieviele 8-stellige Kontonummern gibt es, die nicht mit der Ziffer 0 beginnen? b) Wieviele 8-stellige Kontonummern gibt es, die nicht mit der Ziffer 0 beginnen und bei denen keine Ziffer mehrfach vorkommt? Aufgabe 1.3: Gegeben seien f¨ unf Buchstaben a,b,c,d und e. Wieviele der m¨oglichen Permutationen dieser f¨ unf Buchstaben beginnen mit einem e? Wieviele beginnen mit der Folge cb? Aufgabe 1.4: Wieviele verschiedene Motorradkennzeichen der Art ‘RA-153’ lassen sich aus 26 Buchstaben und neun Ziffern herstellen? Aufgabe 1.5: Eine Hockeybundesliga bestehe aus zw¨olf Mannschaften. In einer Saison spielt jede Mannschaft gegen jede andere ein Hin- und R¨ uckspiel. Wieviele Spiele finden insgesamt w¨ ahrend einer Saison statt? Aufgabe 1.6: Bei einer Party mit zehn G¨ asten k¨ ußt zur Begr¨ ußung jeder jeden. Wieviele K¨ usse gibt es dann? Aufgabe 1.7: Bei der Leichtathletik WM sind 22 Athleten mit den Startnummern 1 bis 22 f¨ ur den 100-Meter-Lauf der M¨anner gemeldet. Wieviele M¨oglichkeiten gibt es f¨ ur die Besetzung des Siegerpodestes, wenn die Pl¨atze 1,2 und 3 nicht unterschieden werden? Aufgabe 1.8: In einem Tischtennis-Verein mit zw¨olf Aktiven wird eine Rangliste f¨ ur die erste Mannschaft (Pl¨ atze 1 bis 6) festgelegt. Wieviele M¨oglichkeiten gibt es? Aufgabe 1.9: Vier W¨ urfel werden gleichzeitig geworfen. a) Wieviele Ergebnisse mit vier verschiedenen Augenzahlen gibt es? b) Wieviele Ergebnisse mit h¨ ochstens drei gleichen Augenzahlen gibt es? Aufgabe 1.10: Ein W¨ urfel wird dreimal hintereinander geworfen. a) In wievielen F¨ allen ist der erste Wurf eine 6“? ” b) In wievielen F¨ allen ist die Augenzahl im dritten Wurf gerade? c) In wievielen F¨ allen ist der erste und der dritte Wurf eine 3“? ” Aufgabe 1.11: Wieviele m¨ ogliche Partien gibt es, in denen ein Skatspieler onige und 2 Damen hat? unter seinen 10 Karten 3 K¨

2. Elemente der Wahrscheinlichkeitsrechnung

2.1 Einleitung Ziel jeder wissenschaftlichen Untersuchung ist es, bei beobachteten Zusammenh¨angen, Effekten oder Trends zu pr¨ ufen, ob diese beobachteten Effekte systematischer Art oder zuf¨ allig sind. Dazu werden statistische Verfahren und Schlussweisen eingesetzt. Ein Verst¨ andnis des Zufallsbegriffs ist dabei notwendige Voraussetzung. Aus dem t¨aglichen Leben kennen wir viele Beispiele, in denen der Begriff wahrscheinlich“ eine Rolle spielt, wobei wir dies oft mit der relativen ” H¨ aufigkeit des Auftretens eines Ereignisses gleichsetzen: • die Wahrscheinlichkeit f¨ ur das Auftreten einer 6“ beim einmaligen W¨ urfeln ” ist 1/6, • die Wahrscheinlichkeit f¨ ur das Ereignis Wappen“ beim einmaligen Werfen ” einer M¨ unze ist 1/2. Diese Aussagen lassen sich u ufen, sofern nur eine hinreichend große ¨ berpr¨ Beobachtungsreihe vorliegt. Beim W¨ urfeln erwartet man, dass bei h¨aufigen Wiederholungen die relative H¨ aufigkeit jeder Augenzahl gegen 1/6 strebt. Statistische Erhebungen sind mit einem Experiment vergleichbar, dessen Ergebnis vor seiner Durchf¨ uhrung nicht bekannt ist. Versuche oder Experimente, die bei Wiederholungen unter gleichen Bedingungen zu verschiedenen Ergebnissen f¨ uhren k¨ onnen, heißen zuf¨ allig. Beispiele. Zuf¨alliges Experiment Werfen eines W¨ urfels Befragen eines Studenten Einsatz von Werbung Auswahl eines Mitarbeiters

M¨ ogliche Ergebnisse Augenzahl z (z = 1, 2, . . . , 6) Semesteranzahl T (T = 1, 2, . . .) Umsatz¨ anderung x (in%) (x = 0, ±1, ±2, . . .) Verdienstgruppe i (i = I, II, III)

14

2. Elemente der Wahrscheinlichkeitsrechnung

2.2 Zuf¨ allige Ereignisse Ein zuf¨ alliges Ereignis ist eine Menge von Ergebnissen {ω1 , . . . , ωk } eines Zufallsexperiments. Man sagt, das zuf¨ allige Ereignis A = {ω1 , . . . , ωk } tritt ein, wenn mindestens eines der zuf¨ alligen Ereignisse {ωi } eingetreten ist. Ereignisse, die nur aus der einelementigen Menge {ωi } bestehen, heißen Elementarereignisse. Mit anderen Worten, ein Elementarereignis ist ein Ereignis, das sich nicht als Vereinigung mehrerer Ergebnisse ωi ausdr¨ ucken l¨ asst. Der Ereignisraum oder Grundraum Ω ist die Menge aller Elementarereignisse. Beispiel 2.2.1 (W¨ urfelwurf ). Beim einmaligen Werfen eines W¨ urfels sind die m¨oglichen Ergebnisse die Augenzahlen 1, . . . , 6. Damit besteht der Ereignisraum aus den Elementarereignissen ω1 = 1“, ω2 = 2“,. . ., ω6 = 6“: ” ” ” Ω = {1, . . . , 6}. Das Ereignis A = {ω2 , ω4 , ω6 } tritt ein, falls eines der Elementarereignisse ω2 , ω4 oder ω6 eingetreten ist. In diesem Fall ist A das zuf¨allige Ereignis gerade Augenzahl beim einmaligen W¨ urfeln“. ” Beim zweifachen W¨ urfelwurf sind die Elementarereignisse ω1 , . . . , ω36 die Paare (1, 1) bis (6, 6). Damit hat Ω die Gestalt {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6) (2, 1), (2, 2), ... (2, 6) Ω= .. .. . . (6, 1), ... (6, 5), (6, 6)} Das unm¨ ogliche Ereignis ∅ ist das Ereignis, das kein Elementarereignis enth¨alt. Das sichere Ereignis ist die Menge Ω = {ω1 , . . . , ωn } aller Elementarereignisse. Das sichere Ereignis tritt in jeder Wiederholung des Zufallsexperiments ein. Beispiele. • f¨ ur das sichere Ereignis: – Die gezogene Zusatzzahl bei Lotto ‘6 aus 49’ ist eine Zahl von 1 bis 49. – Beim Einsatz von Werbung in einer Kaufhauskette ver¨andert sich der Umsatz positiv oder der Umsatz bleibt gleich oder der Umsatz ver¨andert sich negativ. • f¨ ur das unm¨ogliche Ereignis: – Die gezogene Zahl z = −1, z = 5.5 oder z = 51 bei der Ziehung im Lotto ‘6 aus 49’. – Gerade Augenzahl in beiden W¨ urfen und ungerade Augensumme“ beim ” zweifachen W¨ urfelwurf. Das Komplement¨ arereignis A¯ ist das Ereignis, das genau dann eintritt, wenn A nicht eintritt.

2.2 Zuf¨ allige Ereignisse

15

Beispiele. • F¨ ur das zuf¨allige Ereignis A: gerade Zahl gew¨ urfelt“ ist das komple” ¯ ungerade Zahl ment¨are Ereignis A: gew¨ urfelt“. ” • Beim M¨ unzwurf ist Wappen“ das zu Zahl“ komplement¨are Ereignis. ” ” Wie bereits erw¨ ahnt, kann man bei Zufallsexperimenten an einem Elementarereignis ωi interessiert sein oder auch an einem zusammengesetzten Ereignis A = {ω2 , ω5 , . . .}. Da zuf¨ allige Ereignisse Mengen von Elementarereignissen sind, sind folgende Mengenoperationen von Interesse, die in den Abbildungen 2.1 und 2.2 veranschaulicht werden. A∩B

A∪B



A\B

Das zuf¨ allige Ereignis A ∩ B ist die Durchschnittsmenge aller Elementarereignisse aus A und B. Das Ereignis A und B“ tritt ” genau dann ein, wenn sowohl A als auch B eintreten. Beispiel W¨ urfel: A = {ω2 , ω4 , ω6 } (gerade Zahl), B = {ω3 , ω6 } (durch 3 teilbar), A ∩ B = {ω6 } (gerade und durch 3 teilbar). Das zuf¨ allige Ereignis A ∪ B ist die Vereinigungsmenge aller Elementarereignisse aus A und B, wobei gemeinsame Elementarereignisse nur einmal aufgef¨ uhrt werden. Das Ereignis A oder ” B“ tritt genau dann ein, wenn mindestens eines der beiden Ereignisse A oder B eintritt. Beispiel W¨ urfel: A = {ω2 , ω4 , ω6 } (gerade Zahl), B = {ω3 , ω6 } (durch 3 teilbar), A ∪ B = {ω2 , ω3 , ω4 , ω6 } (gerade oder durch 3 teilbar). Das zuf¨ allige Ereignis A¯ enth¨ alt alle Elementarereignisse aus Ω, die nicht in A vorkommen. Das zu A komplement¨are Ereignis Nicht-A“ oder A quer“ tritt genau dann ein, wenn A nicht ein” ” tritt. Beispiel W¨ urfel: A = {ω2 , ω4 , ω6 } (gerade Zahl), A¯ = {ω1 , ω3 , ω5 } (ungerade Zahl). Das zuf¨ allige Ereignis A\B enth¨ alt alle Elementarereignisse aus A, die nicht gleichzeitig in B enthalten sind. Das Ereignis A aber ” nicht B“ oder A minus B“ tritt genau dann ein, wenn A aber ” ¯ nicht B eintritt. Es gilt A\B = A ∩ B Beispiel W¨ urfel: A = {ω2 , ω4 , ω6 } (gerade Zahl), B = {ω3 , ω6 } (durch 3 teilbar), A\B = {ω2 , ω4 } (gerade, aber nicht durch 3 teilbar).

Anmerkung. Folgende Schreibweisen sind ebenfalls u ¨ blich: A+B AB A−B

f¨ ur f¨ ur f¨ ur

A∪B A∩B A\B

Betrachten wir ein Ereignis A, so sind folgende Zusammenh¨ange von Interesse:

16

2. Elemente der Wahrscheinlichkeitsrechnung

A

B

A

B

Abb. 2.1. A ∪ B und A ∩ B

A

B

A



Abb. 2.2. A\B und A¯ = Ω\A

A∪A=A A∪Ω =Ω A∪∅=A A ∪ A¯ = Ω

A∩A=A A∩Ω =A A∩∅=∅ A ∩ A¯ = ∅

Definition 2.2.1. Zwei zuf¨allige Ereignisse A und B heißen unvereinbar oder disjunkt, falls ihr gleichzeitiges Eintreten unm¨oglich ist, d.h., falls A ∩ B = ∅ gilt. Damit gilt nat¨ urlich insbesondere, dass A und A¯ disjunkt sind.

Beispiel (Einfacher W¨ urfelwurf ). Die zuf¨ alligen Ereignisse ungerade Augen” zahl“ A = {ω1 , ω3 , ω5 } und gerade Augenzahl“ B = A¯ = {ω2 , ω4 , ω6 } sind ” disjunkt. Wir k¨onnen einen zuf¨ alligen Versuch durch die Menge der Elementarereignisse Ω = {ω1 , . . . , ωn } oder durch Mengen von zuf¨alligen Ereignissen A1 , . . . , Am (m ≤ n) beschreiben, die folgender Definition gen¨ ugen. Definition 2.2.2. Die zuf¨alligen Ereignisse A1 , . . . , Am bilden ein vollst¨andiges System bzw. eine vollst¨ andige Zerlegung von Ω genau dann, wenn A1 ∪ A2 ∪ · · · ∪ Am = Ω und Ai ∩ Aj = ∅

(f¨ ur alle i = j).

Beispiel (Einmaliger W¨ urfelwurf ). Die Elementarereignisse ω1 , . . . , ω6 bilden in jedem Fall ein vollst¨ andiges System. Weitere m¨ogliche vollst¨andige Systeme sind z.B.:

2.3 Relative H¨ aufigkeit und Laplacesche Wahrscheinlichkeit

17

• A1 = {ω1 , ω3 , ω5 } A2 = {ω2 , ω4 , ω6 } • A1 = {ω1 } A2 = {ω2 , . . . , ω6 } • A1 = {ω1 , ω2 , ω3 } A2 = {ω4 , ω5 , ω6 }. Anmerkung. Vollst¨ andige Systeme von Ereignissen spielen in der Maßtheorie, auf die hier nicht weiter eingegangen wird, eine wichtige Rolle. Dabei kann ein vollst¨andiges System beliebig definiert werden, solange Definition 2.2.2 eingehalten wird, es sollte jedoch stets der Grundsatz so grob wie m¨oglich ” und so fein wie n¨otig“ eingehalten werden. Beim Umgang mit Mengen von zuf¨ alligen Ereignissen A1 , . . . , Am sind die folgenden Rechenregeln hilfreich. Definition 2.2.3 (DeMorgansche Regeln). F¨ ur beliebige Ak ⊂ Ω gilt

und



Ak =

Ak

(2.1)

k∈K



k∈K



Ak =



Ak .

(2.2)

k∈K

k∈K

F¨ ur zwei Teilmengen Ai ⊂ Ω und Aj ⊂ Ω ergibt sich aus obigen Regeln Ai ∪ Aj = Ai ∩ Aj und Ai ∩ Aj = Ai ∪ Aj .

2.3 Relative H¨ aufigkeit und Laplacesche Wahrscheinlichkeit Ein zuf¨alliger Versuch wird durch die Angabe der m¨oglichen Versuchsausg¨ange beschrieben (Augenzahlen 1 bis 6 beim W¨ urfelwurf). Dar¨ uber hinaus ist eine Quantifizierung der Versuchsergebnisse von Interesse. Die Quantifizierung mit Hilfe der relativen H¨ aufigkeit zielt auf die Absch¨atzung der Realisierungschancen eines Versuchsergebnisses ab. Man betrachtet deshalb einen zuf¨alligen Versuch mit den m¨ oglichen Ergebnissen A1 , A2 , . . . , Am , der n-fach unabh¨angig wiederholt wird, und registriert die absoluten H¨aufigkeiten ni = n(Ai ) der Ereignisse Ai . Beispiel 2.3.1 (M¨ unzwurf ). Beim Werfen einer M¨ unze sind die zuf¨alligen (Elementar-) Ereignisse A1 : Wappen“ und A2 : Zahl“ m¨oglich. Die Anzahl ” ” der Wiederholungen sei n = 500. In 300 F¨ allen sei A1 und in 200 F¨allen A2 geworfen worden, d.h. es ist n1 = n(A1 ) = 300 und n2 = n(A2 ) = 200.

18

2. Elemente der Wahrscheinlichkeitsrechnung

Die relative H¨ aufigkeit fi = f (Ai ) eines zuf¨alligen Ereignisses Ai bei n Wiederholungen berechnet sich gem¨ aß fi = f (Ai ) =

ni , n

wobei • fi = f (Ai ) die relative H¨ aufigkeit eines Ereignisses Ai , • ni = n(Ai ) die absolute H¨ aufigkeit eines Ereignisses Ai und • n die Anzahl der Versuchswiederholungen ist. F¨ ur das obige Beispiel gilt also: f1 = f (A1 ) =

300 = 0.6 , 500

f2 = f (A2 ) =

200 = 0.4 . 500

Anmerkung. Es zeigt sich, dass die relative H¨ aufigkeit f (A) f¨ ur hinreichend großes n unter gewissen Voraussetzungen eine Stabilit¨at aufweist in dem Sinne, dass f (A) gegen einen f¨ ur das Ereignis A typischen Wert strebt (vgl. Kapitel 5). Diese Konstante werden wir als Wahrscheinlichkeit des Ereignisses A bezeichnen, die Schreibweise ist P (A). Beispiel. Man erwartet beim wiederholten M¨ unzwurf, dass die relative H¨aufigkeit f (Wappen) gegen 0.5 strebt, sofern der Wurf sehr oft wiederholt wird. Voraussetzung bleibt jedoch, dass die Versuchsbedingungen konstant gehalten werden. Einen der H¨ aufigkeitsinterpretation sehr ¨ ahnlichen Ansatz stellt der Laplacesche Wahrscheinlichkeitsbegriff dar. Ein Laplace-Experiment ist ein Zufallsexperiment mit einer endlichen Ergebnismenge, bei dem alle Ergebnisse gleichwahrscheinlich sind. Die Wahrscheinlichkeit eines beliebigen zuf¨alligen Ereignisses ist dann wie folgt definiert: Definition 2.3.1. Der Quotient P (A) =

Anzahl der f¨ ur A g¨ unstigen F¨alle |A| = |Ω| Anzahl der m¨oglichen F¨alle

(2.3)

wird als Laplace-Wahrscheinlichkeit bezeichnet (hierbei ist |A| die Anzahl der Elemente von A und |Ω| die Anzahl der Elemente von Ω). Die M¨achtigkeiten |A| und |Ω| in der Laplaceschen Wahrscheinlichkeitsdefinition k¨onnen mit Hilfe der in Kapitel 1 eingef¨ uhrten kombinatorischen Regeln bestimmt werden. Anmerkung. Die Laplacesche Wahrscheinlichkeitsdefinition verwendet den Begriff Wahrscheinlichkeit“ in den Annahmen, genauer in der Forderung ” der Gleichwahrscheinlichkeit der Ergebnisse“. Damit ist diese Definition aus ” logischen Gr¨ unden nicht haltbar, da sie den Begriff Wahrscheinlichkeit“ mit ” sich selbst erkl¨art.

2.4 Axiome der Wahrscheinlichkeitsrechnung

19

2.4 Axiome der Wahrscheinlichkeitsrechnung Die relative H¨aufigkeit, die Laplacesche Wahrscheinlichkeit und andere Ans¨atze (vgl. z. B. R¨ uger, 1996) zur Definition des Begriffs Wahrscheinlichkeit“ ” sind zwar anschaulich und nachvollziehbar, eine formale Grundlage bietet jedoch erst das Axiomensystem der Wahrscheinlichkeitsrechnung von A.N. Kolmogorov (1933): Axiom 1: Jedem zuf¨ alligen Ereignis A eines zuf¨alligen Versuchs ist eine Wahrscheinlichkeit P (A) zugeordnet, die Werte zwischen 0 und 1 annehmen kann: 0 ≤ P (A) ≤ 1. Axiom 2: Das sichere Ereignis hat die Wahrscheinlichkeit 1: P (Ω) = 1. Axiom 3: Sind A1 und A2 disjunkte Ereignisse, so ist P (A1 ∪ A2 ) = P (A1 ) + P (A2 ). Anmerkung. Axiom 3 gilt f¨ ur drei oder mehr disjunkte Ereignisse analog und wird als Additionssatz f¨ ur disjunkte Ereignisse bezeichnet. Beispiele. • Beim einmaligen M¨ unzwurf sind die Ereignisse A1 : Wappen“ und A2 : ” Zahl“ m¨oglich. A1 und A2 sind disjunkt. Das zuf¨allige Ereignis A1 ∪ A2 : ” Wappen oder Zahl“ hat dann die Wahrscheinlichkeit ” P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) = 1/2 + 1/2 = 1. • Beim einmaligen W¨ urfeln hat jede Zahl die gleiche Wahrscheinlichkeit P (1) = P (2) = · · · = P (6) = 1/6. Die Wahrscheinlichkeit, eine gerade Zahl zu erhalten, ist also P ( gerade Zahl“) = P (2) + P (4) + P (6) = 1/6 + 1/6 + 1/6 = 1/2. ” 2.4.1 Folgerungen aus den Axiomen Wir wissen bereits, dass A ∪ A¯ = Ω (sicheres Ereignis) gilt. Da A und A¯ disjunkt sind, gilt nach Axiom 3 die grundlegende Beziehung ¯ = P (A) + P (A) ¯ = 1. P (A ∪ A) Damit erhalten wir

20

2. Elemente der Wahrscheinlichkeitsrechnung

Folgerung 1: Die Wahrscheinlichkeit f¨ ur das zu A komplement¨are Ereignis A¯ ist ¯ = 1 − P (A). P (A) (2.4)

Diese Regel wird h¨ aufig dann benutzt, wenn die Wahrscheinlichkeit von A ¯ bekannt ist oder leichter zu berechnen ist als die von A.

Beispiel. Sei A = {ω6 }. Die Wahrscheinlichkeit, mit einem W¨ urfel die Augenzahl 6 zu werfen, betr¨ agt P (ω6 ) = 1/6. Dann ist die Wahrscheinlichkeit ¯ keine 6“ f¨ ur das Ereignis A: ” P ( keine 6“) = 1 − P (ω6 ) = 5/6. ” ¯ = ∅. Wenn A speziell das sichere Ereignis Ω ist, so gilt P (Ω) = 1 und Ω Setzen wir dies in (2.4) ein, so erhalten wir sofort Folgerung 2: Die Wahrscheinlichkeit des unm¨oglichen Ereignisses ∅ ist gleich Null: ¯ = 1 − P (Ω) = 0 . P (∅) = P (Ω)

Wir wollen nun die Wahrscheinlichkeit P (A1 ∪ A2 ) f¨ ur beliebige, nicht notwendigerweise disjunkte Ereignisse A1 und A2 bestimmen. Wir verwenden dazu folgende Zerlegungen in disjunkte Ereignisse: A1 = (A1 ∩ A2 ) ∪ (A1 ∩ A¯2 ) A2 = (A1 ∩ A2 ) ∪ (A¯1 ∩ A2 ) A1 ∪ A2 = (A1 ∩ A¯2 ) ∪ (A1 ∩ A2 ) ∪ (A¯1 ∩ A2 )

Da die Ereignisse (A1 ∩ A¯2 ), (A1 ∩ A2 ), (A¯1 ∩ A2 ) disjunkt sind, kann Axiom 3 angewandt werden: P (A1 ∪ A2 ) = P (A1 ∩ A¯2 ) + P (A1 ∩ A2 ) + P (A¯1 ∩ A2 ). Dies ist gleich P (A1 ) + P (A2 ) − P (A1 ∩ A2 ). Die doppelt gez¨ahlte Wahrscheinlichkeit P (A1 ∩ A2 ) ist also einmal abzuziehen. Dies ergibt Folgerung 3: Die Wahrscheinlichkeit, dass von zwei Ereignissen A1 und A2 , die sich nicht notwendig gegenseitig ausschließen, mindestens eines eintritt, ist (2.5) P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 ).

Gleichung (2.5) wird als Additionssatz f¨ ur beliebige Ereignisse bezeichnet. Beispiel. In einem Skatblatt sind vier Farben mit je acht Karten enthalten. Die Wahrscheinlichkeit, zuf¨ allig gezogen zu werden, betr¨agt f¨ ur jede Karte 1/32. Es werde eine Karte zuf¨ allig gezogen. Damit gilt f¨ ur diese Karte z. B. P (Karo oder K¨ onig) = P (Karo) + P (K¨onig) − P (Karo-K¨onig) 4 1 11 8 + − = . = 32 32 32 32

2.5 Bedingte Wahrscheinlichkeit

21

Falls ein Ereignis A vollst¨ andig in einem Ereignis B enthalten ist (B hat also dieselben Elementarereignisse wie A plus m¨oglicherweise weitere), so ist die Wahrscheinlichkeit f¨ ur B mindestens so groß wie die von A: Folgerung 4: F¨ ur A ⊆ B gilt stets P (A) ≤ P (B). Der Beweis benutzt die Darstellung B = A ∪ (A¯ ∩ B) mit den disjunkten Mengen A und A¯ ∩ B. Damit gilt nach Axiom 3 und Axiom 1 P (B) = P (A) + P (A¯ ∩ B) ≥ P (A) . Folgerung 5: Sei A1 , . . . , An eine vollst¨ andige Zerlegung des Ereignisraums Ω in paarweise disjunkte Ereignisse Ai , i = 1, . . . , n (vgl. Definition 2.2.2). F¨ ur ein beliebiges Ereignis B gilt dann B = (B ∩ A1 ) ∪ (B ∩ A2 ) ∪ · · · ∪ (B ∩ An ), wobei die Ereignisse B ∩ Ai wiederum paarweise disjunkt sind. Die Anwendung von Axiom 3 ergibt P (B) =

n  i=1

P (B ∩ Ai ).

(2.6)

2.4.2 Rechenregeln f¨ ur Wahrscheinlichkeiten ¨ Wir fassen die Axiome und die Folgerungen 1 bis 5 in der folgenden Ubersicht zusammen: (1)

0 ≤ P (A) ≤ 1

(2)

P (Ω) = 1

(3)

P (∅) = 0

(4)

¯ = 1 − P (A) P (A)

(5)

P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) − P (A1 ∩ A2 )

(6)

P (A1 ∪ A2 ) = P (A1 ) + P (A2 ), falls A1 und A2 disjunkt sind  P (B) = ni=1 P (B ∩ Ai ), falls Ai eine vollst¨andige Zerlegung bilden.

(7)

2.5 Bedingte Wahrscheinlichkeit 2.5.1 Motivation und Definition Wir betrachten nun die Situation, dass von zwei Ereignissen A und B z.B. das Ereignis A eine Vorinformation dahingehend liefert, dass sein Eintreten

22

2. Elemente der Wahrscheinlichkeitsrechnung

den m¨oglichen Ereignisraum von B reduziert. Formal gesehen betrachten wir einen zuf¨alligen Versuch mit n Elementarereignissen, d.h., es gelte Ω = {ω1 , . . . , ωn }, und zwei zuf¨ allige Ereignisse A (mit nA Elementarereignissen) und B (mit nB Elementarereignissen). Ferner enthalte das Ereignis A ∩ B nAB Elementarereignisse. Nach den bisherigen Regeln (vgl. z.B. (2.3)) gilt dann nB nAB nA , P (B) = , P (A ∩ B) = . P (A) = n n n Nach Realisierung des Versuchs sei bekannt, dass A eingetreten ist. Damit stellt sich die Frage, wie groß dann unter dieser Zusatzinformation die Wahrscheinlichkeit daf¨ ur ist, dass auch B eingetreten ist. Hierzu gehen wir von Ω zur reduzierten Menge A mit nA Elementen u ¨ ber. Nun gibt es unter den nA m¨oglichen Ereignissen nur noch m f¨ ur B g¨ unstige Ereignisse. Bei diesen m Ereignissen ist immer auch A eingetreten, so dass m = nAB gilt. Die Laplace-Wahrscheinlichkeit ist dann nAB /n P (A ∩ B) m = = . nA nA /n P (A)

(2.7)

Dies f¨ uhrt zur folgenden Definition Definition 2.5.1. Sei P (A) > 0, so ist P (B|A) =

P (A ∩ B) P (A)

(2.8)

die bedingte Wahrscheinlichkeit von B unter der Bedingung, dass A eingetreten ist. Vertauschen wir die Rollen von A und B und sei P (B) > 0, so ist die bedingte Wahrscheinlichkeit von A unter der Bedingung, dass B eingetreten ist, gleich P (A ∩ B) . (2.9) P (A|B) = P (B) L¨osen wir (2.8) und (2.9) jeweils nach P (A ∩ B) auf, so folgt Theorem 2.5.1 (Multiplikationssatz). F¨ ur zwei beliebige Ereignisse A und B gilt P (A ∩ B) = P (B|A)P (A) = P (A|B)P (B) . (2.10) Den Multiplikationssatz kann man auf mehr als zwei Ereignisse verallgemeinern: P (A1 ∩ A2 ∩ . . . ∩ Am ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) · · · P (Am |A1 ∩ · · · ∩ Am−1 ) . Durch Verwendung von (2.10) in (2.6) erh¨alt man

2.5 Bedingte Wahrscheinlichkeit

23

Theorem 2.5.2 (Satz von der totalen Wahrscheinlichkeit). Bilden die Ereignisse A1 , . . . , Am eine vollst¨andige Zerlegung von Ω = ∪m i=1 Ai in paarweise disjunkte Ereignisse, so gilt f¨ ur ein beliebiges Ereignis B P (B) =

m 

P (B|Ai )P (Ai ) .

(2.11)

i=1

2.5.2 Der Satz von Bayes Der Satz von Bayes untersucht den Zusammenhang zwischen P (A|B) und P (B|A). F¨ ur beliebige Ereignisse A und B mit P (A) > 0 und P (B) > 0 gilt mit (2.8) und (2.9) P (A ∩ B) P (A) P (A ∩ B) = P (B) P (A) P (B) P (B|A)P (A) . = P (B)

P (A|B) =

(2.12)

Bilden die Ai eine vollst¨ andige Zerlegung von Ω und ist B irgendein Ereignis, so gilt mit (2.11) und (2.12) P (B|Aj )P (Aj ) . P (Aj |B) =  i P (B|Ai )P (Ai )

(2.13)

Die P (Ai ) heißen a-priori Wahrscheinlichkeiten , die P (B|Ai ) Modellwahrscheinlichkeiten und die P (Aj |B) a-posteriori Wahrscheinlichkeiten. Beispiel 2.5.1. F¨ ur ein Fotogesch¨ aft arbeiten zwei Labors. Eine Fotoarbeit wird zuf¨allig ausgew¨ ahlt und auf ihre Qualit¨ at hin untersucht. Wir betrachten folgende zuf¨allige Ereignisse: Ai (i = 1, 2) sei das zuf¨allige Ereignis Fo” toarbeit stammt aus Labor i“, B sei das zuf¨allige Ereignis Fotoarbeit ist ” einwandfrei“. Dann gilt Ω = A1 ∪ A2 mit A1 ∩ A2 = ∅. Wir setzen voraus P (A1 ) = 0.7 und P (A2 ) = 0.3 sowie P (B|A1 ) = 0.8, P (B|A2 ) = 0.9. Mit diesen Werten erhalten wir P (B) = P (B|A1 )P (A1 ) + P (B|A2 )P (A2 ) = 0.8 · 0.7 + 0.9 · 0.3 = 0.83 , P (B ∩ A1 ) = P (B|A1 )P (A1 ) = 0.8 · 0.7 = 0.56 , P (B ∩ A2 ) = P (B|A2 )P (A2 ) = 0.9 · 0.3 = 0.27 .

[nach (2.10)]

[nach (2.11)]

24

2. Elemente der Wahrscheinlichkeitsrechnung

Sei eine zuf¨allig ausgew¨ ahlte Fotoarbeit einwandfrei. Wie groß ist die Wahrscheinlichkeit, dass diese Arbeit aus Labor 1 (bzw. aus Labor 2) stammt? 0.56 P (A1 ∩ B) = = 0.6747 P (B) 0.83 0.27 P (A2 ∩ B) P (A2 |B) = = = 0.3253 . P (B) 0.83 P (A1 |B) =

[nach (2.9)] ,

Sei eine zuf¨allig ausgew¨ ahlte Fotoarbeit fehlerhaft. Die Wahrscheinlich¯ tritt ein) aus Labor 1 (bzw. Labor keit, dass eine fehlerhafte Arbeit (d.h. B ¯ 1 ) = 0.2 und P (B|A ¯ 2 ) = 0.1 f¨ 2) stammt, ist mit P (B|A ur Labor 1 ¯ 1 )P (A1 ) P (B|A ¯ ¯ 2 )P (A2 ) P (B|A1 )P (A1 ) + P (B|A 0.2 · 0.7 = = 0.8235 , 0.2 · 0.7 + 0.1 · 0.3

¯ = P (A1 |B)

[nach (2.12)]

und f¨ ur Labor 2 ¯ = P (A2 |B)

0.1 · 0.3 = 0.1765 . 0.2 · 0.7 + 0.1 · 0.3

¯ + P (A2 |B) ¯ = 1. Da A1 ∪ A2 = Ω ist, gilt P (A1 |B)

Beispiel 2.5.2. In einer Klinik wurden n = 200 Patienten auf eine bestimmte Krankheit untersucht. Das Ergebnis jeder Untersuchung wird durch die ¯ Patient ist nicht krank“ zuf¨alligen Ereignisse B Patient ist krank“ bzw. B ” ” ausgedr¨ uckt. Gleichzeitig wurden die Patienten befragt, ob sie rauchen oder nicht. Dies ist durch die Ereignisse A1 Patient raucht“ und A2 Patient ” ” raucht nicht“ festgehalten. Die absoluten H¨ aufigkeiten f¨ ur die eintretenden Ereignisse findet man in folgender Tabelle: ¯ B B A1 40 60 100 A2 20 80 100 60 140 200 Mit Hilfe der H¨aufigkeitsinterpretation der Wahrscheinlichkeit berechnen wir P (A1 ) = P (B) = ¯ = P (B) P (B ∩ A1 ) = P (B ∩ A2 ) =

100 = P (A2 ) 200 60 200 140 = 1 − P (B) 200 40 200 20 200

2.5 Bedingte Wahrscheinlichkeit

25

40/200 40 P (B ∩ A1 ) = = P (A1 ) 100/200 100 20/200 20 P (B ∩ A2 ) = = P (B|A2 ) = P (A2 ) 100/200 100

P (B|A1 ) =

Mit diesen Ergebnissen l¨ asst sich P (B) auch mit Hilfe des Satzes von der totalen Wahrscheinlichkeit (2.11) berechnen: P (B) = P (B|A1 )P (A1 ) + P (B|A2 )P (A2 ) = 0.40 · 0.50 + 0.20 · 0.50 = 0.30 . Beispiel 2.5.3. In zwei Werken werden Gl¨ uhbirnen hergestellt. 70% der Produktion werden in Werk 1 gefertigt und 30% in Werk 2. Bezeichnet Ai (i = 1, 2) das zuf¨ allige Ereignis Gl¨ uhbirne stammt aus Werk i“, so gilt ” P (A1 ) = 0.7 und P (A2 ) = 0.3. Weiter bezeichnen wir mit B das Ereignis Die hergestellte Gl¨ uhbirne ” erf¨ ullt eine vorgegebene Norm f¨ ur die Brenndauer“. Als Zusatzinformation u ute der Produktion in den Werken 1 und 2 steht uns zur Verf¨ ugung ¨ber die G¨ P (B|A1 ) = 0.83 und P (B|A2 ) = 0.65 (Werk 1 produziert mit einer Wahrscheinlichkeit von 0.83 normgerechte Gl¨ uhbirnen, Werk 2 mit einer Wahrscheinlichkeit von 0.65). Damit gilt P (B) = P (B|A1 )P (A1 ) + P (B|A2 )P (A2 ) = 0.83 · 0.7 + 0.65 · 0.3 = 0.776, d.h., die Wahrscheinlichkeit, bei zuf¨ alliger Auswahl aus der Gesamtproduktion eine normgerechte Gl¨ uhbirne zu erhalten, ist 0.776. Beispiel 2.5.4. In einem B¨ uro arbeiten vier Sekret¨arinnen, zu deren Aufgabe auch die Ablage von Akten geh¨ ort. Sei Ai (i = 1, . . . , 4) das zuf¨allige Ereignis Akte von Sekret¨ arin i abgelegt“. Damit ist Ω = A1 ∪· · ·∪A4 mit Ai ∩Aj = ∅ ” f¨ ur i = j. Es gelte Sekret¨ arin i t¨atigt % der Ablagen Fehlerwahrscheinlichkeit

1 40 0.01

2 10 0.04

3 30 0.06

4 20 0.10

Gesucht sei nun die Wahrscheinlichkeit, dass eine falsch abgelegte Akte von der dritten Sekret¨ arin bearbeitet wurde. Definiere B das zuf¨allige Ereignis Akte wurde falsch abgelegt“, so gilt mit den Angaben aus obiger Tabelle: ” P (A1 ) = 0.40, P (A2 ) = 0.10,

P (B|A1 ) = 0.01, P (B|A2 ) = 0.04,

P (A3 ) = 0.30, P (A4 ) = 0.20,

P (B|A3 ) = 0.06, P (B|A4 ) = 0.10 .

26

2. Elemente der Wahrscheinlichkeitsrechnung

A1

0.4 A2 0.1

0.01 0.99

0.04 0.96

B

0.004

¯ B B

0.004

¯ B

Ω 0.3 A3 0.2

A4

0.06 0.94

0.10 0.90

B

0.018

¯ B B

0.020

¯ B

Abb. 2.3. Baumdiagramm f¨ ur Beispiel 2.5.4

Diese Wahrscheinlichkeiten lassen sich in einem Baumdiagramm (vgl. Abbildung 2.3) veranschaulichen. Damit erhalten wir nach dem Satz von der totalen Wahrscheinlichkeit zun¨achst P (B) =

4 

P (B|Ai )P (Ai )

i=1

= 0.01 · 0.40 + 0.04 · 0.10 + 0.06 · 0.30 + 0.10 · 0.20

= 0.046 .

Die Wahrscheinlichkeit f¨ ur das zuf¨ allige Ereignis B Akte falsch abgelegt“ ” betr¨agt damit 0.046. F¨ ur die gesuchte Wahrscheinlichkeit P (A3 |B) gilt nach dem Satz von Bayes (vgl. (2.13)) P (B|A3 )P (A3 ) P (B) 0.06 · 0.30 = 0.046 = 0.391 .

P (A3 |B) =

2.6 Unabh¨ angigkeit

27

Die Wahrscheinlichkeit, dass eine falsch abgelegte Akte von Sekret¨arin 3 abgelegt wurde, ist 0.391. F¨ ur die Sekret¨ arinnen 1, 2 und 4 gilt analog 0.004 = 0.087 0.046 0.004 P (A2 |B) = = 0.087 0.046 0.020 = 0.435. P (A4 |B) = 0.046

P (A1 |B) =

2.6 Unabh¨ angigkeit Sind zwei zuf¨allige Ereignisse A und B unabh¨angig in dem Sinne, dass das Eintreten des Ereignisses B keinen Einfluss auf das Eintreten von A hat, so erwartet man, dass P (A|B) = P (A)

¯ = P (A) und P (A|B)

gilt. Mit (2.9) erhalten wir in dieser Situation P (A ∩ B) P (B) ¯ P (A ∩ B) ¯ . = = P (A|B) ¯ P (B)

P (A|B) =

(2.14)

Durch Umformen erhalten wir die zu (2.14) ¨ aquivalente Beziehung ¯ = P (A ∩ B)P ¯ (B) P (A ∩ B)P (B) ¯ (B) P (A ∩ B)(1 − P (B)) = P (A ∩ B)P ¯ + P (A ∩ B))P (B) P (A ∩ B) = (P (A ∩ B) P (A ∩ B) = P (A)P (B) .

(2.15)

Dies f¨ uhrt zur Definition der (stochastischen) Unabh¨angigkeit. Definition 2.6.1. Zwei zuf¨allige Ereignisse A und B heißen genau dann voneinander (stochastisch) unabh¨ angig, wenn P (A ∩ B) = P (A)P (B)

(2.16)

gilt, d.h., wenn die Wahrscheinlichkeit f¨ ur das gleichzeitige Eintreten von A und B gleich dem Produkt der beiden Einzelwahrscheinlichkeiten ist. Der Begriff der Unabh¨ angigkeit kann auf den Fall von mehr als zwei Ereignissen verallgemeinert werden.

28

2. Elemente der Wahrscheinlichkeitsrechnung

Definition 2.6.2. n Ereignisse A1 , . . . , An heißen (stochastisch) unabh¨angig, falls f¨ ur jede Auswahl Ai1 , . . . , Aim (m ≤ n) P (Ai1 ∩ · · · ∩ Aim ) = P (Ai1 ) · . . . · P (Aim )

(2.17)

gilt. Ein schw¨acherer Begriff ist der Begriff der paarweisen Unabh¨angigkeit. Wenn die Bedingung (2.17) nur f¨ ur jeweils zwei beliebige Ereignisse (m = 2) erf¨ ullt werden muß, so heißen die Ereignisse paarweise unabh¨ angig. Der Unterschied zwischen paarweiser Unabh¨ angigkeit und stochastischer Unabh¨angigkeit wird an folgendem Beispiel erl¨ autert. Beispiel 2.6.1. (aus Fisz, 1970) In einer Urne befinden sich vier Kugeln mit den aufgedruckten Zahlenkombinationen 110, 101, 011, 000. Es werde eine Kugel aus der Urne gezogen. Wir definieren dabei die folgenden Ereignisse: A1 : Die gezogene Kugel hat an der ersten Stelle eine Eins. A2 : Die gezogene Kugel hat an der zweiten Stelle eine Eins. A3 : Die gezogene Kugel hat an der dritten Stelle eine Eins. Da jedes dieser Ereignisse zwei g¨ unstige F¨ alle hat, gilt P (A1 ) = P (A2 ) = P (A3 ) =

1 2 = . 4 2

Das gemeinsame Auftreten aller drei Ereignisse ist jedoch unm¨oglich, da es keine Kugel mit der Kombination 111 gibt. Damit sind die drei Ereignisse nicht stochastisch unabh¨ angig, da gilt P (A1 )P (A2 )P (A3 ) =

1 = 0 = P (A1 ∩ A2 ∩ A3 ) . 8

Es gilt jedoch 1 = P (A1 )P (A2 ) , 4 1 P (A1 ∩ A3 ) = = P (A1 )P (A3 ) , 4 1 P (A2 ∩ A3 ) = = P (A2 )P (A3 ) , 4 P (A1 ∩ A2 ) =

so dass die drei Ereignisse paarweise unabh¨ angig sind. Beispiel 2.6.2 (Fortsetzung von Beispiel 2.5.2). Wir pr¨ ufen, ob die Ereignisse A1 : Patient raucht“ und B: Patient ist krank“ unabh¨angig sind. Wie wir ” ” bereits berechnet haben, ist P (A1 ∩ B) = 0.2 = 0.5 · 0.3 = P (A1 )P (B) . Damit sind die beiden Ereignisse nicht unabh¨angig.

2.6 Unabh¨ angigkeit

29

Beispiel 2.6.3. Drei Sch¨ utzen mit gleicher Treffsicherheit P ( Treffer“) = 0.4 ” schießen unabh¨angig voneinander je einmal auf ein Ziel. Damit ist die Wahrscheinlichkeit f¨ ur 3 Treffer gleich (vgl. (2.17)) P ( Treffer“ ∧ Treffer“ ∧ Treffer“) = 0.43 = 0.064 . ” ” ” Die Wahrscheinlichkeit, dass nur der erste Sch¨ utze trifft, ist wegen der Wahrscheinlichkeit P ( kein Treffer“) = 0.6 und mit (2.17) gleich ” P ( Treffer“ ∧ kein Treffer“ ∧ kein Treffer“) = 0.4 · 0.62 = 0.144 . ” ” ” Man beachte den Unterschied zwischen der Wahrscheinlichkeit, dass ein bestimmter Sch¨ utze trifft P ( Treffer genau eines bestimmten Sch¨ utzens“) ” also z.B. P ( Treffer“ ∧ kein Treffer“ ∧ kein Treffer“) = 0.144 , ” ” ” der Wahrscheinlichkeit, dass ein beliebiger Sch¨ utze trifft P ( Treffer genau eines (beliebigen) Sch¨ utzen“) ” = P ( Treffer“ ∧ kein Treffer“ ∧ kein Treffer“) ” ” ” + P ( kein Treffer“ ∧ Treffer“ ∧ kein Treffer“) ” ” ” + P ( kein Treffer“ ∧ kein Treffer“ ∧ Treffer“) ” ” ” = 3 · 0.144 = 0.432 und der Wahrscheinlichkeit, dass mindestens ein Sch¨ utze trifft (vgl. (2.4)) P ( Treffer mindestens eines Sch¨ utzen“) = 1 − P ( kein Treffer“) ” ” = 1 − 0.63 = 0.784 . Anmerkung. Die Wahrscheinlichkeit P ( Treffer mindestens eines Sch¨ utzen“) ” ist u ¨ber das Gegenereignis P ( kein Treffer“) wesentlich einfacher zu berech” nen.

30

2. Elemente der Wahrscheinlichkeitsrechnung

2.7 Aufgaben und Kontrollfragen Aufgabe 2.1: Eine M¨ unze wird zweimal geworfen. Geben Sie die Elementarereignisse, das sichere Ereignis, ein unm¨ ogliches Ereignis und das Komplement¨arereignis zum Ereignis A : Wappen im ersten Wurf“ an. ” Aufgabe 2.2: Sei Ω die Menge der ganzen Zahlen 0, 1, . . . , 25. Folgende Teilmengen von Ω seien gegeben: A = {1, 4, 8, 11} ,

B = {0, 1, 2, 5, 8, 9} ,

C = {5, 6, 7} .

Bestimmen Sie: a) b) c) d) e)

A ∩ B, A ∩ C, B ∩ C A ∪ B, A ∪ C A\B, B\A, A\C (A ∪ B) ∩ C (A ∩ B)\C .

Aufgabe 2.3: Ein W¨ urfel wird einmal geworfen. Wir definieren die zuf¨alligen Ereignisse A: B: C:

ungerade Zahl“ ” Zahl > 3“ ” Zahl 5 oder 6“ . ” Geben Sie an, bei welchen Wurfergebnissen a) B und C eintreten, aber nicht A, b) keines der genannten Ereignisse A, B, C eintritt, c) genau eines der drei Ereignisse A, B, C eintritt. Aufgabe 2.4: F¨ ur vier Mengen A, B, C, D, die eine vollst¨andige Zerlegung von Ω bilden, seien folgende Wahrscheinlichkeiten gegeben: P (A) =

7 1 1 1 1 , P (B) = , P (C) = , P (D) = , P (B ∪ C) = . 5 12 4 3 2

Warum w¨ urden diese Zahlenwerte gegen die Kolmogorovschen Axiome verstoßen? Aufgabe 2.5: Aus den Zahlen 1 bis 49 werden beim Zahlenlotto sechs verschiedene ausgew¨ ahlt. Wie groß ist die Wahrscheinlichkeit, dass ein Spieler a) b) c) d)

sechs Richtige genau f¨ unf Richtige keine Richtige h¨ochstens zwei Richtige hat?

2.7 Aufgaben und Kontrollfragen

31

Aufgabe 2.6: In der gyn¨ akologischen Abteilung eines kleinen Krankenhauses wurden in einem Monat zw¨ olf Kinder geboren. Wie groß ist die Wahrscheinlichkeit daf¨ ur, dass mindestens zwei Kinder am gleichen Tag geboren wurden? (Annahme: Die Geburtsh¨ aufigkeit ist u ¨ ber den Monat gleichm¨aßig verteilt und der Monat hat 31 Tage.) Aufgabe 2.7: An einer Party nehmen sieben Ehepaare teil. Um die Stimmung etwas aufzulockern, werden f¨ ur ein Ratespiel drei M¨anner und drei Frauen zuf¨allig ausgew¨ahlt (z.B. mit Los). Wie groß ist die Wahrscheinlichkeit, dass sich unter den so bestimmten Personen mindestens ein Ehepaar befindet? Aufgabe 2.8: In einer Urne befinden sich acht gelbe und vier blaue Kugeln. a) Es werden gleichzeitig (zuf¨ allig) drei Kugeln gezogen. Wie groß ist die Wahrscheinlichkeit, dass es sich um zwei gelbe und eine blaue Kugel handelt? b) Eine Kugel wird zuf¨ allig gezogen und durch eine Kugel der anderen Farbe ersetzt. Nun mischt man den Inhalt der Urne erneut und zieht wieder zuf¨allig eine Kugel. Wie groß ist die Wahrscheinlichkeit, dass dies eine blaue Kugel ist? Aufgabe 2.9: Aus drei Urnen U1 , U2 , U3 wird zuf¨allig eine Urne ausgew¨ahlt, wobei jede Urne dieselbe Wahrscheinlichkeit besitzt, in die Auswahl zu gelangen. Die drei Urnen enthalten weiße und schwarze Kugeln, wobei sich in Urne U1: zwei weiße und f¨ unf schwarze U2: vier weiße und vier schwarze U3: sieben weiße und vier schwarze Kugeln befinden. Aus der zuf¨ allig gew¨ ahlten Urne wird nun eine Kugel gezogen. a) Wie groß ist die Wahrscheinlichkeit, dass die gezogene Kugel weiß ist? b) Die gezogene Kugel ist schwarz. Wie groß ist die Wahrscheinlichkeit, dass sie aus Urne U2 stammt? Aufgabe 2.10: Ein B¨ acker ben¨ otigt f¨ ur die Herstellung seines Spezialbrotes vier verschiedene Mehlsorten, die er von vier Herstellern geliefert bekommt. Er kann sein Brot nur dann verkaufen, wenn alle vier Mehlsorten einwandfrei sind. F¨ ur die vier Mehlsorten gilt, dass sie mit einer Wahrscheinlichkeit von 0.1, 0.05, 0.2 bzw. 0.15 M¨ angel aufweisen. Wie groß ist die Wahrscheinlichkeit daf¨ ur, dass der B¨ acker sein Brot nicht verkaufen kann? Aufgabe 2.11: Ein W¨ urfel wird zweimal geworfen. Wir definieren die folgenden Ereignisse: A: Die Augenzahl im ersten Wurf ist gerade.“ ” B: Die Summe der Augenzahlen beider W¨ urfe ist ungerade.“ ” Sind die Ereignisse A und B stochastisch unabh¨angig?

32

2. Elemente der Wahrscheinlichkeitsrechnung

Aufgabe 2.12: Eine Großk¨ uche erh¨ alt von vier verschiedenen H¨andlern Gem¨ use. Dabei entfallen auf H¨ andler A und B jeweils 30%, auf H¨andler C 25% und auf H¨andler D 15% der gesamten gelieferten Gem¨ usemenge. Es ist bekannt, dass bei H¨andler C 7% der Lieferung verdorben sind. Bei den anderen drei H¨andlern bel¨auft sich der verdorbene Anteil des gelieferten Gem¨ uses jeweils auf nur 2%. a) Ein Koch w¨ahlt zuf¨ allig eine Gem¨ usekiste aus. Wie groß ist die Wahrscheinlichkeit, dass deren Inhalt verdorben ist? ¨ b) Beim Offnen einer Kiste wird festgestellt, dass deren Inhalt verdorben ist. Wie groß ist die Wahrscheinlichkeit, dass diese Kiste von H¨andler A geliefert wurde? c) Wie groß ist die Wahrscheinlichkeit, dass eine Kiste verdorbenes Gem¨ use enth¨alt, wenn bekannt ist, dass die Kiste von H¨andler B, C oder D geliefert wurde? Aufgabe 2.13: Ein Zufallsexperiment f¨ uhre zu den zwei m¨oglichen Ereignissen A und B. A und B seien stochastisch unabh¨angig. Es gilt P (B) = 0.5 und P (A ∩ B) = 0.2. Wie groß ist P (A ∪ B)? Aufgabe 2.14: In der Faschingszeit werden Autofahrer des Nachts h¨aufig zu Alkoholkontrollen gebeten. Erfahrungsgem¨ aß sind unter den kontrollierten Autofahrern 10% Alkohols¨ under“ (d.h. Autofahrer, deren Alkoholgehalt im ” Blut 0.5 Promille oder mehr betr¨ agt). Ein Schnelltest soll kl¨aren, ob der Alkoholgehalt im Blut des kontrollierten Autofahrers zu hoch ist. Dieser Test irrt sich bei Alkohols¨ undern mit einer Wahrscheinlichkeit von 30% (d.h. er zeigt negativ, obwohl der Alkoholgehalt im Blut zu hoch ist). Der Test irrt sich bei Autofahrern, die nicht zu den Alkohols¨ undern z¨ahlen, mit einer Wahrscheinlichkeit von 20% (d.h er zeigt positiv, obwohl der Alkoholgehalt im Blut nicht zu hoch ist). Ein Autofahrer wird kontrolliert. a) Wie groß ist die Wahrscheinlichkeit, dass der Alkoholtest positiv zeigt? b) Wie groß ist die Wahrscheinlichkeit, dass es sich um einen Alkohols¨ under handelt, obwohl der Alkoholtest negativ zeigt? Aufgabe 2.15: Ein Osterhase bemalt Ostereier, an einem Tag zwei Eier rot und jeweils ein Ei blau, gelb, gr¨ un und lila. Am Abend legt er in Fritzchens Osternest vier bemalte Eier. a) Der Osterhase legt lauter verschiedenfarbige Eier in das Nest. Wieviele M¨oglichkeiten f¨ ur die Zusammensetzung des Osternestes gibt es? b) Der Osterhase w¨ ahlt die vier Eier f¨ ur das Nest zuf¨allig aus. i) Wie groß ist die Wahrscheinlichkeit, dass das Nest zwei rote Eier, ein blaues und ein lila Ei enth¨ alt? ii) Wie groß ist die Wahrscheinlichkeit, dass das Nest vier verschiedenfarbige Eier enth¨ alt?

2.7 Aufgaben und Kontrollfragen

33

c) Fritzchen findet in seinem Osternest zwei rote Eier, ein blaues und ein gelbes Ei. Er nimmt sich vor, von seinen Ostereiern immer nur h¨ochstens eines pro Tag zu verspeisen, und u ¨berlegt sich, in welcher Farbreihenfolge er dies tun soll. Wieviele M¨ oglichkeiten hat er daf¨ ur? Aufgabe 2.16: Zwei Fußballspieler schießen je einmal auf eine Torwand. Von Spieler A ist bekannt, dass er mit Wahrscheinlichkeit 0.4 ein Tor schießt, w¨ahrend der Spieler B mit 0.5 trifft. Die Ergebnisse beider Spieler seien unabh¨angig voneinander. a) Wie groß ist die Wahrscheinlichkeit, dass mindestens einer von beiden trifft? b) Wie groß ist die Wahrscheinlichkeit, dass genau einer von beiden trifft? c) Wie groß ist die Wahrscheinlichkeit, dass nur B trifft?

3. Zuf¨ allige Variablen

3.1 Einleitung Die Deskriptive Statistik beschreibt ein fest vorgegebenes Datenmaterial. Grundlage sind Merkmale bzw. Variablen, die an Untersuchungseinheiten erhoben werden. Diese Merkmale k¨ onnen qualitativ oder quantitativ sein. Die quantitativen Variablen k¨ onnen weiter unterschieden werden in diskrete und stetige Variablen, wobei die Einteilung durchaus fließend sein kann (vgl. z. B. Toutenburg und Heumann, 2006). In der Induktiven Statistik geht man im Gegensatz zur Deskriptiven Statistik von einem Zufallsexperiment aus (vgl. Kapitel 2). Dabei erweist es sich als zweckm¨aßig, den m¨ oglichen Ergebnissen ωi eines Zufallsexperiments reelle Zahlen zuzuordnen. Diese Zuordnung kann als Abbildung X :Ω→R ωi → X(ωi ) = xi aufgefasst werden. Da das Ergebnis ωi des Zufallsexperiments innerhalb des Ereignisraumes ungewiss ist, u agt sich diese Ungewissheit auf das Er¨ bertr¨ gebnis xi dieser Abbildung. Deshalb nennt man diese Abbildung zuf¨allige Variable oder kurz Zufallsvariable. Der zuf¨alligen Variablen X wird bei der Durchf¨ uhrung eines zuf¨alligen Versuchs in Abh¨angigkeit von dessen Ergebnis ein bestimmter Wert zugeordnet – die Realisation xi von X. Zur Charakterisierung der Zufallsvariablen ben¨otigen wir die Kenntnis aller m¨ oglichen Werte, die X annehmen kann. Die Menge dieser Werte heißt Zustandsraum S. Mathematisch exakt (vgl. z. B. M¨ uller, 1983) versteht man unter einer zuf¨alligen Variablen X eine auf der Grundmenge Ω eines Wahrscheinlichkeitsraumes (Ω, A, P ) definierte Funktion, deren Werte in der Grundmenge S eines meßbaren Raumes (S,S) liegen. Dabei muß gelten (X muß eine meßbare Abbildung sein) X −1 (B) = {ω ∈ Ω : X(ω) ∈ B} ∈ A,

∀B ∈ S .

Durch die Zufallsvariable X wird dem meßbaren Raum (S,S) ein Wahrscheinlichkeitsmaß PX (Bildmaß) auf S mittels

36

3. Zuf¨ allige Variablen

PX (B) = P (X −1 (B)),

B∈S

zugeordnet. Wir definieren diese Begriffe nicht n¨aher (vgl. hierzu z. B. Bauer, 1991), sondern erl¨ autern den Hintergrund dieser mathematischen Definitionen wie folgt. Mit dem Konstrukt der Zufallsvariable k¨onnen Versuchsergebnisse, die zun¨achst in qualitativer Form vorliegen ( Wappen“ oder Zahl“ beim M¨ unz” ” wurf, Augenzahl“ beim einmaligen W¨ urfelwurf etc.), durch reelle Zahlen ” ¨ verschl¨ usselt werden. Dies ist dann das formale Aquivalent zu den tats¨achlich durchgef¨ uhrten Zufallsexperimenten. Der einmalige M¨ unzwurf mit den m¨oglichen Ergebnissen Wappen“ oder Zahl“ wird ersetzt durch eine Zufallsvaria” ” ble X, die ebenfalls nur zwei Werte (z. B. 0 oder 1) annehmen kann. Dieselbe Variable beschreibt auch alle anderen zuf¨ alligen Versuche mit zwei m¨oglichen Ergebnissen (Geschlecht eines Neugeborenen: m¨annlich/weiblich, Ergebnis ei¨ nes Studenten bei einer Klausur: bestanden/nicht bestanden). Der Ubergang vom zuf¨alligen Versuch zur Zufallsvariablen erm¨oglicht erst eine einheitliche mathematische Handhabung der statistischen Datenanalyse. Allgemein heißt eine Funktion X eine (reelle) Zufallsvariable, wenn ihre Werte reelle Zahlen sind und als Ergebnis eines zuf¨ alligen Versuchs interpretiert werden k¨onnen. ¨ Da die Werte der Zufallsvariablen das formale Aquivalent der zuf¨alligen Experimente darstellen, muß auch den Werten der Zufallsvariablen – den reellen Zahlen – eine Wahrscheinlichkeit zuzuordnen sein. Diese Wahrscheinlichkeit muß mit der Wahrscheinlichkeit der entsprechenden zuf¨alligen Ereignisse u ussen die Axiome der Wahrscheinlichkeitsrechnung ¨bereinstimmen, und es m¨ gelten. Beispiele. In Tabelle 3.1 sind Beispiele f¨ ur diskrete Zufallsvariablen angegeben. Es sind jeweils das zu Grunde liegende Zufallsexperiment und die dazugeh¨origen Ereignisse sowie die Realisationen der Zufallsvariablen X angegeben. Tabelle 3.1. Beispiele f¨ ur diskrete Zufallsvariablen zuf¨ alliger Versuch

zuf¨ alliges Ereignis

Realisation der Zufallsvariablen X x=1 x=0

Einmaliger M¨ unzwurf

A1 : Wappen liegt oben A2 : Zahl liegt oben

Einmaliges W¨ urfeln (mit einem W¨ urfel)

Ai : Zahl i gew¨ urfelt (i = 1, . . . , 6)

x=i

Lebensdauer von Gl¨ uhbirnen

Ai : Lebensdauer betr¨ agt i Monate (i = 1, 2, . . .)

x=i

Im Gegensatz zu diesen Beispielen w¨ are die nachfolgend definierte Zufallsgr¨ oße X f¨ ur das Zufallsexperiment W¨ urfelwurf zwar mathematisch m¨oglich,

3.2 Verteilungsfunktion einer Zufallsvariablen

37

aber wenig sinnvoll, da die Verwendung von Dezimalzahlen anstelle der ganzzahligen Werte nur Verwirrung ausl¨ ost: ⎧ 0.3 ω1 = 1 ⎪ ⎪ ⎪ ⎪ 0.6 ω2 = 2 ⎪ ⎪ ⎨ 0.9 ω3 = 3 xi = f¨ ur 1.2 ω4 = 4 ⎪ ⎪ ⎪ ⎪ 1.5 ω ⎪ 5 =5 ⎪ ⎩ 1.8 ω6 = 6

3.2 Verteilungsfunktion einer Zufallsvariablen Neben den m¨oglichen Werten der Zufallsvariablen X ben¨otigen wir zur statistischen Beschreibung von X die Angabe der Wahrscheinlichkeiten, mit denen die Werte x1 , x2 , . . . realisiert werden. Wir erinnern daran, dass bei einem zuf¨alligen Versuch jedem m¨ oglichen zuf¨ alligen Ereignis A eine Wahrscheinlichkeit P (A) zugeordnet wurde. Nimmt die Zufallsvariable X den Wert xi an, so ist die Wahrscheinlichkeit daf¨ ur gegeben durch PX (X = xi ) = P ({ωi : X(ωi ) = xi }) Wir unterscheiden im Folgenden die beiden Wahrscheinlichkeitsmaße P und PX nicht mehr und schreiben in beiden F¨ allen P . Beispiel. Beim einmaligen M¨ unzwurf mit den zuf¨alligen Elementarereignissen Wappen“ und Zahl“ war P (ω1 ) = P (ω2 ) = 1/2. Die zugeordne” ” te Zufallsvariable X sei definiert durch ihre Werte X(ω1 ) = x1 = 0 und ur i = 1, 2. X(ω2 ) = x2 = 1 mit den Wahrscheinlichkeiten P (X = xi ) = 1/2 f¨ Eine Zufallsvariable X wird also durch ihre Werte xi und die zugeh¨origen Wahrscheinlichkeiten P (X = xi ) eindeutig beschrieben. Alternativ k¨onnen wir anstelle der Wahrscheinlichkeiten P (X = xi ) auch die kumulierten Wahrscheinlichkeiten P (X ≤ xi ) verwenden. Diese Darstellung ist – wie wir im Abschnitt 3.4 sehen werden – f¨ ur stetige Zufallsvariablen die einzig sinnvolle Darstellung. Dies f¨ uhrt zu folgender Definition. Definition 3.2.1. Die Verteilungsfunktion einer Zufallsvariablen X ist definiert durch F (x) = P (X ≤ x) = P (−∞ < X ≤ x) .

(3.1)

Die Verteilungsfunktion F (x) beschreibt die Verteilung von X eindeutig und vollst¨andig. Sie ist schwach monoton wachsend, d.h., f¨ ur x1 ≤ x2 folgt

38

3. Zuf¨ allige Variablen

F (x1 ) ≤ F (x2 ). Die Werte einer Verteilungsfunktion F (x) liegen stets zwischen 0 und 1, was sich mit Hilfe der Rechenregeln f¨ ur Wahrscheinlichkeiten zeigen l¨asst. D.h., es gilt 0 ≤ F (x) ≤ 1 und lim F (x) = 0

x→−∞

und

lim F (x) = 1 .

x→∞

(3.2)

Dies erm¨oglicht einen alternativen Nachweis wann eine Funktion Verteilungsfunktion ist: Theorem 3.2.1. Eine reelle Funktion F (x) ist genau dann eine Verteilungsfunktion, wenn sie nicht fallend und mindestens rechtsstetig ist und wenn sie die Bedingungen (3.2) erf¨ ullt. Rechenregeln f¨ ur Verteilungsfunktionen Die Verteilungsfunktion F (x) = P (X ≤ x) erm¨oglicht es uns, die Wahrscheinlichkeit f¨ ur einzelne Werte oder Wertebereiche der Zufallsvariablen X zu berechnen. Wir geben im Folgenden die gebr¨auchlichen Rechenregeln an und erkl¨aren kurz typische Anwendungen. F¨ ur einen Wert a der Zufallsvariablen X gilt per Definition P (X ≤ a) = F (a). Hieraus ergibt sich f¨ ur die Wahrscheinlichkeit X < a P (X < a) = P (X ≤ a) − P (X = a) = F (a) − P (X = a)

(3.3)

F¨ ur stetige Zufallsvariablen ist P (X = a) gleich 0, wie in (3.11) gezeigt wird. Daher hat (3.3) nur eine praktische Bedeutung f¨ ur diskrete Zufallsvariablen, wie wir noch sehen werden. Wir haben bereits in Kapitel 2 bei den Folgerungen aus den Axiomen der Wahrscheinlichkeitsrechnung gesehen, dass es aus rechentechnischen Gr¨ unden manchmal einfacher ist, eine Wahrscheinlichkeit u ¨ ber die Wahrscheinlichkeit des Gegenereignisses zu bestimmen. Analog k¨onnen wir auch hier anstelle von P (X ≤ a) und P (X < a) die Wahrscheinlichkeiten P (X > a) und P (X ≥ a) der komplement¨aren Wertebereiche betrachten: P (X > a) = 1 − P (X ≤ a) = 1 − F (a) P (X ≥ a) = 1 − P (X < a) = 1 − F (a) + P (X = a)

(3.4) (3.5)

Weiterhin k¨onnen wir Rechenregeln f¨ ur allgemeine Intervalle der Form (a; b), (a; b], [a; b) und [a; b] angeben. Diese werden meist dann ben¨otigt, wenn der Bereich einer Zufallsvariablen ein Ereignis charakterisiert. Betrachten wir den W¨ urfelwurf. Die Zufallsvariable X mit den Auspr¨agungen 1 bis 6 gibt die Augenzahl an. Wir wollen nun die Wahrscheinlichkeit f¨ ur mindestens eine 3 und h¨ochstens eine 5 zu werfen bestimmen. Hierzu definieren wir uns zun¨achst folgende drei Ereignisse:

3.3 Diskrete Zufallsvariablen und ihre Verteilungsfunktion

39

A:X 2}, P {X ≤ 20}? Aufgabe 4.3: Eine Maschine produziert Bandnudeln, deren L¨angen normalverteilt sind. Die durchschnittliche Nudell¨ ange kann eingestellt werden, jedoch betr¨agt die Varianz unabh¨ angig davon immer 4. a) Wie groß ist die Wahrscheinlichkeit daf¨ ur, dass der eingestellte Wert μ = 50 mm um mehr als 3 mm unterschritten wird? b) Auf welchen Wert muß die durchschnittliche Nudell¨ange eingestellt werden, damit die produzierten Nudeln mit einer Wahrscheinlichkeit von 0.99 eine L¨ange von h¨ ochstens 60 mm haben? Aufgabe 4.4: Leiten Sie den Erwartungswert und die Varianz f¨ ur die Null– Eins–Verteilung und die Binomialverteilung her. Aufgabe 4.5: Sei X ∼ P o(λ). Zeigen Sie: E(X) = λ und Var(X) = λ.

Aufgabe 4.6: X sei eine binomialverteilte Zufallsgr¨oße mit n = 10 und p = 41 . a) Bestimmen Sie die exakte Wahrscheinlichkeit, dass X um h¨ochstens 2 vom Erwartungswert abweicht. b) Sch¨atzen Sie diese Wahrscheinlichkeit ab.

4.5 Aufgaben und Kontrollfragen

95

Aufgabe 4.7: Bei einem Experiment ist nur von Interesse, ob ein bestimmtes Ereignis A eintritt oder nicht. Das Experiment wird n mal unabh¨angig voneinander durchgef¨ uhrt. Es wird folgende Zufallsgr¨oße definiert:  1 falls Ereignis A im i-ten Versuch eintritt Xi = 0 falls Ereignis A im i-ten Versuch nicht eintritt

¯ = a) Bestimmen Sie Erwartungswert und Varianz der neuen Zufallsgr¨oße X 1 (X + X + · · · + X ). 1 2 n n ¯ mit einer Sicherheit von minb) Wie groß muß n mindestens sein, damit X destens 98% um h¨ ochstens 0.01 von der unbekannten Wahrscheinlichkeit p abweicht? Aufgabe 4.8: Eine Urne enth¨ alt M weiße und N − M schwarze Kugeln. Aus dieser Urne werden nacheinander und ohne Zur¨ ucklegen n Kugeln gezogen. a) Bestimmen Sie die Wahrscheinlichkeit, dass im ersten Zug eine weiße Kugel erscheint. b) Wie groß ist die Wahrscheinlichkeit daf¨ ur, im zweiten Zug eine weiße Kugel zu ziehen, wobei der erste Zug beliebig ist? c) Wie groß ist die Wahrscheinlichkeit daf¨ ur, im zweiten Zug eine weiße Kugel zu ziehen, wenn bereits im ersten Zug eine weiße Kugel gezogen wurde? d) Wie groß ist die Wahrscheinlichkeit, im i-ten Zug (i = 1, . . . , n) eine weiße Kugel zu ziehen, wobei die i − 1 vorhergehenden Z¨ uge beliebig sind? Aufgabe 4.9: Ein unverf¨ alschter W¨ urfel wird f¨ unfmal geworfen. X sei die Anzahl der W¨ urfe, bei denen eine Sechs erscheint.

a) Wie groß ist hier die Wahrscheinlichkeit, mindestens zwei Sechsen zu werfen? b) Wie groß ist der Erwartungswert von X? Aufgabe 4.10: In einer Schulklasse befinden sich 20 Sch¨ uler, denen es freigestellt ist, sich an einer Klassenfahrt zu beteiligen oder nicht. Aus vergangenen Jahren ist bekannt, dass etwa 70% der Sch¨ uler an den Fahrten teilnehmen. Wie groß ist die Wahrscheinlichkeit, dass die Klassenfahrt stattfindet, wenn dazu mindestens 10 Sch¨ uler teilnehmen m¨ ussen? Aufgabe 4.11: Zwei W¨ urfel werden viermal gleichzeitig geworfen. a) Wie groß ist die Wahrscheinlichkeit, dass dabei genau zweimal eine ungerade Augensumme auftritt? b) Bestimmen Sie die Wahrscheinlichkeit daf¨ ur, dass die Augensumme bei einem Wurf h¨ ochstens vier und bei den u urfen mindestens ¨ brigen drei W¨ acht betr¨agt. Aufgabe 4.12: X sei eine N (2; 4)-verteilte Zufallsgr¨oße. Folgende Ereignisse seien definiert: A = {X ≤ 3}, B = {X ≥ −0.9}.

a) Bestimmen Sie P (A ∩ B). b) Bestimmen Sie P (A ∪ B).

96

4. Diskrete und stetige Standardverteilungen

Aufgabe 4.13: Z sei eine N (0; 1)-verteilte Zufallsgr¨oße. Wie groß muß eine positive Zahl c gew¨ ahlt werden, damit gilt: P (−c ≤ Z ≤ +c) = 0.97? Aufgabe 4.14: Flugg¨ aste kommen zuf¨ allig und unabh¨angig voneinander an den Sicherheitscheck eines Flughafens. Im Mittel kommen 10 Passagiere pro Minute an. a) Wie gross ist die Wahrscheinlichkeit, dass keine Passagiere in einer Minute ankommen? b) Wie gross ist die Varianz und die Standardabweichung? c) Wie gross ist die Wahrscheinlichkeit, dass h¨ochstens 2 Passagiere in einer Minute ankommen? d) Wie gross ist die Wahrscheinlichkeit, dass kein Passagier in 15 Sekunden ankommt. e) Wie gross ist die Wahrscheinlichkeit, dass mindestens 1 Passagier in 15 Sekunden ankommt.

5. Grenzwerts¨ atze und Approximationen

5.1 Die stochastische Konvergenz In diesem Kapitel wollen wir einige Grundbegriffe u ¨ ber das Verhalten von Folgen von Zufallsvariablen (Xn )n∈N einf¨ uhren, wenn n gegen ∞ strebt. Dazu ben¨otigen wir den Begriff der stochastischen Konvergenz. Definition 5.1.1. Eine Folge (Xn )n∈N von Zufallsvariablen konvergiert stochastisch gegen 0, wenn f¨ ur beliebiges ǫ > 0 die Beziehung lim P (|Xn | > ǫ) = 0

n→∞

(5.1)

erf¨ ullt ist. Dies ist ¨aquivalent zu limn→∞ P (|Xn | ≤ ǫ) = 1. Diese Konvergenz heißt auch Konvergenz nach Wahrscheinlichkeit. Wir weisen darauf hin, dass diese Definition nicht besagt, dass Xn gegen Null konvergiert (im klassischen Sinne der Analysis). Klassische Konvergenz w¨ urde bedeuten, dass man f¨ ur jedes ǫ ein endliches n = n0 so finden kann, dass |Xn | ≤ ǫ, ∀n > n0 gilt. Aus der Definition der stochastischen Konvergenz folgt lediglich, dass die ur n → ∞ gegen Null Wahrscheinlichkeit des zuf¨ alligen Ereignisses |Xn | > ǫ f¨ strebt. Sei Fn (t) die Verteilungsfunktion der Zufallsvariablen Xn . Dann bedeutet (5.1), dass f¨ ur jedes ǫ > 0 und f¨ ur n → ∞ P (Xn < −ǫ) = Fn (−ǫ) → 0

(5.2)

P (Xn > ǫ) = 1 − P (Xn ≤ ǫ) = 1 − Fn (ǫ) − P (Xn = ǫ) → 0

(5.3)

und

gilt. Da (5.1) f¨ ur jedes ǫ > 0 gilt, folgt P (Xn = ǫ) → 0 f¨ ur n → ∞ f¨ ur alle ǫ > 0. Somit wird (5.3) zu 1 − Fn (ǫ) → 0 , d. h., es gilt f¨ ur alle ǫ > 0

(5.4)

98

5. Grenzwerts¨ atze und Approximationen

Fn (ǫ) → 1 . Mit Hilfe der in Abschnitt 4.2.2 definierten Einpunktverteilung k¨onnen wir also folgendes Ergebnis formulieren (vgl. Fisz, 1970) Theorem 5.1.1. Eine Folge (Xn )n∈N von Zufallsvariablen konvergiert stochastisch gegen Null genau dann, wenn die Folge (Fn (x))n∈N ihrer Verteilungsfunktionen gegen die Verteilungsfunktion der Einpunktverteilung in jeder Stetigkeitsstelle dieser Funktion konvergiert. Gem¨aß (5.1) konvergiert eine Folge (Xn )n∈N von Zufallsvariablen stochastisch gegen eine Konstante c, falls (Yn )n∈N = (Xn − c)n∈N stochastisch gegen Null konvergiert. Analog konvergiert eine Folge (Xn )n∈N stochastisch gegen eine Zufallsvariable X, falls (Yn )n∈N = (Xn − X)n∈N stochastisch gegen Null konvergiert.

5.2 Das Gesetz der großen Zahlen  ¯ = 1 n Xi (arithmetisches Mittel) aus Wir haben f¨ ur die Zufallsvariable X i=1 n n i.i.d. Zufallsvariablen Xi mit E(Xi ) = μ und Var(Xi ) = σ 2 die grundle¯ = σ2 hergeleitet (vgl. (3.30)). Die Varianz von gende Eigenschaft Var(X) n ¯ nimmt also mit wachsendem n ab. Wir betrachten die TschebyschevX ¯ und verwenden den Index n zur Kennzeichnung Ungleichung (3.37) f¨ ur X ¯ n − μ)n∈N der n unabh¨angigen Wiederholungen. Dann gilt f¨ ur die Folge (X 2 ¯ ¯ n − μ| < c) ≥ 1 − Var(Xn ) = 1 − σ . P (|X c2 nc2

(5.5)

F¨ ur jedes feste c ≥ 0 strebt die rechte Seite von (5.5) f¨ ur n → ∞ gegen Eins. Damit haben wir folgenden Satz bewiesen. Theorem 5.2.1 (Gesetz der großen Zahlen). Seien X1 , . . . , X n i.i.d. ¯ n = 1 n Xi Zufallsvariablen mit E(Xi ) = μ und Var(Xi ) = σ 2 und sei X i=1 n das arithmetische Mittel. Dann gilt ¯ n − μ| < c) = 1 , lim P (|X

n→∞

∀c ≥ 0 .

(5.6)

¯ n konvergiert stochastisch (nach Wahrscheinlichkeit) gegen μ. D. h. X Wir wenden dieses Gesetz auf unabh¨ angige Null-Eins-verteilte Variablen (vgl. (4.5)) an, d. h., wir w¨ ahlen die Zufallsvariablen (i = 1, . . . , n)  1 mit P (Xi = 1) = p Xi = 0 mit P (Xi = 0) = 1 − p . Damit ist E(Xi ) = p und Var(Xi ) = p(1 − p) (vgl. (4.6),(4.7)). Bilden wir ¯ n = 1 n Xi und ersetzen in (5.5) μ durch p und σ 2 durch p(1−p), wieder X i=1 n so gilt

5.3 Der zentrale Grenzwertsatz

¯ n − p| < c) ≥ 1 − p(1 − p) , P (|X nc2 und damit erhalten wir ¯ n − p| < c) = 1 lim P (|X

n→∞

99

(5.7)

∀c ≥ 0 .

¯ n ist die Zufallsvariable, die die relative H¨ X aufigkeit eines Ereignisses A bei n unabh¨angigen Wiederholungen angibt. Anders ausgedr¨ uckt erhalten wir folgenden Satz. Theorem 5.2.2 (Satz von Bernoulli). Die relative H¨aufigkeit eines zuf¨alligen Ereignisses A in n unabh¨angigen Wiederholungen konvergiert stochastisch gegen die Wahrscheinlichkeit p des Ereignisses A. Dieser Satz ist die Grundlage f¨ ur die schon oft benutzte H¨aufigkeitsinterpretation der Wahrscheinlichkeit. Mit seiner Hilfe kann man f¨ ur vorgegebenes c und vorgegebene Sicherheitswahrscheinlichkeit 1−α den zum Erreichen von ¯ n − p| < c) ≥ 1 − α P (|X notwendigen Stichprobenumfang n absch¨ atzen. Aufl¨osen der Ungleichung (5.7) nach n liefert die Bedingung n≥

p(1 − p) . c2 α

Beispiel. Sei c = α = p = 0.1, so folgt n≥

0.1(1 − 0.1) = 90 . 0.12 0.1

Sei c = α = 0.1, p = 0.5, so folgt n≥

0.52 = 250 . 0.12 0.1

5.3 Der zentrale Grenzwertsatz Der zentrale Grenzwertsatz geh¨ ort zu den wichtigsten Aussagen der Wahrscheinlichkeitstheorie. Er gibt eine Charakterisierung der Normalverteilung ¨ als Grenzverteilung von Uberlagerungen einer Vielzahl unabh¨angiger zuf¨alliger Einzeleffekte. Der zentrale Grenzwertsatz existiert in zahlreichen Modifikationen. Wir beschr¨ anken uns hier auf folgenden Fall. Seien Xi (i = 1, . . . , n) i.i.d. Zufallsvariablen n mit E(Xi ) = μ und Var(Xi )= σ 2 . Dann besitzt die Zufallsvariable i=1 Xi den Erwartungs wert E( ni=1 Xi ) = nμ und die Varianz Var( ni=1 Xi ) = nσ 2 , so dass

100

5. Grenzwerts¨ atze und Approximationen

Yn =

n

Xi − nμ √ nσ 2

i=1

(5.8)

standardisiert ist, d. h., es gilt E(Yn ) = 0 und Var(Yn ) = 1. Yn heißt standardisierte Summe der X1 , . . . , Xn . Theorem 5.3.1 (Zentraler Grenzwertsatz). Seien Xi (i = 1, . . . , n) i.i.d. Zufallsvariablen mit E(Xi ) = μ und Var(Xi ) = σ 2 , (i = 1, . . . , n) und sei Yn die standardisierte Summe der Xi . Dann gilt f¨ ur die Verteilungsfunktion von Yn lim P (Yn ≤ y) = Φ(y), ∀y , n→∞

wobei Φ(y) die Verteilungsfunktion der Standardnormalverteilung ist. Satz 5.3.1 besagt, dass die standardisierte Summe Yn f¨ ur große n ann¨ahernd standardnormalverteilt ist: Yn ∼ N (0, 1) f¨ ur n → ∞ . n n Bilden wir die R¨ ucktransformation nach i=1 Xi gem¨aß (5.8), so ist i=1 Xi f¨ ur große n ann¨ahernd N (nμ, nσ 2 )-verteilt n  i=1

Xi ∼ N (nμ, nσ 2 ) .

¯n = Das arithmetische Mittel X σ2 N (μ, n ) verteilt

1 n

n

i=1

(5.9)

Xi ist somit f¨ ur große n ann¨ahernd 2

¯ n ∼ N (μ, σ ) . X n ¯ n stochastisch gegen Das Gesetz der großen Zahlen sagt also aus, dass X μ konvergiert, w¨ ahrend der zentrale Grenzwertsatz zus¨atzlich aussagt, dass ¯ n gegen die Grenzverteilung N (μ, σ2 ) konvergiert. die Verteilung von X n

5.4 Approximationen Wir haben zur Herleitung der Regeln der Kombinatorik und von einigen diskreten Verteilungen das Urnenmodell verwandt. In einer Urne seien insgesamt N Kugeln, davon M weiße und N −M schwarze. Aus der Urne werden zuf¨allig n Kugeln gezogen. Sei X die Zufallsvariable Anzahl der weißen Kugeln in der ” Ziehung“. Beim Ziehen mit Zur¨ ucklegen ist X binomialverteilt, beim Ziehen ohne Zur¨ ucklegen ist X hypergeometrisch verteilt (vgl. Abschnitte 4.2.4 und 4.2.5). Falls N , M und N − M sehr groß gegen¨ uber n sind, stimmen beide Verteilungen nahezu u ¨berein. Es macht dann also kaum einen Unterschied, ob man mit oder ohne Zur¨ ucklegen zieht. Wir wollen dies hier nicht beweisen (vgl. dazu z. B. R¨ uger, 1996), sondern uns vielmehr auf das Grenzverhalten der Binomialverteilung f¨ ur großes n konzentrieren.

5.4 Approximationen

101

5.4.1 Approximation der Binomialverteilung durch die Normalverteilung Betrachten wir n unabh¨ angige Null-Eins-verteilte Variablen Xi mit Erwartungswert E(Xi ) = p und Varianz Var(X n i ) = p(1 − p). Die daraus gebildete binomialverteilte Zufallsvariable Xi besitzt den Erwartungswert n i=1 n E( i=1 Xi ) = np und die Varianz Var( i=1 Xi ) = np(1 − p). Durch Anwendung von (5.9) ergibt sich f¨ ur großes n n  i=1

Xi ∼ N (np, np(1 − p)) .

Daraus folgt sofort f¨ ur die relative H¨ aufigkeit (n groß)   n p(1 − p) 1 Xi ∼ N p, . n i=1 n

(5.10)

(5.11)

Die Binomialverteilung B(n; p) kann also f¨ ur großes n durch die Normalverteilung approximiert werden: B(n; p) → N (np, np(1 − p))

(5.12)

Die N¨aherung (5.12) ist f¨ ur np(1 − p) ≥ 9 hinreichend genau. Damit gilt f¨ ur X ∼ B(n; p) % $ x − np P (X ≤ x) ≈ Φ  np(1 − p) bzw. mit der sogenannten Stetigkeitskorrektur $ % $ % b + 0.5 − np a − 0.5 − np P (a ≤ X ≤ b) ≈ Φ  −Φ  . np(1 − p) np(1 − p)

(5.13)

Beispiel. Von einer neuen Maschine sei bekannt, dass die von ihr hergestellten Produkte zu 90% den Qualit¨ atsanforderungen entsprechen. Bezeichnen wir mit A das Ereignis Produkt einwandfrei“, so gilt P (A) = 0.9 = p und ” ¯ = 0.1 = 1−p. damit P (A) Eine Kiste mit 150 St¨ ucken aus der neuen Produktion wurde gepr¨ uft, wovon k = 135 St¨ ucke als einwandfrei befunden wurden. Die Anzahl der einwandfreien St¨ ucke in der neuen Produktion ist eine binomialverteilte Zufallsvariable X mit np(1 − p) = 150 · 0.9 · 0.1 = 13.5. Damit ist die Approximation der Binomialverteilung durch die Normalverteilung gerechtfertigt, und wir erhalten z. B.     135 − 0.5 − 150 · 0.9 150 + 0.5 − 150 · 0.9 √ √ −Φ P (135 ≤ X ≤ 150) = Φ 150 · 0.9 · 0.1 150 · 0.9 · 0.1 = Φ(4.22) − Φ(−0.14) = 0.99934 − 0.44433 = 0.55501 .

102

5. Grenzwerts¨ atze und Approximationen

0 1 2 3 4 5 6 7 8 9 10

0

10

20

30

0

5

40

10

50

15

60

20

70

25

80

30

90

Abb. 5.1. Grafische Veranschaulichung des Zentralen Grenzwertsatzes. K = 100, K = 300 und K = 900fache Realisierung einer B(n, p)-verteilten Zufallsvariablen X (n = 10, 30, 90 und p = 0.3). Die Punkte repr¨ asentieren die Anzahl der Realisierungen von Xi = x (i = 1, . . . , K).

D. h. mit einer Wahrscheinlichkeit von rund 0.56 sind 135 oder mehr St¨ ucke der Produktion einwandfrei. Die erwartete Anzahl der qualitativ einwandfreien Produkte betr¨ agt E(X) = 150 · 0.9 = 135 und die Varianz Var(X) = 150 · 0.9 · 0.1 = 13.5 . Wir wollen nun noch die Approximation der Binomialverteilung durch die Normalverteilung grafisch veranschaulichen. Dazu wiederholen wir die Realisation einer B(n, p)-verteilten Zufallsvariablen X K–mal. In Abbildung 5.1 wird u aulen die H¨aufigkeit aufgetragen, ¨ ber der jeweiligen Anzahl Xi durch S¨ mit der dieses Ergebnis realisiert wurde. Die verwendeten Werte f¨ ur n und p waren n = 10, n = 30 und n = 90 und jeweils p = 0.3. Damit ergeben sich f¨ ur den Erwartungswert np die Werte np = 3, np = 9 und np = 27.

5.4 Approximationen

103

5.4.2 Approximation der Binomialverteilung durch die Poissonverteilung Die Regel np(1 − p) ≥ 9 besagt, dass f¨ ur Werte von p nahe Null (oder nahe Eins) n sehr groß sein muß, um die Approximation (5.10) zu sichern. Sei z. B. p = 0.01, so m¨ ußte n ≥ 9/(0.01 · 0.99) = 909.09 sein. F¨ ur extrem kleine Werte von p und große Werte von n approximiert man die Binomialverteilung durch die Poissonverteilung nach der Regel B(n; p) → P o(np) .

(5.14)

Diese Approximation ist f¨ ur p ≤ 0.1 und n ≥ 100 hinreichend genau. Die Approximation (5.14) heißt Grenzwertsatz von Poisson. Anmerkung. Einen Beweis von (5.14) findet man in R¨ uger (1996). 5.4.3 Approximation der Poissonverteilung durch die Normalverteilung Die Approximation der Poissonverteilung durch die Normalverteilung ergibt sich aus den beiden Approximationsm¨ oglichkeiten der Binomialverteilung. F¨ ur np(1 − p) ≥ 9 und p ≤ 0.1 sowie n ≥ 100, also λ = np ≥ 10, folgt aus der Approximation der Binomialverteilung durch die Normalverteilung und der Approximation der Binomialverteilung durch die Poissonverteilung die Approximation der Poissonverteilung durch die Normalverteilung, wenn wir zus¨atzlich bedenken, dass f¨ ur kleines p die Approximation np ≈ np(1 − p) gilt: B(n; p) → P o(np) ,

B(n; p) → N (np, np(1 − p)) ,

also P o(np) → N (np, np(1 − p)) oder P o(λ) → N (λ, λ) . 5.4.4 Approximation der hypergeometrischen Verteilung durch die Binomialverteilung Wir haben in Kapitel 4 das Urnenmodell betrachtet, wobei unter insgesamt N Kugeln M weiße und N − M schwarze Kugeln waren. Es wurden n Kugeln gezogen. Die Zufallsvariable X : Anzahl der weißen Kugeln unter den n ” gezogenen Kugeln“ ist • bei Ziehen mit Zur¨ ucklegen binomialverteilt • bei Ziehen ohne Zur¨ ucklegen hypergeometrisch verteilt.

104

5. Grenzwerts¨ atze und Approximationen

H(n, M, N ) M, N → ∞ Faustregel n ≤ 0.1M N/M = p = const. n ≤ 0.1(N − M ) B(n; M/N ) p ≤ 0.1 n ≥ 100

B(n; p)

P o(np) p klein, so dass np ≈ np(1 − p)

np(1 − p) ≥ 9   N np, np(1 − p)

N (np, np) = N (λ, λ)

Abb. 5.2. Approximationen der einzelnen Verteilungen

Falls N , M und N − M sehr groß gegen¨ uber n sind, so ¨andern sich die Ziehungswahrscheinlichkeiten f¨ ur eine weiße Kugel bei Ziehen ohne Zur¨ ucklegen kaum, die Ziehungen sind n¨ aherungsweise unabh¨angig voneinander. Damit sind die Verteilungen von X in beiden Ziehungsmodellen nahezu gleich, d. h. die hypergeometrische Verteilung stimmt nahezu mit der Binomialverteilung u ur M → ∞ und N → ∞. Dann gilt ¨berein. Sei 0 < M N = p < 1 konstant f¨ H(n, M, N ) ≈ B(n;

M ) N

(Beweis: vgl. z. B. R¨ uger (1988), S.83). Als Faustregel f¨ ur N , M , N − M groß im Verh¨altnis zu n verwendet man die Bedingung n ≤ 0.1M und n ≤ 0.1(N − M ).

5.5 Aufgaben und Kontrollfragen

105

5.5 Aufgaben und Kontrollfragen Aufgabe 5.1: Wie lautet die Definition der stochastischen Konvergenz einer Folge {Xn }n∈N von Zufallsvariablen

a) gegen Null b) gegen eine Konstante c) gegen eine Zufallsvariable X?

Aufgabe 5.2: Wie lautet das Gesetz der großen Zahlen? Wie leitet man daraus den Satz von Bernoulli her? Aufgabe 5.3: Seien X1 , . . . , Xn i.i.d. Zufallsvariablen. Wie lautet die Grenz¯ verteilung der Zufallsvariablen arithmetisches Mittel X? Aufgabe 5.4: Wie groß ist die Wahrscheinlichkeit, dass beim 500-maligen Werfen eines W¨ urfels das Ergebnis gerade Zahl geworfen“ um h¨ochsten 25 ” von seinem Erwartungswert abweicht? Aufgabe 5.5: Ein Zufallsexperiment, in dem ein Ereignis A mit Wahrscheinlichkeit p = 0.5 eintritt, wird n-mal unabh¨ angig wiederholt. Wie groß muß n sein, so dass mit Wahrscheinlichkeit α = 0.01 die absolute Abweichung der ¯ n von p h¨ relativen H¨aufigkeit X ochstens 0.1 ist? Aufgabe 5.6: Eine Maschine fertigt Produkte, die M¨angel mit einer Wahrscheinlichkeit von p = 0.2 aufweisen. In einer Stichprobe vom Umfang n = 100 wurden k = 10 fehlerhafte Produkte festgestellt. a) Wie groß ist die Wahrscheinlichkeit f¨ ur dieses Ergebnis? b) Mit welcher Wahrscheinlichkeit liegt der Ausschussanteil bei 100 Produkten zwischen 3% und 10%? Aufgabe 5.7: Sei X eine P o(32) verteilte Zufallsvariable. Berechnen Sie (unter Verwendung der Normalapproximation) folgende Wahrscheinlichkeiten: a) P (X ≤ 10), b) P (25 ≤ X ≤ 30), c) P (X ≥ 55).

Aufgabe 5.8: In einem Stadtbezirk einer bayerischen Stadt mit 10000 wahlberechtigten B¨ urgern werden Wahlen durchgef¨ uhrt. Zwei Tage vor den Wahlen werden 200 Wahlberechtigte f¨ ur die Erstellung einer Wahlprognose zuf¨allig ausgew¨ahlt und nach ihrer bevorstehenden Wahlentscheidung befragt. Wenn davon ausgegangen wird, dass in diesem Stadtbezirk eine Pr¨aferenz von 40% f¨ ur die CSU besteht, wie groß ist dann die Wahrscheinlichkeit, dass sich unter den Befragten weniger als 35% f¨ ur die CSU aussprechen? Aufgabe 5.9: Aufgrund gewisser Erfahrungswerte kann davon ausgegangen werden, dass ca. 1% der Bev¨ olkerung an einer Krankheit leidet. Bestimmen Sie die Wahrscheinlichkeit, dass unter 1000 zuf¨allig ausgew¨ahlten Personen

a) mindestens drei b) genau vier kranke Personen sind.

106

5. Grenzwerts¨ atze und Approximationen

Aufgabe 5.10: In einer Kiste mit 20 Orangen befinden sich zwei verdorbene Orangen, die restlichen 18 Orangen sind einwandfrei. Nun werden zuf¨allig vier Orangen aus der Kiste genommen (ohne Zur¨ ucklegen). a) Wie groß ist die Wahrscheinlichkeit, dass unter den vier gew¨ahlten Orangen auch die zwei verdorbenen sind? b) Die Zufallsgr¨ oße X bezeichne die Anzahl der verdorbenen unter den ausgew¨ahlten Orangen. Bestimmen Sie Erwartungswert und Varianz von X.

Teil II

Induktive Statistik

6. Sch¨ atzung von Parametern

6.1 Einleitung Wenn eine wissenschaftliche Untersuchung geplant und durchgef¨ uhrt wird, so geschieht das unter dem Aspekt, eine spezifische wissenschaftliche Hypothese zu u ufen. Obwohl eine Stichprobe nur ein kleiner Ausschnitt aus ¨ berpr¨ der Grundgesamtheit ist, m¨ ochte man die aus der Stichprobe gewonnenen Erkenntnisse m¨oglichst verallgemeinern. Ein wesentliches Charakteristikum der statistischen Schlussweise (Inferenz) ist die Tatsache, dass die aus einer Stichprobe gezogenen Schlussfolgerungen im allgemeinen nicht fehlerfrei sind. Die statistische Induktion u ¨ ber die unbekannten Parameter der Grundgesamtheit wird also h¨aufig mit einer Evaluation (wie z.B. Pr¨ ufen von Hypothesen) verkn¨ upft sein. Die bisher vorgestellten Verteilungen f¨ ur die Beschreibung von Zufallsvariablen h¨angen von Parametern ab (Erwartungswert μ, Varianz σ 2 , Wahrscheinlichkeit p der Null-Eins- und der Binomialverteilung), die unbekannt sind. Aus einer Stichprobe werden Maßzahlen (Stichprobenmittelwert x¯, Stichprobenvarianz s2 , relative H¨ aufigkeit k/n) ermittelt, die wir als Sch¨ atzwerte der Parameter μ, σ 2 , p der Grundgesamtheit bezeichnen. Beispiel. Die K¨orpergr¨ oße X von dreij¨ ahrigen Kindern kann als normalverteilt gelten, X ∼ N (μ, σ2 ). Der Erwartungswert μ repr¨asentiert die mittlere (durchschnittliche) K¨ orpergr¨ oße der dreij¨ ahrigen Kinder. Aus einer Stichprobe ermittelt man den Wert von x ¯ (mittlere K¨orpergr¨oße der dreij¨ahrigen Kinder in der Stichprobe) als Sch¨ atzung des Parameters μ der dreij¨ahrigen Kinder der Bev¨olkerung. Die konkreten Sch¨ atzwerte als Realisierungen von Zufallsvariablen – den Sch¨atzungen – werden von Stichprobe zu Stichprobe verschieden sein, sie streuen um den unbekannten Parameter (im Beispiel μ). Je nachdem, ob nur ein einziger Zahlenwert als Sch¨atzgr¨oße oder ein Intervall angegeben wird, spricht man von einer Punktsch¨ atzung bzw. von einer Intervallsch¨ atzung (Konfidenzsch¨ atzung). Unter einer Stichprobe verstehen wir allgemein bei endlicher Grundgesamtheit eine zuf¨ allige Auswahl von n Elementen aus den N Elementen der Grundgesamtheit, analog zu den Urnenmodellen der vorangegangenen Kapitel. Bei einem Zufallsexperiment erh¨ alt man die Stichprobe durch n-fache

110

6. Sch¨ atzung von Parametern

Wiederholung des Experiments. Falls alle Xi unabh¨angig und identisch verteilt sind, bezeichnen wir X = (X1 , . . . , Xn ) als i.i.d. Stichprobe. Die Schreibweise X = (X1 , . . . , Xn ) bezeichnet die Stichprobe (als Zufallsgr¨oße), die Xi sind Zufallsvariablen. Nach Durchf¨ uhrung der Stichprobenziehung, d.h., nach Realisierung der Zufallsvariablen Xi in einem zuf¨alligen Versuch, erh¨alt man die konkrete Stichprobe x = (x1 , . . . , xn ) mit den realisierten Werten xi der Zufallsvariablen Xi . Anmerkung. Wenn wir von Stichprobe sprechen, meinen wir stets die i.i.d. Stichprobe. Bei endlicher Grundgesamtheit sichert man die i.i.d. Eigenschaft durch Ziehen mit Zur¨ ucklegen, bei Zufallsexperimenten durch geeignete Versuchspl¨ane (i.i.d.: independently identically distributed).

6.2 Allgemeine Theorie der Punktsch¨ atzung Generell stellt sich das Problem der Sch¨ atzung von Parametern der Verteilung einer Zufallsvariablen X durch geeignete aus Stichproben ermittelte Maßzahlen. Im einparametrigen Fall ist es das Ziel der Punktsch¨atzung, den unbekannten Parameter θ mittels einer Stichprobe vom Umfang n zu sch¨atzen, d.h., eine Maßzahl zu finden, die m¨ oglichst gut“ mit dem zu sch¨atzenden ” Parameter u bereinstimmt. M¨ o glichst gut“ ist durch geeignete G¨ utekriterien ¨ ” n¨aher zu definieren. Im mehrparametrigen Fall tritt an die Stelle des Parameters θ der Parametervektor θ. Definition 6.2.1. Die Menge Θ, die alle m¨oglichen Werte des unbekannten Parameters θ enth¨alt, heißt Parameterraum. Definition 6.2.2. Sei θ ∈ Θ der unbekannte Parameter der Verteilung Fθ (X) und X = (X1 , . . . , Xn ) eine Stichprobe. Dann nennt man T (X) = T (X1 , . . . , Xn ) eine Sch¨ atzung (Sch¨atzfunktion) von θ. T (X) ist eine Zufallsvariable. F¨ ur die konkrete Stichprobe (x1 , . . . , xn ) ergibt sich der Sch¨atzwert θˆ = T (x1 , . . . , xn ) als beobachtete Realisation der Zufallsvariablen T (X). Definition 6.2.3. Eine Sch¨atzung T (X) des Parameters θ heißt erwartungstreu f¨ ur θ (unverzerrt, unverf¨alscht, unbiased), wenn gilt: Eθ (T (X)) = θ .

(6.1)

Im Falle Eθ (T (X)) = θ heißt die Sch¨atzung T (X) nicht erwartungstreu (verzerrt, verf¨alscht, biased). Anmerkung. Falls (6.1) f¨ ur alle θ ∈ Θ gilt, heißt die Sch¨atzung T (X) erwartungstreu (f¨ ur alle θ). Im Folgenden wird erwartungstreu stets in dieser Bedeutung verwendet.

6.2 Allgemeine Theorie der Punktsch¨ atzung

111

Die Differenz zwischen dem Erwartungswert Eθ (T (X)) der Sch¨atzung und dem zu sch¨atzenden Parameter θ wird als Bias (Verzerrung) bezeichnet: biasθ (T (X); θ) = Eθ (T (X)) − θ. F¨ ur eine erwartungstreue Sch¨ atzung T (X) von θ gilt: biasθ (T (X); θ) = 0. Ein wichtiges Maß zur Beurteilung der G¨ ute einer Sch¨atzung ist der mittlere quadratische Fehler (Mean Square Error). Definition 6.2.4. Der Mean Square Error (MSE) einer Sch¨atzung T (X) ist definiert als   2 MSEθ (T (X); θ) = Eθ [T (X) − θ] .   2 Sei Varθ (T (X)) = Eθ [T (X) − Eθ (T (X))] die Varianz der Sch¨atzung T (X), so l¨asst sich der MSE wie folgt darstellen:

2

MSEθ (T (X); θ) = Varθ (T (X)) + [biasθ (T (X); θ)] . Ist die Sch¨atzung T (X) erwartungstreu, so stimmen ihre Varianz und ihr MSE u ¨ berein: biasθ (T (X); θ) = 0



MSEθ (T (X); θ) = Varθ (T (X)) .

Im mehrparametrigen Fall mit dem Parametervektor θ ist der MSE ein matrixwertiges G¨ utemaß. Der MSE liefert ein G¨ utekriterium zum Vergleich von Sch¨atzungen. Definition 6.2.5 (MSE-Kriterium). Seien T1 (X) und T2 (X) zwei alternative Sch¨atzungen des Parameters θ. Dann heißt die Sch¨atzung T1 (X) MSE-besser als T2 (X), wenn MSEθ (T1 (X); θ) ≤ MSEθ (T2 (X); θ)

∀θ

(6.2)

gilt und wenn es mindestens ein θ∗ ∈ Θ gibt mit

MSEθ (T1 (X); θ∗ ) < MSEθ (T2 (X); θ∗ ) .

(6.3)

Es ist nicht m¨ oglich, unter allen Sch¨ atzungen eine MSE-beste Sch¨atzung zu finden. Dies wird klar, wenn wir den konstanten Sch¨atzer T2 (X) = θ0 betrachten (θ0 ein beliebiger Parameterwert), f¨ ur den M SEθ0 (T2 (X); θ0 ) = 0 gilt. Damit existiert kein Sch¨ atzer, der die Bedingungen (6.2) und (6.3) erf¨ ullt; es existiert kein MSE-bester Sch¨ atzer schlechthin. Deshalb muß man die Klasse der zugelassenen Sch¨atzfunktionen einschr¨anken. In der klassischen Sch¨ atztheorie beschr¨ankt man sich auf die Klasse der erwartungstreuen Sch¨ atzungen. Da im Fall von erwartungstreuen Sch¨atzungen der MSE und die Varianz u uhrt die Suche nach ¨ bereinstimmen, f¨ einer MSE-besten Sch¨ atzung in der Klasse der erwartungstreuen Sch¨atzungen zur Auswahl derjenigen Sch¨ atzung mit der kleinsten Varianz.

112

6. Sch¨ atzung von Parametern

Definition 6.2.6. Eine erwartungstreue Sch¨atzung T (X) des Parameters θ heißt effizient bzw. UMVU-Sch¨atzung (Uniformly Minimum Variance Unbiased), wenn T (X) unter allen erwartungstreuen Sch¨atzungen f¨ ur θ die kleinste Varianz besitzt. Die effiziente Sch¨ atzung ist die beste Sch¨atzung (im Sinne kleinster Varianz) in der Klasse der erwartungstreuen Sch¨atzungen, nicht aber in der Klasse aller Sch¨ atzungen. Es kann verzerrte Sch¨atzungen geben, die einen kleineren MSE besitzen (zur Theorie der verzerrten Sch¨atzungen in linearen Modellen vgl. z.B. Toutenburg (2002a), Rao, Toutenburg, Shalabh und Heumann (2008)). Asymptotische G¨ utekriterien Ein schw¨acheres G¨ utekriterium als die Erwartungstreue eines Sch¨atzers ist die asymptotische Erwartungstreue. Man betrachtet Sch¨atzungen T (X), die mit zunehmendem Stichprobenumfang n den Parameter θ genauer sch¨atzen. atzfolge f¨ ur Eine Menge von Sch¨ atzfunktionen (T(n) (X))n∈N heißt Sch¨ den unbekannten Parameter θ, wenn es zu jedem Stichprobenumfang n genau eine Sch¨atzung T(n) (X) gibt. Definition 6.2.7. Eine Sch¨atzfolge (T(n) (X))n∈N f¨ ur den Parameter θ ist asymptotisch erwartungstreu, wenn f¨ ur jede zugelassene Verteilung mit dem Parameter θ gilt: lim Eθ (T(n) (X)) = θ

n→∞

∀θ .

Damit ist jeder erwartungstreue Sch¨ atzer auch asymptotisch erwartungstreu. Eine weitere asymptotische Eigenschaft ist die Konsistenz. Definition 6.2.8. Eine Sch¨atzfolge (T(n) (X))n∈N heißt konsistent f¨ ur θ, wenn die Folge T(n) (X) stochastisch gegen den wahren Parameter θ konvergiert: lim P (|T(n) (X) − θ| < ǫ) = 1 ∀ǫ > 0 . n→∞

Anmerkung. Die asymptotische Erwartungstreue und die Konsistenz sind relativ schwache Forderungen an einen Sch¨ atzer. Sie werden oft als Minimalanforderungen betrachtet.

6.3 Maximum-Likelihood-Sch¨ atzung 6.3.1 Das Maximum-Likelihood-Prinzip Ein wichtiges Konstruktionsprinzip zur Gewinnung der Parametersch¨atzung θˆ von θ ist das Maximum-Likelihood-Prinzip. Der mit dieser Methode

6.3 Maximum-Likelihood-Sch¨ atzung

113

gewonnene Maximum-Likelihood-Sch¨ atzer (ML-Sch¨atzer) zeichnet sich durch diverse G¨ uteeigenschaften aus. Sei (X1 , . . . , Xn ) eine i.i.d. Stichprobe der Zufallsvariablen X und sei f (x; θ) eine einparametrige Wahrscheinlichkeitsfunktion, falls X diskret ist, bzw. sei f (x; θ) eine einparametrige Dichte, falls X stetig ist. Die Menge {f (x; θ) : θ ∈ Θ} enth¨ alt alle zul¨ assigen Verteilungen der Zufallsvariablen X. Die gemeinsame Dichte bzw. gemeinsame Wahrscheinlichkeitsfunktion der Realisation x einer i.i.d. Stichprobe ist – wegen der Unabh¨angigkeit der Xi – das Produkt f (x; θ) = f (x1 , . . . , xn ; θ) =

n &

f (xi ; θ) .

i=1

Sie ist f¨ ur jeden festen Parameterwert θ eine Funktion der Realisation der Stichprobe. F¨ ur einen realisierten Stichprobenvektor x = (x1 , . . . , xn ) kann f (x; θ) nun umgekehrt als Funktion von θ aufgefaßt werden. Sie wird dann als Likelihood bzw. Likelihoodfunktion bezeichnet. Die Likelihoodfunktion von θ nach Beobachtung der Stichprobe x = (x1 , . . . , xn ) ist gegeben durch L(θ) = L(θ; x) =

n &

f (xi ; θ).

(6.4)

i=1

Durch Logarithmieren erh¨ alt man die Loglikelihoodfunktion l(θ) = ln L(θ) =

n 

ln f (xi ; θ) ,

(6.5)

i=1

die mathematisch einfacher zu handhaben ist. Im mehrparametrigen Fall ist die Likelihoodfunktion bzw. Loglikelihoodfunktion eine Funktion des Parametervektors θ. Als Sch¨atzung des Parameters θ wird derjenige Wert θˆ gew¨ahlt, f¨ ur den die Likelihoodfunktion auf Grund der beobachteten Stichprobe x = (x1 , . . . , xn ) am gr¨oßten ist. Definition 6.3.1. Die Sch¨atzung θˆ = T (x) heißt Maximum-LikelihoodSch¨ atzung f¨ ur θ, wenn f¨ ur alle θ ∈ Θ bzw. gilt.

ˆ x) ≥ L(θ; x) L(θ;

(6.6)

ˆ x) ≥ l(θ; x) l(θ;

(6.7)

Beide Bedingungen sind gleichwertig, da die Logarithmierung eine streng monotone Transformation ist. Unter gewissen Voraussetzungen, die hier nicht n¨aher er¨ortert werden k¨onnen (vgl. z.B. R¨ uger, 1996), gilt f¨ ur die ML-Sch¨atzung TML (X):

114

1. 2. 3. 4.

6. Sch¨ atzung von Parametern

Die Die Die Die

ML-Sch¨atzung ML-Sch¨atzung ML-Sch¨atzung ML-Sch¨atzung

ist ist ist ist

asymptotisch erwartungstreu. konsistent. asymptotisch normalverteilt. asymptotisch effizient.

Zur praktischen Gewinnung der ML-Sch¨ atzung muß die Maximierung der Likelihoodfunktion bzw. der Loglikelihoodfunktion durchgef¨ uhrt werden. 6.3.2 Herleitung der ML-Sch¨ atzungen f¨ ur die Parameter der Normalverteilung Die Zufallsvariable X sei normalverteilt N (μ; σ 2 ). Die Realisation (x1 , . . . , xn ) einer i.i.d. Stichprobe der Zufallsvariable X besitzt die Likelihoodfunktion  n2  n 1  1 2 L(μ, σ ; x1 , . . . , xn ) = (xi − μ)2 ). (6.8) exp(− 2πσ 2 2σ 2 i=1 Die Loglikelihoodfunktion lautet damit l(μ, σ 2 ) = −

n n n 1  ln 2π − ln σ 2 − 2 (xi − μ)2 . 2 2 2σ i=1

(6.9)

1. Fall: μ unbekannt, σ 2 =σ02 bekannt Gesucht ist die ML-Sch¨ atzung f¨ ur den unbekannten Parameter μ bei bekannter Varianz σ02 . Im ersten Schritt wird (6.9) nach μ differenziert: n d 1  n l(μ, σ02 ) = 2 (xi − μ) = 2 (¯ x − μ) . dμ σ0 i=1 σ0

(6.10)

Durch Nullsetzen der ersten Ableitung erh¨ alt man: d l(μ, σ02 ) = 0 dμ



μ ˆ = x¯ .

(6.11)

Um festzustellen, ob es sich um ein Maximum handelt, muß das Vorzeichen der zweiten Ableitung an der Stelle μ = x¯ u uft werden: ¨ berpr¨ ' ' d2 n l(μ, σ02 )'' (6.12) = − 2 < 0. 2 (dμ) σ0 µ=¯ x

Damit lautet die ML-Sch¨ atzung f¨ ur μ

¯ TML (X) = X. Sie ist erwartungstreu: n

¯ = E(X)

1 E(Xi ) = μ . n i=1

6.3 Maximum-Likelihood-Sch¨ atzung

115

2. Fall: σ 2 unbekannt, μ = μ0 bekannt Gesucht ist die ML-Sch¨ atzung f¨ ur den unbekannten Parameter σ 2 bei bekanntem Erwartungswert μ0 . Im ersten Schritt wird (6.9) nach σ 2 differenziert: n 1  n d 2 l(μ , σ ) = − + (xi − μ0 )2 . 0 dσ 2 2σ 2 2σ 4 i=1

(6.13)

Durch Nullsetzen der ersten Ableitung erh¨ alt man: d l(μ0 , σ 2 ) = 0 dσ 2

n

σ ˆ2 =



1 (xi − μ0 )2 . n i=1

(6.14)

Die Pr¨ ufung des Vorzeichens der zweiten Ableitung an der Stelle σ 2 = σ ˆ2 zeigt, dass es sich um ein Maximum handelt: n d2 n 2  2 l(μ , σ ) = − (xi − μ0 )2 0 (dσ 2 )2 2(σ 2 )2 2(σ 2 )3 i=1 ' ' n d2 1 2 ' l(μ , σ ) − 2 3 nˆ σ2 0 ' 2 2 = 2(ˆ 2 2 2 )2 (d σ ) σ (ˆ σ ) σ =ˆ σ n n − 2 2 = 2(ˆ σ 2 )2 (ˆ σ ) n =− < 0. 2(ˆ σ 2 )2

(6.15)

Damit lautet die ML-Sch¨ atzung f¨ ur σ 2 n

TML (X) =

1 (Xi − μ0 )2 , n i=1

die in diesem Fall (μ = μ0 bekannt) erwartungstreu ist. 3. Fall: μ unbekannt, σ 2 unbekannt Dies ist der f¨ ur die Praxis wesentliche – weil realistische – Fall, da er keine Vorkenntnis von μ = μ0 oder σ 2 = σ02 voraussetzt. ist die ML-Sch¨ atzung f¨ ur den unbekannten Parametervektor θ =  Gesucht  μ . Im ersten Schritt wird (6.9) partiell nach μ bzw. σ 2 differenziert: σ2 n 1  n ∂ l(θ) = 2 (xi − μ) = 2 (¯ x − μ) ∂μ σ i=1 σ

n ∂ 1  n l(θ) + (xi − μ)2 . = − ∂σ 2 2σ 2 2σ 4 i=1

116

6. Sch¨ atzung von Parametern

Durch Nullsetzen der ersten Ableitungen erh¨ alt man: n (¯ x − μ) = 0 σ2 n 1  n − 4 (xi − μ ˆ)2 = 0 2 2σ 2σ i=1



μ ˆ=x ¯



σ ˆ2 =

n

1 (xi − x ¯)2 . n i=1

¨ Nach Uberpr¨ ufung der Definitheit der Matrix der partiellen zweiten Ableiμ tungen ergibt sich als ML-Sch¨ atzung f¨ ur θ = σ2   ¯ X  TML (X) = 1 n ¯ 2 . i=1 (Xi − X) n ¯ ist erwartungstreu und eine effiziente Sch¨atzung f¨ Anmerkung. X ur μ. F¨ ur 2 σ ˆ erhalten wir n−1 2 E(ˆ σ2 ) = σ , n

d.h., σ ˆ 2 ist nicht erwartungstreu, jedoch asymptotisch erwartungstreu. Durch n Korrektur mit dem Faktor n−1 erh¨ alt man die erwartungstreue Sch¨atzfunktion (Stichprobenvarianz) n

2 = SX

1  ¯ 2, (Xi − X) n − 1 i=1

¯ und S 2 von der man zeigen kann, dass sie effizient ist. Außerdem sind X X unabh¨angig. Beispiel 6.3.1. Eine Maschine bef¨ ullt Dosen mit einem bestimmten Produkt. Das F¨ ullgewicht X sei eine normalverteilte Zufallsvariable X ∼ N (μ, σ 2 ), deren Parameter μ und σ 2 durch x¯ und s2 gesch¨atzt werden sollen. Aus den bef¨ ullten Dosen wurde eine Stichprobe vom Umfang n = 50 gezogen (Tabelle 6.1). Wir erhalten x ¯=

1 (991 + 1011 + . . . + 1002 + 984) = 998.90 50

als gesch¨atztes mittleres F¨ ullgewicht. Die Stichprobenvarianz als Sch¨atzung der Varianz σ 2 der Verteilung betr¨ agt ) 1 ( (991 − 998.9)2 + (1011 − 998.9)2 + . . . + (984 − 998.9)2 50 − 1 = 79.23 .

s2 =

Mit SPSS erhalten wir die Ausgabe in Abbildung 6.1.

6.4 Konfidenzsch¨ atzungen von Parametern

117

Tabelle 6.1. F¨ ullgewichte xi der Dosen (in Gramm) xi 991 1011 1001 995 1001

1000 1000 1011 990 1005

993 990 994 981 1001

996 1000 1007 999 993

1007 1004 993 992 991

999 989 1001 1020 996

994 1002 1000 998 1017

1003 1008 989 1010 1008

989 1007 1016 1007 991

999 980 990 1002 984

Descriptive Statistics

N X Valid N (listwise)

50

Mean 998,9000

Std. Deviation 8,9014

Variance 79,235

50

Abb. 6.1. SPSS-Output zu Beispiel 6.3.1

6.4 Konfidenzsch¨ atzungen von Parametern 6.4.1 Grundlagen Eine Punktsch¨atzung hat den Nachteil, dass kein Hinweis auf die Genauigkeit dieser Sch¨atzung gegeben wird. Die Abweichung zwischen Punktsch¨atzung und wahrem Parameter (z.B. |¯ x − μ|) kann erheblich sein, insbesondere bei kleinem Stichprobenumfang. Aussagen u ¨ ber die Genauigkeit einer Sch¨atzung liefert die Konfidenzmethode. Bei ihr wird f¨ ur den unbekannten Parameter ein Zufallsintervall mit den Grenzen Iu (X) und Io (X) bestimmt, das den unbekannten Parameter θ (z.B. den Erwartungswert μ) mit vorgegebener Wahrscheinlichkeit von mindestens 1 − α u ¨berdeckt: Pθ (Iu (X) ≤ θ ≤ Io (X)) ≥ 1 − α .

(6.16)

Die Wahrscheinlichkeit 1 − α heißt Konfidenzniveau, Iu (X) heißt untere und Io (X) obere Konfidenzgrenze. Wir wollen noch einmal darauf hinweisen, dass die Intervallgrenzen Iu (X) und Io (X) als Funktionen der Stichproben Zufallsgr¨oßen sind. Damit kann ein Konfidenzintervall den Parameter θ u ¨ berdecken oder auch nicht u ¨ berdecken. Die Intervalle werden gerade so konstruiert, dass die Wahrscheinlichkeit f¨ ur ¨ die Uberdeckung des unbekannten Parameters mindestens (1 − α) betr¨agt. α dr¨ uckt das Risiko f¨ ur eine falsche Aussage (Nicht¨ uberdeckung) aus, das bei der Angabe eines Konfidenzintervalls f¨ ur θ eingegangen wird. Dieses Risiko muß vorher festgelegt werden. H¨aufigkeitsinterpretation: Wenn N unabh¨ angige Stichproben X(j) aus derselben Grundgesamtheit gezogen werden und dann jeweils Konfidenzintervalle

118

6. Sch¨ atzung von Parametern

der Form [Iu (X(j) ), Io (X(j) )] berechnet werden, so u ¨ berdecken bei hinreichend großem N etwa N (1 − α) aller Intervalle (6.16) das unbekannte, wahre θ. Anmerkung. Analog zur Theorie der Punktsch¨atzung k¨onnen auch bei Konfidenzsch¨atzungen G¨ utekriterien angegeben werden. Wir verweisen hierzu auf die entsprechende Spezialliteratur. 6.4.2 Konfidenzsch¨ atzung der Parameter einer Normalverteilung Konfidenzsch¨ atzung f¨ ur μ (σ 2 = σ02 bekannt) 2 Gegeben sei eine i.i.d. Stichprobe der N (μ, σ )-verteilten Zufallsvariablen X. n 1 ¯ ur μ und konstruieren Wir verwenden die Punktsch¨ atzung X = n i=1 Xi f¨ ein Konfidenzintervall, das symmetrisch um μ liegen soll. Die Punktsch¨atzung √ ¯ ¯ besitzt unter H0 eine N (μ, σ 2 /n)-Verteilung. Damit ist X−µ n ∼ N (0, 1), X 0 σ0 und es gilt ' ' ¯  'X − μ√ ' ' ' α Pµ ' n' ≤ z1− 2 = 1 − α . σ0

(z1−α/2 bezeichnet das (1 − α/2)-Quantil der N (0, 1)-Verteilung.) Wir l¨osen diese Ungleichung nach μ auf und erhalten das gesuchte Konfidenzintervall f¨ ur μ dann als   σ0 ¯ σ0 ¯ − z1−α/2 √ , X + z1−α/2 √ . (6.17) [Iu (X), Io (X)] = X n n ¯ eingesetzt. Die L¨ange In der Anwendung wird der realisierte Wert x¯ von X des Konfidenzintervalls σ0 (6.18) L = 2z1−α/2 √ n

ist von α und n abh¨ angig. Sind α und n konstant, so haben Konfidenzintervalle aus verschiedenen Stichproben (mit gleichem Umfang n) dieselbe L¨ange, jedoch eine unterschiedliche Lage. Wird α konstant gehalten, so kann die L¨ange L des Intervalls durch Erh¨ ohung des Stichprobenumfangs n verkleinert, die Genauigkeit der Sch¨ atzung also erh¨ oht werden. Wird die Genauigkeit durch die Intervall¨ ange L vorgegeben, so l¨asst sich leicht der f¨ ur diese Genauigkeit notwendige Mindeststichprobenumfang bestimmen. Wir l¨osen Gleichung (6.18) nach n auf und w¨ahlen das kleinste ganzzahlige n, f¨ ur das   2z1−α/2 σ0 2 (6.19) n≥ L gilt.

6.4 Konfidenzsch¨ atzungen von Parametern

119

Beispiel 6.4.1. Eine Maschine produziert Werkst¨ ucke. Die L¨ange X (in mm) dieser Werkst¨ ucke sei eine normalverteilte Zufallsvariable mit bekannter Varianz σ02 = 0.52 . In einer Stichprobe von n = 25 Werkst¨ ucken sei eine mittlere L¨ange (Stichprobenmittel) von x¯ = 50.1 mm ermittelt worden. Wir berechnen ein Konfidenzintervall zum Niveau 1 − α = 0.95 f¨ ur den Erwartungswert μ von X. Nach (6.17) erhalten wir das gesuchte Intervall: 0.5 0.5 [50.1 − 1.96 √ , 50.1 + 1.96 √ ] 25 25 ur α = 0.05 hat z1−α/2 den Wert 1.96). Die Intervallgrenzen sind also (f¨ Iu (x) = 49.904 und Io (x) = 50.296 . σ0 Das Konfidenzintervall hat die L¨ ange L = 2z1−α/2 √ = 2·1.96·0.5/5 = 0.392. n Wird f¨ ur das Intervall eine Maximall¨ ange von z.B. Lmax = 0.20 gefordert, also eine h¨ohere Genauigkeit der Sch¨ atzung verlangt, so ist daf¨ ur nach (6.19) ein Stichprobenumfang von mindestens 97 zu sichern: 2  2 · 1.96 · 0.5 = 96.04 . n≥ 0.20

Konfidenzsch¨ atzung f¨ ur μ (σ 2 unbekannt) Wenn die Varianz σ 2 unbekannt ist, sch¨ atzen wir sie durch die Stichprobenvarianz (vgl. (4.24)) n

2 SX =

2 1  ¯ 2 ∼ σ χ2 . (Xi − X) n − 1 i=1 n − 1 n−1

¯ und S 2 unabh¨ angig sind, ist Da X X

¯ − μ√ X n ∼ tn−1 SX t-verteilt mit n − 1 Freiheitsgraden (vgl. (4.26)). Damit gilt SX SX ¯ − tn−1;1−α/2 · √ ¯ + tn−1;1−α/2 · √ ≤μ≤X ) = 1 − α, P(µ,σ2 ) (X n n wobei tn−1;1−α/2 das (1 − α/2)-Quantil der t-Verteilung mit n − 1 Freiheitsgraden ist. Hieraus folgt das Konfidenzintervall f¨ ur μ   SX SX ¯ ¯ [Iu (X), Io (X)] = X − tn−1;1−α/2 · √ , X + tn−1;1−α/2 · √ . (6.20) n n F¨ ur gleiches α und gleichen Stichprobenumfang n ist das Intervall (6.20) im allgemeinen breiter als das Intervall (6.17), da der unbekannte Parameter 2 σ 2 durch SX gesch¨ atzt werden muß, was zus¨atzliche Unsicherheit hereinbringt.

120

6. Sch¨ atzung von Parametern

Beispiel 6.4.2 (Fortsetzung von Beispiel 6.3.1). Zum Niveau 0.95 ergibt sich mit den Punktsch¨ atzungen x ¯ = 998.90 und s2 = 79.23 und t49;1−0.05/2 = 2.01 folgendes Konfidenzintervall f¨ ur den Parameter μ der Zufallsvariablen F¨ ullgewicht der Dosen“: ”  √ √ 79.23 79.23 , 998.90 + 2.01 √ 998.90 − 2.01 √ 50 50 also [996.37, 1001.43].

Descriptives

X

Mean 95% Confidence Interval for Mean

Statistic 998,9000 Lower Bound Upper Bound

Std. Error 1,2588

996,3703 1001,4297

5% Trimmed Mean 998,8222 Median Variance Std. Deviation Minimum Maximum Range Interquartile Range Skewness Kurtosis

999,5000 79,235 8,9014 980,00 1020,00 40,00 13,7500 ,175 -,147

,337 ,662

Abb. 6.2. SPSS-Output zu Beispiel 6.4.2

Mit SPSS erhalten wir die Ausgabe wie in Abbildung 6.2 angegeben, mit x¯: Mean 998.9000; s2 : Variance 79.2347 und dem Konfidenzintervall zum Niveau 0.95: 95\% CI for Mean (996.3703, 1001.4297). Konfidenzsch¨ atzung f¨ ur die Varianz σ 2 (μ unbekannt) F¨ ur das unbekannte σ 2 wird zun¨ achst die Punktsch¨atzung

6.4 Konfidenzsch¨ atzungen von Parametern

121

n

2 SX =

1  ¯ 2 (Xi − X) n − 1 i=1

bestimmt. Da die Zufallsvariable C=

n 2 1  (n − 1)SX ¯ 2 = (Xi − X) σ2 σ 2 i=1

eine χ2 -Verteilung mit (n − 1) Freiheitsgraden besitzt, werden wir das Konfidenzintervall f¨ ur σ 2 wie folgt bestimmen k¨ onnen. Zun¨achst lesen wir zu vorgegebenem α aus Tabelle B.3 Werte c1 und c2 derart ab, dass   2 (n − 1)SX α < c1 = P σ2 2 und P



2 (n − 1)SX > c2 2 σ



=

α 2

gilt (Abbildung 6.3), d.h., insgesamt gilt   2 (n − 1)SX P c1 ≤ ≤ c = 1 − α. 2 σ2

(6.21)

x cn−1;α/2

cn−1;1−α/2 Abb. 6.3. Quantile gem¨ aß Gleichung (6.21)

In unserer u ¨blichen Schreibweise sind c1 und c2 Quantile der χ2n−1 Verteilung: c1 = cn−1;α/2 und c2 = cn−1;1−α/2 . Damit hat das Konfidenzintervall f¨ ur die Varianz σ 2 zum Niveau 1 − α die Gestalt   n−1 n−1 2 2 S , S . (6.22) cn−1;1−α/2 X cn−1;α/2 X

122

6. Sch¨ atzung von Parametern

Jede konkrete Stichprobe liefert also eine Realisierung des Zufallsintervalls (6.22), so dass die Konfidenzsch¨ atzung von σ 2 in der Realisierung die Gestalt hat n   n ¯)2 ¯)2 i=1 (xi − x i=1 (xi − x , . (6.23) cn−1;1−α/2 cn−1;α/2 Beispiel 6.4.3 (Fortsetzung von Beispiel 6.3.1). F¨ ur die Varianz der Grundgesamtheit wurde aus der Stichprobe aus Beispiel 6.3.1 ein Sch¨atzwert 50 1 ¯)2 = 79.23 berechnet (vgl. SPSS-Listing in Beispiel 6.4.2). s2 = 49 i=1 (xi − x Also ist (n − 1)s2 = 49 · 79.23 = 3882.27. Zum Konfidenzniveau 1 − α = 0.95 wird c49;0.975 = 70.19 und c49;0.025 = 31.60. Diese Werte werden durch lineare Interpolation u ur ¨ ber die Freiheitsgrade aus Tabelle B.3 bestimmt; z.B. gilt f¨ den ersten Wert 40 Freiheitsgrade, c40;0.975 = 59.30 50 Freiheitsgrade, c50;0.975 = 71.40 ·9 = 70.19. Damit k¨onnen wir Formel (6.23) also c49;0.975 = 59.30+ 71.40−59.30 10 zur Berechnung des Konfidenzintervalls f¨ ur σ 2 anwenden:   3882.27 3882.27 , = [55.31, 122.86] . 70.19 31.60

6.5 Sch¨ atzen einer Binomialwahrscheinlichkeit Wir betrachten ein Zufallsexperiment mit zwei m¨oglichen Ausg¨angen: Ereig¯ Die Wahrscheinlichkeit f¨ nisse A und A. ur das Eintreten von A sei p, die Wahrscheinlichkeit f¨ ur A¯ ist dann 1 − p. Die Wahrscheinlichkeit p ist unbekannt und soll aus einer Stichprobe gesch¨ atzt werden. Ordnen wir wieder dem Ereignis A den Wert 1 und dem Ereignis A¯ den Wert 0 zu. Bei n-facher Wiederholung dieses Experiments ist die Anzahl der Versuche mit eingetretenem Ereignis A eine Zufallsvariable X, die die Werte 0, 1, . . . , n annehmen kann. X ist binomialverteilt: X ∼ B(n; p). Als Punktsch¨ atzung der unbekannten Wahrscheinlichkeit p w¨ahlen wir den ML–Sch¨atzer (vgl. Aufgabe 6.4) X . n Da X die Varianz np(1 − p) besitzt, lautet die Varianz der Sch¨atzung pˆ pˆ =

Var(ˆ p) = die durch Sp2ˆ = gesch¨atzt wird.

p(1 − p) , n

pˆ(1 − pˆ) n

6.5 Sch¨ atzen einer Binomialwahrscheinlichkeit

123

Beispiel 6.5.1. Aus der Kundendatei eines Versandhauses werden zuf¨allig n = 100 Kunden (Ziehen mit Zur¨ ucklegen) gezogen. Bei jedem Kunden wird notiert, ob er in den letzten zw¨ olf Monaten etwas bestellt hat (Ereignis A) ¯ Es sei 40-mal A und 60-mal A¯ beobachtet worden. oder nichts bestellt hat (A). Die Wahrscheinlichkeit p, dass ein zuf¨ allig gezogener Kunde in den letzten zw¨olf Monaten etwas bestellt hat, wird gesch¨ atzt als 40 = 0.4 pˆ = 100 mit einer gesch¨atzten Varianz von 0.4 · 0.6 s2pˆ = = 0.0024. 100

Konfidenzsch¨ atzung f¨ ur p H¨aufig ist man daran interessiert, ein Konfidenzintervall f¨ ur die unbekannte Wahrscheinlichkeit p zu konstruieren, das p mit vorgegebener Wahrscheinlichkeit 1 − α u ¨ berdeckt. Man kann exakte Konfidenzintervalle mit Hilfe der Tafeln der Binomialverteilung bestimmen (vgl. Vogel, 1995, Anhang 12). Ist die Bedingung np(1 − p) ≥ 9 erf¨ ullt, so kann man die N¨aherung (vgl. (5.12)) verwenden, die die Binomialverteilung durch die Normalverteilung approximiert: pˆ − p approx. Z=  ∼ N (0, 1) , pˆ(1 − pˆ)/n also gilt % $ * * pˆ(1 − pˆ) pˆ(1 − pˆ) ≈ 1 − α , (6.24) P pˆ − z1−α/2 ≤ p ≤ pˆ + z1−α/2 n n und wir erhalten das Konfidenzintervall f¨ ur p  * * pˆ(1 − pˆ) pˆ(1 − pˆ) pˆ − z1−α/2 , pˆ + z1−α/2 n n

.

Beispiel 6.5.2 (Fortsetzung von Beispiel 6.5.1). Die Sch¨atzung des Konfidenzintervalls f¨ ur die Wahrscheinlichkeit p zum Niveau 1 − α = 0.95 wird mit der obigen N¨ aherung wie folgt berechnet. Mit nˆ p(1− pˆ) = 100·0.4·0.6 = 24 > 9 ist die notwendige Voraussetzung f¨ ur die Verwendung der Normalapproximation erf¨ ullt. Wir erhalten mit z1−α/2 = z0.975 = 1.96 und pˆ = 0.4  * * 0.4 · 0.6 0.4 · 0.6 = [0.304, 0.496] 0.4 − 1.96 , 0.4 + 1.96 100 100 als Konfidenzintervall f¨ ur das unbekannte p. Mit SPSS erhalten wir (ebenfalls unter Verwendung der Normalapproximation) die Ausgabe in Abbildung 6.4.

124

6. Sch¨ atzung von Parametern

Descriptives

X

Mean 95% Confidence Interval for Mean

Statistic ,4000 Lower Bound Upper Bound

Std. Error 4,924E-02

,3023 ,4977

5% Trimmed Mean ,3889 Median Variance Std. Deviation Minimum Maximum Range Interquartile Range Skewness Kurtosis

,0000 ,242 ,4924 ,00 1,00 1,00 1,0000 ,414 -1,866

Abb. 6.4. SPSS-Output zu Beispiel 6.5.2

,241 ,478

6.6 Aufgaben und Kontrollfragen

125

6.6 Aufgaben und Kontrollfragen Aufgabe 6.1: Sei T (X) eine Sch¨ atzfunktion f¨ ur einen unbekannten Parameter θ. a) Wann ist T (X) erwartungstreu? b) Wie lautet der MSE f¨ ur erwartungstreue Sch¨atzfunktionen? c) Wann ist eine Sch¨ atzfolge konsistent f¨ ur θ? Aufgabe 6.2: Gegeben seien zwei Sch¨ atzungen T1 (X) und T2 (X) von θ. Wann heißt T1 (X) MSE-besser als T2 (X)? Aufgabe 6.3: Sei X ∼ N (μ, σ2 ) und x = (x1 , . . . , xn ) eine konkrete Stichprobe. Wie lautet a) die Punktsch¨atzung f¨ ur μ (σ 2 unbekannt)? b) die Punktsch¨atzung f¨ ur σ 2 (μ unbekannt)? c) die Konfidenzsch¨ atzung f¨ ur μ bei bekanntem bzw. bei unbekanntem σ 2 ? Aufgabe 6.4: Sei X ∼ B(n; p) eine binomialverteilte Zufallsvariable. Leiten Sie die ML–Sch¨atzung f¨ ur p her. Aufgabe 6.5: Sei X1 , . . . , Xn eine i.i.d. Stichprobe einer auf dem Intervall [0, b] gleichverteilten Zufallsvariablen X. Bestimmen Sie die ML-Sch¨atzung f¨ ur E(X) = b/2. Aufgabe 6.6: Gegeben sei eine i.i.d. Stichprobe einer P o(λ)-verteilten Zufalls¯ der ML-Sch¨ variablen X. Zeigen Sie, dass X atzer f¨ ur E(X) ist. Aufgabe 6.7: Es soll der Mittelwert μ = E(X) des normalverteilten Kopfumfangs X (in cm) bei M¨ adchengeburten gesch¨atzt werden. Dazu werden in einer Frauenklinik n Kopfumf¨ ange gemessen; es kann davon ausgegangen werden, dass es sich dabei um eine unabh¨ angige Stichprobe von X handelt. Bestimmen Sie f¨ ur folgende Situationen ein Konfidenzintervall f¨ ur μ zum Konfidenzniveau 0.99: ¯ = 42 a) n = 100; σ 2 = 16; x b) n = 30; x ¯ = 42; s2 = 14 c) Wie groß m¨ ußte der Stichprobenumfang in Teilaufgabe (a) gew¨ahlt werden, um eine Genauigkeit von 0.999 zu erreichen (z0 .9995 = 3.29)? Aufgabe 6.8: Mittels eines neuartigen Verfahrens soll die Einschaltquote bei ausgew¨ahlten Fernsehsendungen gesch¨ atzt werden. Zu diesem Zweck werden durch reine Zufallsauswahl 2500 Haushalte bestimmt, wobei in jedem Haushalt ein Ger¨ at installiert wird, das einer Zentralstelle anzeigt, wann der Fernsehapparat eingeschaltet ist. Wie groß ist die Genauigkeit, mit der die Einschaltquoten gesch¨atzt werden k¨onnen, wenn ein Konfidenzniveau von 0.95 f¨ ur die Sch¨atzung eingehalten werden soll?

126

6. Sch¨ atzung von Parametern

Aufgabe 6.9: Unter 3000 Neugeborenen wurden 1428 M¨adchen gez¨ahlt. Bestimmen Sie daraus ein Konfidenzintervall f¨ ur die Wahrscheinlichkeit p einer M¨adchengeburt zum Konfidenzniveau 0.98. Aufgabe 6.10: Eine Maschine f¨ ullt Gummib¨ archen in T¨ uten ab, die laut Aufdruck 250g F¨ ullgewicht versprechen. Wir nehmen im Folgenden an, dass das F¨ ullgewicht normalverteilt ist. Bei 16 zuf¨allig aus der Produktion herausgegriffenen T¨ uten wird ein mittleres F¨ ullgewicht von 245g und eine Stichproben–Standardabweichung von 10g festgestellt. a) Berechnen Sie ein Konfidenzintervall f¨ ur das mittlere F¨ ullgewicht zum Konfidenzniveau von 95%. b) Wenn Ihnen zus¨ atzlich bekannt w¨ are, dass die Stichprobenstreuung gleich der tats¨achlichen Streuung ist, w¨ are dann das unter a) zu berechnende Konfidenzintervall f¨ ur das mittlere F¨ ullgewicht breiter oder schmaler? Begr¨ unden Sie Ihre Antwort ohne Rechnung.

7. Pru ¨fen statistischer Hypothesen

7.1 Einleitung Im vorausgegangenen Kapitel haben wir Sch¨ atzungen f¨ ur unbekannte Parameter von Verteilungen zuf¨ alliger Variablen hergeleitet. Wir betrachten nun Annahmen (Hypothesen) u ¨ ber die nicht vollst¨andig bekannte Wahrscheinlichkeitsverteilung einer Zufallsvariablen. Diese Hypothesen betreffen die Parameter der Verteilung. Sie werden anhand von Stichproben u uft. ¨ berpr¨ Beispiel. Ein Werk produziert Waschpulver der Sorte 1kg Reinweiß“. Die ” Zufallsvariable X F¨ ullgewicht eines Pakets“ (Maßeinheit Gramm) sei nor” malverteilt mit bekannter Standardabweichung σ = 15, d. h. X ∼ N (μ, 152 ). Bei einer Qualit¨ atskontrolle soll durch eine Stichprobe die Einhaltung des Sollgewichts μ = 1000 Gramm u uft werden. ¨berpr¨ Die Pr¨ ufung einer statistischen Hypothese H0 erfolgt mit statistischen Tests. Ausgangspunkt ist die Beobachtung einer Zufallsvariablen in einer zuf¨alligen Stichprobe. Mittels der daraus gewonnenen Sch¨atzungen der unbekannten Parameter will man zu einer Aussage u urdigkeit der ¨ ber die Glaubw¨ Hypothese H0 gelangen.

7.2 Testtheorie Der statistische Test stellt eine Methode dar, Verteilungsannahmen u ¨ ber eine Zufallsvariable X anhand einer konkreten Stichprobe zu u ufen. Die ¨berpr¨ Menge aller f¨ ur die Zufallsvariable X in Frage kommenden Verteilungen wird als Hypothesenraum Ω bezeichnet. Diese Menge ist vor der Durchf¨ uhrung eines Tests festzulegen. Betrachtet man einen Hypothesenraum Ω, der nur Verteilungen einer Familie (z. B. Normalverteilungen) enth¨ alt, so ist die Festlegung von Ω ¨aquivalent zur Festlegung des Parameterraums Θ, der alle m¨oglichen Werte eines Verteilungsparameters θ ∈ Θ bzw. Parametervektors θ ∈ Θ enth¨alt (z. B. θ = μ mit Θ = R; θ = σµ2 mit Θ = R × R+ ). In diesem Fall spricht man von einem parametrischen Testproblem.

128

7. Pr¨ ufen statistischer Hypothesen

Dieses Kapitel befaßt sich mit parametrischen Testproblemen. Nichtparametrische Testprobleme werden in Kapitel 8 behandelt. Bei einem parametrischen Testproblem wird der Hypothesenraum (Parameterraum) in zwei Teilmengen aufgeteilt: die zu testende Hypothese (Nullhypothese) H0 = {θ|θ ∈ Θ0 } und die Alternative H1 = {θ|θ ∈ Θ1 }. Hierbei gilt stets Θ0 ∩ Θ1 = ∅ und (bei einem Signifikanztest) Θ0 ∪ Θ1 = Θ . Ein Test heißt Signifikanztest, wenn die Hypothese direkt an die Alternative grenzt“, d. h., wenn die minimale Distanz zwischen der Hypothese und der ” Alternative gleich Null ist (z. B. H0 : μ = μ0 gegen H1 : μ = μ0 oder H0 : σ 2 = σ02 gegen H1 : σ 2 = σ02 ). Ist der Abstand zwischen Hypothese und Alternative nicht Null, spricht man von einem Alternativtest (z. B. H0 : μ = 4 gegen H1 : μ = 5 oder H0 : σ 2 = σ02 gegen H1 : σ 2 = σ12 mit σ02 = σ12 ). Wir behandeln hier nur Signifikanztests. Die Hypothese ist die Menge der Verteilungen, die die unbekannte Ver¨ teilung der Zufallsgr¨ oße X aufgrund von sachlichen Uberlegungen enthalten soll. Mit Hilfe einer Realisation (x1 , . . . , xn ) der Zufallsvariablen X aus einer i.i.d. Stichprobe soll eine der folgenden beiden Entscheidungen getroffen werden: • H0 wird abgelehnt, • H0 wird beibehalten. Die Funktion T (X) = T (X1 , . . . , Xn ) der Stichprobenvariablen X = (X1 , . . . , Xn ) heißt Testgr¨ oße oder Pr¨ ufgr¨ oße. T (X) ist eine Zufallsvariable, deren Verteilung u ¨ ber die Stichprobenvariablen (X1 , . . . , Xn ) von der Verteilung von X abh¨ angt. F¨ ur die konkrete Stichprobe (x1 , . . . , xn ) ergibt sich t = T (x1 , . . . , xn ) als Realisation der Zufallsgr¨oße T (X). Der Wertebereich der Zufallsgr¨oße T (X) wird in folgende zwei Teilbereiche zerlegt: • kritischer Bereich oder Ablehnbereich K ¯ • Annahmebereich K. Aufgrund der Realisation (x1 , . . . , xn ) wird dann folgende Testentscheidung getroffen: • H0 ablehnen, falls T (x1 , . . . , xn ) ∈ K, ¯ • H0 nicht ablehnen, falls T (x1 , . . . , xn ) ∈ K. Bei einem Signifikanztest enth¨ alt die erste Testentscheidung H0 abzulehnen eine wesentlich sch¨ arfere Aussage als die zweite. Denn eine Stichprobe, die nicht zu einer Ablehnung von H0 f¨ uhrt, spricht nicht unbedingt gegen die Alternative, da Elemente der Alternative beliebig nahe bei Elementen der ”

7.2 Testtheorie

129

Hypothese liegen“. Eine Best¨ atigung der Hypothese H0 ist deshalb bei Signifikanztests nicht m¨ oglich. Will man eine Aussage best¨atigen, muß das Gegenteil dieser Aussage als Hypothese formuliert werden. Eine Ablehnung dieser Hypothese stellt dann die gew¨ unschte Best¨ atigung der Aussage dar. Bei der Durchf¨ uhrung eines statistischen Tests k¨onnen zwei Arten von Fehlern gemacht werden: • Die Hypothese H0 ist richtig und wird abgelehnt; diesen Fehler bezeichnet man als Fehler 1. Art. • Die Hypothese H0 wird nicht abgelehnt, obwohl sie falsch ist; dies ist der Fehler 2. Art. Insgesamt gibt es also folgende vier Situationen. H0 wird nicht abgelehnt H0 wird abgelehnt

H0 ist richtig richtige Entscheidung Fehler 1. Art

H0 ist nicht richtig Fehler 2. Art richtige Entscheidung

Bei der Konstruktion eines Tests gibt man sich f¨ ur die Wahrscheinlichkeit f¨ ur einen Fehler 1. Art eine Schranke α vor (z. B. α = 0.05), die nicht u ¨ berschritten werden darf. Diese Schranke bezeichnet man als Signifikanzniveau des Tests. Der zugeh¨ orige Test heißt dann Signifikanztest zum Niveau α oder kurz Niveau-α-Test. Der kritische Bereich K wird so konstruiert, dass die Wahrscheinlichkeit f¨ ur einen Fehler 1. Art nicht gr¨ oßer als α ist: Pθ (T (X) ∈ K) ≤ α

∀θ ∈ Θ0 .

Wird H0 abgelehnt, so gilt H1 als statistisch signifikant mit einer Irrtumswahrscheinlichkeit von h¨ ochstens α. Der Fehler 1. Art ist unter Kontrolle“. ” Ziel bei der Konstruktion eines Niveau-α-Tests ist, dass die Wahrscheinlichkeit f¨ ur einen Fehler 2. Art ¯ Pθ (T (X) ∈ K)

∀θ ∈ Θ1 ,

f¨ ur alle Verteilungen der Alternative m¨ oglichst klein ist. Die Funktion G(θ), die f¨ ur einen Test die Ablehnwahrscheinlichkeit in Abh¨angigkeit vom Parameter θ angibt, heißt G¨ utefunktion des Tests: Gθ (θ) = P (T (X) ∈ K) . In der Qualit¨atskontrolle wird statt der G¨ utefunktion die Operationscharakteristik (OC-Kurve) ¯ OC(θ) = 1 − G(θ) = Pθ (T (X) ∈ K) betrachtet. Sie gibt die Wahrscheinlichkeit f¨ ur die Nichtablehnung der Hypothese in Abh¨angigkeit vom Parameter θ an.

130

7. Pr¨ ufen statistischer Hypothesen

Definition 7.2.1. Ein Test zum Signifikanzniveau α heißt gleichm¨ aßig bester Test unter allen Tests zum Niveau α, wenn er f¨ ur alle Parameterwerte der Alternative H1 die kleinste Wahrscheinlichkeit f¨ ur den Fehler 2. Art besitzt. F¨ ur die G¨ utefunktion des gleichm¨aßig besten Tests ϕ∗ zum Niveau α gilt: Gϕ∗ (θ) ≥ Gϕ (θ) ∀θ ∈ Θ1 und ϕ ∈ Φα , wobei Φα die Klasse aller Niveau-α-Tests ist. Ein Test zum Niveau α heißt unverf¨ alscht, wenn G(θ) ≥ α

∀θ ∈ Θ1

gilt, d. h., wenn die Ablehnwahrscheinlichkeit f¨ ur alle Verteilungen der Alternative mindestens so groß ist wie f¨ ur alle Verteilungen der Hypothese. Unverf¨alschte Tests gew¨ ahrleisten, dass unter H1 die Hypothese mit gr¨oßerer Wahrscheinlichkeit abgelehnt wird als unter H0 . Wir betrachten in diesem Kapitel nur unverf¨ alschte Tests. Die Unverf¨ alschtheit wird als Minimalforderung an einen Test angesehen. Die Suche nach gleichm¨aßig besten Tests wird auf diese Klasse beschr¨ ankt. Ein Test l¨auft im allgemeinen nach folgendem Schema ab: 1. Das Vorwissen u ¨ ber die Zufallsvariable X wird durch Festlegung der Verteilungsannahme umgesetzt. Im parametrischen Fall bedeutet dies, dass der Parameterraum festgelegt wird. 2. Formulierung der Hypothese und der Alternative. 3. Vorgabe der Irrtumswahrscheinlichkeit α. 4. Konstruktion einer geeigneten Testgr¨ oße T (X) = T (X1 , . . . , Xn ) als Funktion der Stichprobenvariablen X, deren Verteilung unter der Nullhypothese vollst¨ andig bekannt sein muß. 5. Wahl des kritischen Bereichs K aus dem m¨oglichen Wertebereich von T (X) derart, dass Pθ (T (X) ∈ K) ≤ α f¨ ur alle θ ∈ Θ0 gilt. 6. Berechnung der Realisierung t = T (x1 , . . . , xn ) der Testgr¨oße T (X) anhand der konkreten Stichprobe (x1 , . . . , xn ). 7. Entscheidungsregel: Liegt der Wert t = T (x1 , . . . , xn ) f¨ ur die konkrete Stichprobe im kritischen Bereich K, so wird die Nullhypothese abgelehnt. Ist t nicht im kritischen Bereich, so wird die Nullhypothese nicht abgelehnt: t ∈ K : H0 ablehnen,

t ∈ K : H0 nicht ablehnen. Bei Hypothesen der Form H0 : θ = θ0 gegen H1 : θ = θ0 sprechen wir von alt alle von θ0 abweichenden Paramezweiseitiger Fragestellung (Θ1 enth¨ terwerte). Wir sprechen von einseitiger Fragestellung, wenn wir Hypothesen der Form H0 : θ ≥ θ0 gegen H1 : θ < θ0 bzw. H0 : θ ≤ θ0 gegen H1 : θ > θ0 testen.

7.3 Einstichprobenprobleme bei Normalverteilung

131

Beispiel. Wird bei Gl¨ uhbirnen gepr¨ uft, ob die mittlere Brenndauer μ einen Mindestsollwert erreicht, so bedeutet eine Unterschreitung des Sollwertes, ¨ dass die Gl¨ uhbirnen die geforderte Qualit¨ at nicht erreichen. Die Uberschreitung des Sollwertes dagegen hat keine negativen Folgen. Wir testen deshalb einseitig H0 : μ ≥ μ0 gegen H1 : μ < μ0 . Testentscheidung mit p–values Beim Einsatz von Statistiksoftware wie SPSS zum Pr¨ ufen von Hypothesen werden diese Schritte – insbesondere die Konstruktion des kritischen Bereichs K – nicht angezeigt. Statt dessen wird der konkrete Wert t = T (x1 , . . . , xn ) der Teststatistik T (X) und der zugeh¨ orige p-value (auch ‘significance’) ausgegeben. Der p-value der Teststatistik T (X) ist wie folgt definiert: zweiseitige Fragestellung: Pθ0 (|T (X)| > t)) = p–value einseitige Fragestellung: Pθ0 (T (X) > t)) = p–value bzw. Pθ0 (T (X) < t)) = p–value Die Testentscheidung lautet dann: H0 ablehnen, falls der p-value kleiner oder gleich dem vorgegebenem Signifikanzniveau α ist, ansonsten H0 nicht ablehnen. Ein- und Zweistichprobenprobleme Man spricht von einem Einstichprobenproblem, wenn Hypothesen u ¨ ber eine Zufallsvariable X und ihre Verteilung gepr¨ uft werden. Liegen dagegen zwei Zufallsvariablen X und Y vor, so spricht man von einem Zweistichprobenproblem, wenn die Hypothesen H0 und H1 beide Verteilungen betreffen. Seien z. B. X = (X1 , . . . , Xn1 ) und Y = (Y1 , . . . , Yn2 ) jeweils i.i.d. Stichproben von 2 unabh¨angigen Zufallsvariablen X ∼ N (μX , σX ) und Y ∼ N (μY , σY2 ), so sind Hypothesen wie H0 : μX = μY gegen H1 : μX = μY von Interesse.

7.3 Einstichprobenprobleme bei Normalverteilung 7.3.1 Pr¨ ufen des Mittelwertes bei bekannter Varianz (einfacher Gauss-Test) Wir wollen im Folgenden pr¨ ufen, ob der unbekannte Erwartungswert μ einer N (μ, σ 2 )-verteilten Zufallsvariablen X einen bestimmten Wert μ = μ0 besitzt bzw. u ¨ ber- oder unterschreitet. Dabei sei zun¨achst die Varianz σ 2 = σ02 bekannt. Der vorgegebene Wert μ0 kann beispielsweise ein Sollwert bei der Herstellung eines Produkts sein, u ¨ ber den gewisse Festlegungen oder Vermutungen vorliegen. Wir wollen diese Fragestellung ausf¨ uhrlich anhand des Testschemas demonstrieren. Die einzelnen Schritte des Testschemas sind:

132

7. Pr¨ ufen statistischer Hypothesen

1. Verteilungsannahme: Die Zufallsvariable X ist N (μ, σ02 )-verteilt mit bekannter Varianz σ02 . 2. Festlegen von H0 : F¨ ur die zweiseitige Fragestellung lautet die Nullhypour die einseitige Fragestellung lautet die Nullhypothese these H0 : μ = μ0 , f¨ H0 : μ ≤ μ0 oder H0 : μ ≥ μ0 , je nachdem welche Richtung von Interesse ist. 3. Vorgabe der Irrtumswahrscheinlichkeit α: In der Regel w¨ahlt man α = 0.05 oder α = 0.01. 4. Konstruktion der Testgr¨oße: Wir sch¨ atzen den unbekannten Erwartungswert durch das arithmetische Mittel der Stichprobenwerte (Stichprobenmittelwert) n σ2 1 H ¯ X= Xi ∼0 N (μ0 , 0 ) n i=1 n und bilden durch Standardisierung daraus die unter H0 N (0, 1)-verteilte Pr¨ ufgr¨oße ¯ − μ0 √ H0 X T (X) = n ∼ N (0, 1). σ0

5. Kritischer Bereich: Trifft bei zweiseitiger Fragestellung die Nullhypothese ¯ in der Realisierung H0 : μ = μ0 zu, so m¨ ußte auch das Stichprobenmittel X einen Wert nahe μ0 besitzen, d. h., die Realisierung t der Testgr¨oße T (X) m¨ ußte nahe Null liegen. Mit anderen Worten, der kritische Bereich K wird so gew¨ahlt, dass er alle betragsm¨ aßig großen Werte von T (X) enth¨alt, wobei die Wahrscheinlichkeitsmasse von K unter H0 gerade α ist. Bei einseitiger Fragestellung H0 : E(X) ≤ μ0 (bzw. H0 : E(X) ≥ μ0 ) sind große Abweichungen nach oben (bzw. nach unten) in K zusammengefaßt. F¨ ur die zweiseitige Fragestellung ist der kritische Bereich also K = Θ\[−k, k], wobei k so bestimmt wird, dass der Fehler 1. Art gleich α ist, d. h. Pµ0 (|T (X)| > k) = α . Man erh¨alt k = z1−α/2 , wobei z1−α/2 das (1 − α/2)-Quantil der N (0, 1)Verteilung ist. Die Werte hierzu findet man in Tabelle B.1. Es sind z. B. z1−0.05/2 = 1.96 oder z1−0.01/2 = 2.57. Wir erhalten den kritischen Bereich K als: K = (−∞, −z1−α/2 ) ∪ (z1−α/2 , ∞) . (7.1)

7.3 Einstichprobenprobleme bei Normalverteilung

133

Bei der einseitigen Fragestellung erhalten wir entsprechend im Fall H0 : μ ≤ μ0 gegen H1 : μ > μ0 den kritischen Bereich K = (z1−α , ∞) . Im umgekehrten Fall H0 : μ ≥ μ0 gegen H1 : μ < μ0 erhalten wir K = (−∞, −zα ) . Die Standardwerte f¨ ur die z–Quantile sind hierbei z1−0.05 = 1.64 und z0.05 = −1.64 = −z1−0.05 .

6. Realisierung der Testgr¨oße: Aus einer konkreten Stichprobe x1 , . . . , xn wird der Stichprobenmittelwert n

x ¯=

1 xi n i=1

und daraus die Realisierung t = T (x1 , . . . , xn ) der Testgr¨oße T (X) ermittelt t=

x ¯ − μ0 √ n. σ0

7. Testentscheidung: Bei der zweiseitigen Fragestellung wird die Nullhypothese abgelehnt, falls die Testgr¨ oße im kritischen Bereich liegt, d. h., falls |t| > z1−α/2 gilt. H0 wird nicht abgelehnt, falls umgekehrt |t| ≤ z1−α/2 gilt. Die Bereiche sind in Abbildung 7.1 dargestellt.

zα/2 = −z1−α/2

z1−α/2

Abb. 7.1. Kritischer Bereich f¨ ur den zweiseitigen einfachen Gauss-Test H0 : μ = μ0 gegen H1 : μ = μ0 . Der kritische Bereich K = (−∞, −z1−α/2 ) ∪ (z1−α/2 , ∞) besitzt unter H0 die durch die grauen Fl¨ achen dargestellte Wahrscheinlichkeitsmasse α.

Bei der einseitigen Fragestellung H0 : μ ≤ μ0 gegen H1 : μ > μ0 wird H0 genau dann abgelehnt, wenn t > z1−α gilt. Ist t > z1−α nicht erf¨ ullt, so wird H0 nicht abgelehnt (vgl. Abbildung 7.2). Bei der umgekehrt gerichteten einseitigen Fragestellung H0 : μ ≥ μ0 gegen H1 : μ < μ0 wird H0 genau dann abgelehnt, wenn t < zα = −z1−α gilt. Anderenfalls wird H0 nicht abgelehnt.

134

7. Pr¨ ufen statistischer Hypothesen

z1−α Abb. 7.2. Kritischer Bereich f¨ ur den einseitigen einfachen Gauss-Test H0 : μ ≤ μ0 gegen H1 : μ > μ0 . Der kritische Bereich K = (z1−α , ∞) besitzt unter H0 die durch die graue Fl¨ ache dargestellte Wahrscheinlichkeitsmasse α.

Beispiel 7.3.1. Die (in kg gemessene) Masse X von maschinell hergestellten Brotlaiben sei normalverteilt. Die Varianz σ02 = 0.12 sei aus Erfahrung bekannt. Das angegebene Verkaufsgewicht und damit die geforderte Mindestmasse sei μ = 2 kg. Liegt nun eine Stichprobe vom Umfang n = 20 Brotlaibe mit dem Stichprobenmittelwert x ¯ = 1.97 kg vor, so soll u uft werden, ob ¨ berpr¨ dieses Stichprobenergebnis gegen die Hypothese H0 : μ ≥ μ0 = 2 kg spricht. Wir geben eine Irrtumswahrscheinlichkeit von α = 0.05 vor. F¨ ur die einseitige Fragestellung H0 : μ ≥ 2

gegen H1 : μ < 2

verwenden wir bei vorgegebenem α = 0.05 den Wert z1−α = 1.64. F¨ ur die √ ¯ 0 n ergibt sich der Wert Realisierung t der Testgr¨ oße T (X) = X−µ σ0 t=

1.97 − 2 √ 20 = −1.34. 0.1

H0 wird nicht abgelehnt, da t = −1.34 > −1.64 = −z1−0.05 = z0.05 . Interpretation: Die in der Stichprobe beobachtete mittlere Masse x ¯ = 1.97 kg liegt zwar unter dem Sollwert von μ = 2 kg. Dieses Ergebnis widerspricht aber nicht der Hypothese, dass die Stichprobe aus einer N (2, 0.12 )-verteilten Grundgesamtheit stammt. Die Wahrscheinlichkeit, in einer Stichprobe vom Umfang n = 20 einer N (2, 0.12 )-verteilten Grundgesamtheit einen Mittelwert von h¨ochstens 1.97 zu erhalten, ist gr¨ oßer als 0.05. Das beobachtete Ergebnis spricht damit nicht gegen die Nullhypothese. Die Abweichung zwischen x ¯= 1.97 kg und dem Sollwert von μ = 2 kg ist als statistisch nicht signifikant und damit als zuf¨ allig anzusehen. Anmerkung. Dieser Test existiert nicht in SPSS, da die Situation σ02 be” kannt“ in der Praxis unrealistisch ist.

7.3 Einstichprobenprobleme bei Normalverteilung

135

7.3.2 Pr¨ ufung des Mittelwertes bei unbekannter Varianz (einfacher t-Test) Wir wollen Hypothesen u ur eine normalverteilte Zufallsvariable X ∼ ¨ ber μ f¨ N (μ, σ 2 ) in dem Fall pr¨ ufen, in dem auch die Varianz σ 2 unbekannt ist und aus der zuf¨alligen Stichprobe (X1 , . . . , Xn ) durch n

2 SX =

1  ¯ 2 (Xi − X) n − 1 i=1

gesch¨atzt werden muß. Die Testverfahren laufen analog zum vorangegangenen Abschnitt ab, allerdings ist eine andere Testgr¨ oße zu benutzen, n¨amlich T (X) =

¯ − μ0 √ X n, SX

die unter H0 eine t-Verteilung mit n − 1 Freiheitsgraden besitzt (vgl. (4.26)). Kritischer Bereich Bei der zweiseitigen Fragestellung H0 : μ = μ0 gegen H1 : μ = μ0 umfaßt der kritische Bereich wieder alle unter H0 ‘unwahrscheinlichen’ Werte: K = (−∞, −tn−1;1−α/2 ) ∪ (tn−1;1−α/2 , ∞) ,

(7.2)

wobei tn−1;1−α/2 das (1 − α/2)-Quantil der t-Verteilung mit n − 1 Freiheitsgraden ist (vgl. Tabelle B.4). Bei einseitiger Fragestellung sind die kritischen Bereiche ur H0 : μ ≤ μ0 gegen H1 : μ > μ0 , K = (tn−1;1−α , ∞) f¨ K = (−∞, −tn−1;1−α ) f¨ ur H0 : μ ≥ μ0 gegen H1 : μ < μ0 .

(7.3) (7.4)

Entscheidungsregel: Bei der zweiseitigen Fragestellung H0 : μ = μ0 gegen H1 : μ = μ0 wird H0 genau dann abgelehnt, falls |t| > tn−1;1−α/2 . Ansonsten wird H0 wird nicht abgelehnt. Bei einseitiger Fragestellung H0 : μ ≤ μ0 gegen H1 : μ > μ0 wird die Nullhypothese genau dann abgelehnt, wenn t > tn−1;1−α gilt. Bei der entgegengesetzt gerichteten einseitigen Fragestellung H0 : μ ≥ μ0 gegen H1 : μ < μ0 wird die Nullhypothese genau dann abgelehnt, wenn t < −tn−1;1−α gilt.

136

7. Pr¨ ufen statistischer Hypothesen

Beispiel 7.3.2 (Fortsetzung von Beispiel 7.3.1). Bei der Herstellung der Brotlaibe wird nun eine neue Maschine zur Portionierung der Teigmasse eingesetzt. Die Masse X der Brotlaibe sei wieder normalverteilt, die Varianz sei nun aber unbekannt. Es liegt eine zuf¨ allige Stichprobe vom Umfang n = 20 mit dem Stichprobenmittelwert x ¯ = 1.9668 und der Stichprobenvarianz s2 = 0.09272 vor. Tabelle 7.1. Masse (in kg) der Brotlaibe in Beispiel 7.3.2 1.971 1.882 2.122 1.943

1.969 2.106 1.949 1.938

2.040 1.872 1.970 2.076

1.832 1.942 1.892 1.939

1.856 2.085 2.105 1.848

Wir pr¨ ufen nun, ob dieses Stichprobenergebnis gegen die Hypothese H0 : μ = 2 spricht. Die Irrtumswahrscheinlichkeit wird wieder mit α = 0.05 vor√ ¯ 0 gegeben. F¨ ur die Realisierung t der Testgr¨ oße T (X) = X−µ n ergibt sich SX der Wert 1.9668 − 2 √ t= 20 = −1.60 . 0.0927 H0 wird nicht abgelehnt (zweiseitige Fragestellung), da |t| = 1.60 < 2.09 = t19;0.975 ist (vgl. Tabelle B.4). Mit SPSS erhalten wir die Ausgabe in Abbildung 7.3.

One-Sample Statistics

N X

20

Mean 1,96675

Std. Deviation 9,27E-02

Std. Error Mean 2,07E-02

One-Sample Test Test Value = 2

X

t -1,603

df 19

Sig. (2-tailed) ,125

95% Confidence Interval of the Difference Mean Difference Lower Upper -3,32E-02 -7,7E-02 1,02E-02

Abb. 7.3. SPSS-Output zu Beispiel 7.3.2

Hierbei ist zu beachten, dass hier automatisch die zweiseitige Fragestellung getestet wird. Der p–value (2--tailed Sig) betr¨agt 0.125 > 0.05, so dass H0 nicht abgelehnt wird.

7.3 Einstichprobenprobleme bei Normalverteilung

137

Vergleiche hierzu auch Abschnitt 7.7, in dem die Testentscheidung bei einseitiger Fragestellung unter Verwendung von Statistik Software diskutiert wird. 7.3.3 Pr¨ ufen der Varianz; χ2 -Test f¨ ur die Varianz Mittelwerttests wie die oben beschriebenen untersuchen die Lage einer Verteilung. Die Varianz σ 2 ist ein Maß f¨ ur die Streuung. Mit ihr werden z. B. in der Qualit¨atskontrolle Normbereiche wie (μ ± 2σ) oder (μ ± σ) gebildet. Ein Test f¨ ur die Varianz pr¨ uft analog zum Vorgehen bei Mittelwerttests Hypothesen u ¨ber die Varianz, um z. B. zu kontrollieren, ob eine vorgegebene Genauigkeit eingehalten wird. Zun¨achst wollen wir wieder mit der zweiseitigen Fragestellung bei normalur verteilten Zufallsgr¨ oßen beginnen. Wir pr¨ ufen die Hypothese H0 : σ 2 = σ02 f¨ 2 eine N (μ, σ )-verteilte Zufallsvariable X. Als Testgr¨oße w¨ahlen wir den (mit dem Faktor n − 1 korrigierten) Quotienten aus der Stichprobenvarianz und der in der Nullhypothese angenommenen Varianz σ02 T (X) =

2 (n − 1)SX . 2 σ0

(7.5)

Die Testgr¨oße besitzt unter H0 eine χ2 -Verteilung mit n − 1 Freiheitsgraden. Der kritische Bereich K wird mit Hilfe der in Tabelle B.3 angegebenen Quantile der χ2 -Verteilung wie folgt bestimmt. Bei zweiseitiger Fragestellung H0 : σ 2 = σ02 gegen H1 : σ 2 = σ02 wird der kritische Bereich aus zu großen und zu kleinen Werten der Testgr¨oße bestehen: K = [0, cn−1;α/2 ) ∪ (cn−1;1−α/2 , ∞) ; cn−1;α/2 und cn−1;1−α/2 sind die α/2- bzw. (1 − α/2)-Quantile der χ2 Verteilung mit n − 1 Freiheitsgraden (vgl. Abbildung 7.4).

x cn−1;α/2

cn−1;1−α/2

Abb. 7.4. Kritischer Bereich beim zweiseitigen χ2 -Test von H0 : σ 2 = σ02 gegen H1 : σ 2 = σ02 . Der kritische Bereich K = [0, cn−1;α/2 ) ∪ (cn−1;1−α/2 , ∞) besitzt unter H0 die durch die grauen Fl¨ achen dargestellte Wahrscheinlichkeitsmasse α.

138

7. Pr¨ ufen statistischer Hypothesen

Entscheidungsregel: F¨ ur die konkrete Stichprobe (x1 , . . . , xn ) ergibt sich als Wert der Testgr¨ oße n (xi − x ¯)2 . t = i=1 2 σ0 Die Nullhypothese H0 : σ 2 = σ02 wird also abgelehnt, wenn die konkrete Stichprobe (x1 , . . . , xn ) so ausf¨ allt, dass t < cn−1;α/2 oder t > cn−1;1−α/2 gilt. Bei einseitiger Fragestellung H0 : σ 2 ≤ σ02 gegen H1 : σ 2 > σ02 , die verwendet wird um zu zeigen, dass die Streuung gr¨oßer als σ02 ist, sprechen nur sehr große Werte t von T (X) f¨ ur eine Ablehnung der Nullhypothese, d. h., wir w¨ahlen K = (cn−1;1−α , ∞) und lehnen die Nullhypothese ab, falls die konkrete Stichprobe t > cn−1;1−α ergibt. Bei der umgekehrt gerichteten einseitigen Fragestellung, die verwendet wird um zu zeigen, dass die Streuung kleiner als der vorgegebene Wert σ02 ist, also H0 : σ ≥ σ02 gegen H1 : σ 2 < σ02 , sprechen nur kleine Werte der Testgr¨oße (7.5) f¨ ur eine Ablehnung, d. h., wir w¨ahlen K = [0, cn−1;α )

(7.6)

und lehnen die Nullhypothese ab, falls die konkrete Stichprobe t < cn−1;α ergibt. Anmerkung. Dieser Test ist verf¨ alscht. Um eine unverf¨aschte Version zu erhalten, m¨ ussen die Werte c so gew¨ ahlt werden, dass sie die Niveaubedingung einhalten und zugleich Stellen gleicher Dichte sind. In der Praxis werden die Werte der Einfachheit halber jedoch wie oben beschrieben symmetrisch ermittelt, indem auf beiden Seiten die Wahrscheinlichkeitsmasse α/2 abgeschnitten wird. In dem in der Praxis eher unwahrscheinlichen Fall, dass μ ¯ bekannt ist, wird der bekannte Wert bei der Berechnung von s2X anstelle x verwendet und geht damit in die Testgr¨ oße (7.5) mit ein. Dies bewirkt eine Erh¨ohung der Zahl der Freiheitsgrade von n − 1 auf n und damit einen gr¨oßeren kritischen Bereich. Die zus¨ atzliche Information erh¨oht also die G¨ ute des Tests.

7.4 Zweistichprobenprobleme bei Normalverteilung

139

Beispiel 7.3.3 (Fortsetzung von Beispiel 7.3.1). Bei Einsatz einer neuen Portionierungsmaschine wird die Masse X der produzierten Brotlaibe wieder als normalverteilt angenommen. Die Varianz ist unbekannt. Wir wollen nun u ¨berpr¨ ufen, ob die unbekannte Varianz σ 2 unter dem Erfahrungswert σ02 = 0.12 aus Beispiel 7.3.1 liegt. Um diese Aussage zu best¨atigen, wird nun das Gegenteil als statistische Hypothese formuliert. Es liegt eine neue Stichprobe vom Umfang n = 20 mit dem Stichprobenmittelwert x ¯ = 1.9886 und der Stichprobenvarianz s2 = 0.07122 vor. Wir geben eine Irrtumswahrscheinlichkeit von α = 0.05 vor. Tabelle 7.2. Masse (in kg) der n = 20 Brotlaibe aus Beispiel 7.3.3 1.966 1.965 1.997 2.074

1.962 2.019 1.924 1.960

2.012 1.815 1.877 1.962

2.114 2.085 2.026 1.980

2.059 1.980 2.051 1.945

F¨ ur die einseitige Fragestellung H0 : σ 2 ≥ 0.01 gegen H1 : σ 2 < 0.01 entnehmen wir aus Tabelle B.3  cn−1;α = c19;0.05 = 10.10. F¨ ur die Rean ¯ 2 2 lisation der Testgr¨ oße T (X) = i=1 (Xi − X) /σ0 ergibt sich der Wert t = 0.09632/0.01 = 9.632, d. h., H0 wird abgelehnt, da 9.632 < 10.10 (vgl. (7.6)). Dieser Test ist in SPSS nicht realisiert. Um zu einer mit SPSS realisierbaren Aussage zu kommen, m¨ ußten wir die Daten der alten Maschine zusammen mit denen der neuen Maschine verwenden und einen Test auf Varianzhomogenit¨at anwenden. Ein solcher Test wird im folgenden Abschnitt beschrieben. Interpretation: Durch die Ablehnung von H0 wird unsere Aussage, dass die unbekannte Varianz σ 2 unter dem Erfahrungswert σ02 = 0.12 aus Beispiel 7.3.1 liegt, mit einer Irrtumswahrscheinlichkeit von h¨ochstens 5% best¨atigt. Die neue Maschine kann also als besser (im Sinne h¨ oherer Genauigkeit) angesehen werden.

7.4 Zweistichprobenprobleme bei Normalverteilung 7.4.1 Pr¨ ufen der Gleichheit der Varianzen (F-Test) Wir wollen zwei Variablen X und Y, von denen angenommen wird, dass 2 sie unabh¨angig und jeweils normalverteilt sind (X ∼ N (μX , σX ) und Y ∼ 2 N (μY , σY )), hinsichtlich ihrer Variabilit¨ at vergleichen. Wir testen die Hy2 2 pothese H0 : σX = σY2 zweiseitig gegen die Alternative H1 : σX = σY2 bzw. 2 2 2 2 einseitig H0 : σX ≤ σY gegen H1 : σX > σY . Wir setzen eine Stichprobe (X1 , . . . , Xn1 ) vom Umfang n1 und eine (davon unabh¨angige) Stichprobe (Y1 , . . . , Yn2 ) vom Umfang n2 voraus. Die Testgr¨oße ist der Quotient der beiden Stichprobenvarianzen

140

7. Pr¨ ufen statistischer Hypothesen

T (X, Y) =

2 SX , SY2

(7.7)

der unter der Nullhypothese F -verteilt mit n1 − 1 und n2 − 1 Freiheitsgraden ist (vgl. (4.27)). Bestimmung des kritischen Bereichs 2 2 F¨ ur die zweiseitige Fragestellung H0 : σX = σY2 gegen H1 : σX = σY2 gilt: Wenn die Nullhypothese wahr ist, die beiden Varianzen also gleich groß sind, m¨ ußte die Testgr¨ oße (7.7) Werte um 1 annehmen. Damit sprechen sehr kleine und sehr große Werte der Testgr¨ oße f¨ ur eine Ablehnung der Nullhypothese. Der kritische Bereich K = [0, k1 ) ∪ (k2 , ∞) wird also aus den Beziehungen

P (T (X, Y) < k1 |H0 ) = α/2 und P (T (X, Y) > k2 |H0 ) = α/2 ermittelt. Es ergeben sich die Werte k1 = fn1 −1,n2 −1,α/2 k2 = fn1 −1,n2 −1,1−α/2 . Das untere Quantil k1 kann durch folgende Beziehung aus Tabellen abgelesen werden, die meist nur die ‘1 − α2 ’-Werte angeben: fn1 −1;n2 −1;α/2 =

1 . fn2 −1;n1 −1;1−α/2

2 2 Bei einseitiger Fragestellung H0 : σX > σY2 besteht ≤ σY2 gegen H1 : σX 2 der kritische Bereich K aus großen Werten von T (X) (SX im Z¨ahler von T ), d. h., K = (k, ∞), wobei k aus

P (T (X, Y) > k|H0 ) = α bestimmt wird. Hier ergibt sich k = fn1 −1;n2 −1;1−α . Anmerkung. Bei einseitiger Fragestellung kann darauf verzichtet werden, die 2 2 Richtung H0 : σX ≥ σY2 gegen H1 : σX < σY2 gesondert zu betrachten, da dies 2 vollkommen symmetrisch zu behandeln ist: σX ≥ σY2 entspricht genau σY2 ≤ 2 σX , d. h. es m¨ ussen nur die Variablen-Bezeichnungen X und Y vertauscht werden. Aus den konkreten Stichproben (x1 , . . . , xn1 ) und (y1 , . . . , yn2 ) berechnen n1 n2 xi und y¯ = n12 i=1 yi sowie die wir die Stichprobenmittelwerte x¯ = n11 i=1 Stichprobenvarianzen

7.4 Zweistichprobenprobleme bei Normalverteilung n

s2x =

1 1  (xi − x ¯)2 , n1 − 1 i=1

141

n

s2y =

2 1  (yi − y¯)2 n2 − 1 i=1

oße: und daraus die Realisierung der Testgr¨ t=

s2x . s2y

(7.8)

2 Entscheidungsregel: Bei der zweiseitigen Fragestellung wird H0 : σX = σY2 2 2 zugunsten von H1 : σX = σY abgelehnt, falls

t > fn1 −1;n2 −1;1−α/2

oder t < fn1 −1;n2 −1;α/2

gilt. Falls diese Bedingungen nicht erf¨ ullt sind, also fn1 −1;n2 −1;α/2 ≤ t ≤ fn1 −1;n2 −1;1−α/2

(7.9)

gilt, wird H0 nicht abgelehnt. 2 ≤ σY2 zugunsten von H1 : Bei der einseitigen Fragestellung wird H0 : σX 2 2 σX > σY abgelehnt, falls t > fn1 −1;n2 −1;1−α

(7.10)

gilt. Falls (7.10) nicht erf¨ ullt ist, kann H0 nicht abgelehnt werden. Anmerkung. Ebenso wie im vorherigen Abschnitt wird davon ausgegangen, dass die in der Praxis relevante Situation unbekannter Erwartungswerte μX und μy vorliegt. Sind diese bekannt, so werden sie bei der Ermittlung von s2X und s2Y verwendet, was wiederum eine Erh¨ohung der Freiheitsgrade von n1 − 1 auf n1 bzw. n2 − 1 auf n2 bewirkt. Die zus¨atzliche Information erh¨oht auch hier wieder die G¨ ute des Tests. Beispiel 7.4.1. Zur Erh¨ ohung der Kapazit¨ at einer Konservenfabrik wird eine zweite Maschine zur Bef¨ ullung der Konservendosen angeschafft. Die F¨ ullgewichte der Dosen X (alte Maschine) und Y (neue Maschine) seien normal2 ), Y ∼ N (μY , σY2 ). Die beiden Maverteilte Zufallsvariablen X ∼ N (μX , σX schinen arbeiten unabh¨ angig voneinander, weshalb X und Y als unabh¨angig angenommen werden k¨ onnen. Es soll u uft werden, ob die Stichproben¨berpr¨ 2 = σY2 sprechen, d. h. ob die neue ergebnisse gegen die Hypothese H0 : σX Maschine also mit anderer Genauigkeit abf¨ ullt. Die Ergebnisse der Messungen sind in Tabelle 7.3 angegeben. F¨ ur die Zufallsvariable X liegt eine Stichprobe von Umfang n1 = 20 mit dem Stichprobenmittelwert x ¯ = 1000.49 und der Stichprobenvarianz s2x = 72.38 vor. Die Stichprobe f¨ ur die Zufallsvariable Y mit dem Umfang n2 = 25 ergibt den Stichprobenmittelwert y¯ = 1000.26 und die Stichprobenvarianz s2y = 45.42. Das folgende SPSS Listing (Abbildung 7.5) gibt die Stichprobenmittelwerte und –varianzen an.

142

7. Pr¨ ufen statistischer Hypothesen

Tabelle 7.3. Daten zu Beispiel 7.4.1. F¨ ullgewichte von Dosen in Gramm: xi alte Maschine, yi neue Maschine 996.7 1002.6 998.2 989.6

1006.6 1003.9 999.6 998.8

1001.9 999.9 1006.4 1006.2 996.1

996.2 1006.1 1006.8 997.2 995.7

xi 1002.5 1013.6 988.3 1002.3 yi 989.9 990.1 993.8 1005.1 994.0

1003.6 1020.4 1000.2 989.9

998.8 1010.2 985.2 998.8

1001.4 997.5 998.3 998.3 1008.8

997.6 1001.6 1004.0 1020.2 993.3

Descriptive Statistics

N X Y Valid N (listwise)

Mean 20 1000,4900 25 1000,2560

Std. Deviation 8,5074 6,7391

Variance 72,376 45,415

20

Abb. 7.5. SPSS-Output zu Beispiel 7.4.1

Wir geben eine Irrtumswahrscheinlichkeit von α = 0.1 vor. F¨ ur die zweiseitige Fragestellung 2 H0 : σX = σY2

2 gegen H1 : σX = σY2

ist f19;24;0.95 = 2.11 (vgl. Tabelle B5, lineare Interpolation von f19;20;0.95 1 1 = 2.11 = 0.47. =2.1370 und f19;30;0.95 =1.9452) und f19;24;0.05 = f19;24;0.95 F¨ ur die Testgr¨ oße T (X, Y) = t=

2 SX 2 SY

ergibt sich der Wert

72.38 = 1.59 . 45.42

Damit wird H0 nicht abgelehnt (vgl. (7.9)), da 0.47 ≤ t ≤ 2.11. 7.4.2 Pr¨ ufen der Gleichheit der Mittelwerte zweier unabh¨ angiger normalverteilter Zufallsvariablen 2 Wir betrachten zwei normalverteilte Variablen X ∼ N (μX , σX ) und Y ∼ 2 ur die Hypothesen H0 : μX = μY gegen N (μY , σY ). Von Interesse sind Tests f¨ H1 : μX = μY (zweiseitige Fragestellung) und H0 : μX ≥ μY gegen H1 : μX < μY oder H0 : μX ≤ μY gegen H1 : μX > μY (einseitige Fragestellungen). Die Pr¨ ufverfahren werden f¨ ur die F¨ alle

7.4 Zweistichprobenprobleme bei Normalverteilung

143

2 • σX , σY2 bekannt 2 • σX , σY2 unbekannt, aber gleich 2 • σX = σY2 , beide unbekannt

entwickelt. Wir setzen dabei voraus, dass zwei unabh¨angige Stichproben (X1 , . . . , Xn1 ) und (Y1 , . . . , Yn2 ) vorliegen. Fall 1: Die Varianzen sind bekannt (doppelter Gauss-Test) Trifft die Nullhypothese H0 : μX = μY zu, so ist die Pr¨ ufgr¨oße ¯ − Y¯ √ X T (X, Y) =  n1 · n2 2 2 n1 σX + n2 σY

(7.11)

standardnormalverteilt, T (X, Y) ∼ N (0, 1). Der Test verl¨auft dann analog zum einfachen Gauss-Test (Abschnitt 7.3.1). Fall 2: Die Varianzen sind unbekannt, aber gleich (doppelter t-Test) Wir bezeichnen die unbekannte Varianz beider Verteilungen mit σ 2 . Die gemeinsame Varianz wird durch die sogenannte gepoolte Stichprobenvarianz gesch¨atzt, die beide Stichproben mit einem Gewicht relativ zu ihrer Gr¨oße verwendet: 2 (n1 − 1)SX + (n2 − 1)SY2 S2 = . (7.12) n1 + n2 − 2 Die Pr¨ ufgr¨oße

¯ − Y¯ * n1 · n2 X T (X, Y) = , S n1 + n2

(7.13)

mit S aus (7.12) besitzt unter H0 eine Student’sche t-Verteilung mit n1 +n2 −2 Freiheitsgraden. Das Testverfahren l¨ auft wie in Abschnitt 7.3.2. Beispiel 7.4.2. Die Brenndauer von Gl¨ uhbirnen zweier verschiedener Typen sei jeweils normalverteilt und beide Typen besitzen die gleiche Varianz. Die Zuvallsvariablen X bzw. Y bezeichnen die Brenndauer der Gl¨ uhbirnen der beiden Typen. Die beiden normalverteilten Zufallsvariablen X ∼ N (μX , σ 2 ) und Y ∼ N (μY , σ 2 ) k¨ onnen als unabh¨ angig voneinander vorausgesetzt werden. Eine Stichprobe (vgl. Tabelle 7.4) vom Umfang n1 = 25 f¨ ur X liefert den Stichprobenmittelwert x¯ = 5996.64 und die Stichprobenvarianz s2x = 65.2212. Die Stichprobe f¨ ur Y mit dem Stichprobenumfang n2 = 22 ergibt einen Stichprobenmittelwert von y¯ = 6125.545 und eine Stichprobenvarianz s2y = 56.9432. Wir wollen pr¨ ufen, ob diese Stichprobenergebnisse gegen die Hypothese H0 : μX = μY (gleiche mittlere Brenndauern) sprechen. Als Irrtumswahrscheinlichkeit geben wir α = 0.05 vor.

144

7. Pr¨ ufen statistischer Hypothesen

Tabelle 7.4. Daten zu Beispiel 7.4.2. Brenndauer (in Stunden) von Gl¨ uhbirnen zweier Typen 5958 6032 5904 5934 6000

6046 6016 5997 5927 5999

6149 6155 6226 6094 6082

6107 6102 6150 6131 6157

xi 6073 5965 5987 5974 6124 yi 6121 6088 6180 6095 6224

6034 6074 6012 6032 5811

5918 5980 6034 6050 6035

6129 6059 6137 6015 6038

6094 6229

2 Wir pr¨ ufen zun¨ achst die Annahme gleicher Varianzen: H0 : σX = σY2 gegen 2 2 H1 : σX = σY . Mit (7.8) und (7.10), d. h.,

f24,21;0.025 = 0.433 < t =

65.2212 s2X = = 1.312 < 2.37 = f24,21;0.975 , s2Y 56.9432

wird H0 nicht abgelehnt, die Annahme gleicher Varianzen wird also nicht widerlegt (die Quantile wurden per Computer berechnet). Anmerkung. SPSS verwendet einen anderen Test, den Levene Test, der robuster gegen Abweichungen von der Normalverteilung ist. Dieser Test ergibt einen p-value von 0.695, womit H0 ebenfalls nicht ablehnt wird (vgl. SPSS Listing in Abbildung 7.6). Wir sch¨atzen zun¨ achst die gemeinsame Varianz σ 2 mit (7.12): (n1 − 1)s2x + (n2 − 1)s2y n1 + n2 − 2 24 · 65.2212 + 21 · 56.9432 = = 3781.851 = 61.5002 . 45

s2 =

F¨ ur α = 0.05 und die zweiseitige Fragestellung H0 : μX = μY

gegen H1 : μX = μY

ist t45;0.975 = 2.01. F¨ ur die Realisierung t der Testgr¨oße T (X, Y) (7.13) ergibt sich der Wert * 5996.64 − 6125.545 25 · 22 t= = −7.17 . 61.500 25 + 22 Damit wird H0 abgelehnt, da |t| = | − 7.17| > 2.01 = t45;0.975 (vgl. (7.2)). Die Berechnung der Stichprobenmittelwerte, der Stichprobenvarianzen und des t-Tests mit SPSS ergibt das Listing in Abbildung 7.6:

7.4 Zweistichprobenprobleme bei Normalverteilung

145

Group Statistics

Brenndauer

TYP X Y

N

Mean 25 5996,6400 22 6125,5455

Std. Deviation 65,2207 56,9425

Std. Error Mean 13,0441 12,1402

Independent Samples Test Levene’s Test for Equality of Variances F Equal variances assumed Equal variances not assumed

,156

Sig. ,695

t

t-test for Equality of Means Sig. Mean df (2-tailed) Difference

Std. Error Difference

-7,171

45

,000

-128,9055

17,9770

-7,234

44,999

,000

-128,9055

17,8195

Abb. 7.6. SPSS-Output zu Beispiel 7.4.2

Fall 3: Die Varianzen sind unbekannt und ungleich (Welch-Test) Wir pr¨ ufen H0 : μX = μY gegen die Alternative H1 : μX = μY f¨ ur den Fall 2 σX = σY2 . Dies ist das sogenannte Behrens-Fisher-Problem, f¨ ur das es keine exakte L¨osung gibt. F¨ ur praktische Zwecke wird als N¨aherungsl¨osung folgende Testgr¨oße empfohlen (vgl. Sachs, 1978): ' ' 'X ¯ − Y¯ ' , (7.14) T (X, Y) = # 2 2 SX SY + n1 n2 die t-verteilt ist mit ann¨ ahernd v Freiheitsgraden (v wird ganzzahlig gerundet): %2 $  $  2 2 % 2 s2y sy /n2 s2x /n1 s2x . (7.15) + / + v= n1 n2 n1 − 1 n2 − 1

Der Test verl¨auft dann wie in Abschnitt 7.3.2. Anmerkung. SPSS gibt beim doppelten t-Test sowohl die Teststatistik f¨ ur den Fall gleicher Varianzen als auch f¨ ur den Fall ungleicher Varianzen aus (vgl. Listing zu Beispiel 7.4.2: Variances Equal, Unequal). 7.4.3 Pr¨ ufen der Gleichheit der Mittelwerte aus einer verbundenen Stichprobe (paired t-Test) Wie oben betrachten wir wieder zwei stetige Zufallsvariablen X mit E(X) = μX und Y mit E(Y ) = μY . Die Annahme der Unabh¨angigkeit der beiden Variablen wird nun aufgegeben, die beiden Variablen werden als abh¨angig

146

7. Pr¨ ufen statistischer Hypothesen

angenommen. Diese Abh¨ angigkeit kann in der Praxis beispielsweise dadurch entstehen, dass an einem Objekt zwei Merkmale gleichzeitig beobachtet werden oder ein Merkmal an einem Objekt zu verschiedenen Zeitpunkten beobachtet wird. Man spricht dann von einer gepaarten oder verbundenen Stichprobe oder von einem matched-pair Design. Da beide Zufallsvariablen zum selben Objekt geh¨oren ergibt das Bilden einer Differenz einen Sinn. Mit D = X − Y bezeichnen wir die Zufallsvariable Differenz von X und Y “. Unter H0 : μX = μY ist die erwartete Differenz ” gleich Null, es gilt E(D) = μD = 0. Wir setzen voraus, dass D unter H0 : 2 μX = μY bzw. H0 : μD = 0 normalverteilt ist, d. h., dass D ∼ N (0, σD ) gilt. Es liege eine Stichprobe (D1 , . . . , Dn ) vor. Dann ist T (X, Y) = T (D) =

¯ √ D n SD

(7.16)

t-verteilt mit n − 1 Freiheitsgraden. Dabei ist n ¯ 2 (Di − D) 2 SD = i=1 n−1 2 eine Sch¨atzung f¨ ur σD . Der Test der zweiseitigen Fragestellung H0 : μD = 0 gegen die Alternative H1 : μD = 0 bzw. der einseitigen Fragestellungen H0 : μD ≤ 0 gegen H1 : μD > 0 oder H0 : μD ≥ 0 gegen H1 : μD < 0 erfolgt analog zu Abschnitt 7.3.2.

Anmerkung. Im Vergleich zum Verfahren aus Abschnitt 7.3.2 zum Pr¨ ufen der Mittelwerte zweier unabh¨ angiger Normalverteilungen sind beim Test auf gleichen Mittelwert verbundener Stichproben die Voraussetzungen weitaus schw¨acher. Gefordert wird, dass die Differenz beider Zufallsvariablen normalverteilt ist, die beiden stetigen Variablen selbst m¨ ussen also nicht notwendig normalverteilt sein. Beispiel 7.4.3. In einem Versuch soll die leistungssteigernde Wirkung von Koffein gepr¨ uft werden. Mit Y bzw. X bezeichnen wir die Zufallsvariablen Punktwert vor bzw. nach dem Trinken von starkem Kaffee“, die an n = 10 ” Studenten gemessen wurden. Aus den Daten in Tabelle 7.5 erhalten wir d¯ = 1 , 8 s2d = = 0.9432 . 9 Damit ergibt sich f¨ ur die Pr¨ ufgr¨ oße t bei α = 0.05 t=

1 √ 10 = 3.35 > t9;0.95 = 1.83 , 0.943

so dass H0 : μX ≤ μY zugunsten von H1 : μX > μY abgelehnt wird. Die Leistungen nach dem Genuß von Kaffee sind signifikant besser.

7.5 Pr¨ ufen der Korrelation zweier Normalverteilungen

147

Tabelle 7.5. Paarweise Daten xi , yi und Differenzen di aus Beispiel 7.4.3 ¯2 i yi xi di = xi − yi (di − d) 1 4 5 1 0 2 3 4 1 0 3 5 6 1 0 4 6 7 1 0 5 7 8 1 0 6 6 7 1 0 7 4 5 1 0 8 7 8 1 0 9 6 5 -1 4 10 2 5 3 4 P 10 8

Mit SPSS erhalten wir wie bereits erw¨ ahnt immer den zweiseitigen Test, so dass wir den p-value halbieren m¨ ussen. Wir verweisen an dieser Stelle wieder auf Abschnitt 7.7, in dem dieser Zusammenhang detailliert erl¨autert wird. In der SPSS Ausgabe ist zus¨ atzlich auch der Test zum Pr¨ ufen der Korrelation (Corr .832 mit 2-tail Sig .003) angegeben, der im n¨achsten Abschnitt besprochen wird. Paired Samples Statistics

Pair 1

Mean 5,0000 6,0000

X Y

N 10 10

Std. Deviation 1,6997 1,4142

Std. Error Mean ,5375 ,4472

Paired Samples Correlations N Pair 1

X&Y

10

Correlation ,832

Sig. ,003

Paired Samples Test

Pair 1

X-Y

Paired Differences Std. Std. Error Mean Deviation Mean -1,0000 ,9428 ,2981

t -3,354

df 9

Sig. (2-tailed) ,008

Abb. 7.7. SPSS-Output zu Beispiel 7.4.3

7.5 Pru ¨ fen der Korrelation zweier Normalverteilungen Wir haben zwei verbundene Stichproben, die wir als Realisation der Zufallsvariablen (X, Y ) auffassen k¨ onnen, die eine zweidimensionale Normalverteilung

148

7. Pr¨ ufen statistischer Hypothesen

besitzt. Wir wollen nun u ufen, ob die beiden Zufallsvariablen X und Y ¨berpr¨ unkorreliert sind oder ob zwischen ihnen ein linearer Zusammenhang besteht. Der Zusammenhang zwischen X und Y wird durch den Korrelationskoeffizienten ρ beschrieben. Der Test auf Unkorreliertheit (bei Normalverteilung gleichwertig mit Unabh¨ angigkeit) pr¨ uft die Nullhypothese H0 : ρ = 0 gegen die Alternative H1 : ρ = 0. Ist man an der Richtung des Zusammenhangs interessiert, so w¨ ahlt man die einseitige Fragestellung H0 : ρ ≤ 0 gegen H1 : ρ > 0 f¨ ur die positive Korrelation, die umgekehrte Fragestellung f¨ ur die negative Korrelation. Der Test basiert auf dem Korrelationskoeffizienten der Stichprobe (X1 , Y1 ), . . . , (Xn , Yn )  ¯ i − Y¯ ) (Xi − X)(Y SXY . (7.17) = √ R(X, Y) =   2 2 ¯ SXX SY Y (Xi − X) (Yi − Y¯ ) Die Testgr¨oße hat die Gestalt

T (X, Y) = R(X, Y) ·

+

n−2 1 − R(X, Y)2

(7.18)

und besitzt unter H0 eine t-Verteilung mit n − 2 Freiheitsgraden.

Entscheidungsregel: F¨ ur die zweiseitige Fragestellung, H0 : ρ = 0 gegen H1 : ρ = 0 wird H0 f¨ ur |t| > tn−2;1−α/2 abgelehnt. Der kritische Bereich ist wie in (7.2) definiert, wobei jedoch die ge¨ anderte Zahl der Freiheitsgrade beachtet werden muß. Bei der einseitigen Fragestellung H0 : ρ ≥ 0 gegen H1 : ρ < 0 f¨ uhrt t < −tn−2;1−α zur Ablehnung von H0 (vgl. (7.3)). Bei der umgekehrt gerichteten einseitigen Fragestellung H0 : ρ ≤ 0 gegen H1 : ρ > 0 wird f¨ ur t > tn−2;1−α H0 abgelehnt (vgl. (7.4)). Beispiel 7.5.1. Bei Studenten der Wirtschaftswissenschaften soll der Zusammenhang der beiden Zufallsvariablen X: Leistung im Seminar“ und Y : Lei” ” stung im Praktikum“ untersucht werden, wobei auf einer Punkte-Skala mit einer Nachkommastelle bewertet und n¨ aherungsweise von einer zweidimensionalen Normalverteilung ausgegangen wird. Eine Stichprobe von n = 26 Studenten ergibt die Werte in Tabelle 7.6. Aus den Daten berechnen wir x ¯ = 27.35 und y¯ = 32.58 und damit n (xi − x¯)(yi − y¯) = 0.821 , r = n i=1 n ¯)2 i=1 (yi − y¯)2 i=1 (xi − x

womit wir (7.18) als

*

n−2 = 7.045 1 − r2 erhalten. Da t > t24;1−0.05/2 = 2.07, lehnen wir H0 : ρ = 0 gegen H1 : ρ = 0 ab. Der lineare Zusammenhang zwischen Leistung im Seminar“ und Leistung ” ” im Praktikum“ ist signifikant auf dem 5%-Niveau. t=r

7.6 Pr¨ ufen von Hypothesen u ¨ ber Binomialverteilungen

149

Tabelle 7.6. Daten zu Beispiel 7.5.1; Leistungen im Seminar und im Praktikum i 1 2 3 4 5 6 7 8 9 10 11 12 13

xi 30.2 32.2 37.1 24.2 19.5 35.1 29.3 28.3 31.3 29.3 45.9 30.2 26.3

yi 35.1 56.6 37.1 24.4 17.6 38.0 37.1 32.2 27.3 38.0 59.9 38.0 36.1

i 14 15 16 17 18 19 20 21 22 23 24 25 26

xi 26.3 29.3 27.3 34.1 19.5 33.2 21.5 16.6 24.4 37.1 9.8 15.6 17.6

yi 32.2 35.1 34.1 35.1 25.4 35.1 25.4 19.5 27.3 38.0 8.8 33.2 20.5

Mit SPSS erhalten wir den Stichprobenkorrelationskoeffizienten ρ = 0.8210 und den zugeh¨ origen p–value 0.000 (Sig 2–tailed) f¨ ur die zweiseitige Fragestellung. Die Anordnung der Ergebnisse in einer Matrix ergibt sich dadurch, dass diese SPSS-Prozedur bei mehr als zwei Variablen automatisch alle zweiseitigen Tests durchf¨ uhrt.

Correlations

Pearson Correlation Sig. (2-tailed) N

X Y X Y X Y

X 1,000 ,821 , ,000 26 26

Y ,821 1,000 ,000 , 26 26

Abb. 7.8. SPSS–Output zu Beispiel 7.5.1

7.6 Pru ¨ fen von Hypothesen u ¨ ber Binomialverteilungen 7.6.1 Pr¨ ufen der Wahrscheinlichkeit f¨ ur das Auftreten eines Ereignisses (Binomialtest f¨ ur p) Wir betrachten eine Zufallsvariable X mit zwei Auspr¨agungen 1 und 0, die f¨ ur das Eintreten bzw. Nichteintreten eines Ereignisses A stehen. Die Wahrscheinlichkeit f¨ ur das Eintreten von A in der Grundgesamtheit sei p. Aus einer

150

7. Pr¨ ufen statistischer Hypothesen

Stichprobe X = (X1 , . . . , Xn ) von unabh¨ angigen B(1; p)-verteilten Zufallsva riablen Xi bilden wir die erwartungstreue Sch¨atzfunktion pˆ = n1 ni=1 Xi (relative H¨aufigkeit). Wir testen die Hypothese H0 : p = p0 gegen H1 : p = p0 (bzw. H0 : p ≤ p0 gegen H1 : p > p0 oder H0 : p ≥ p0 gegen H1 : p < p0 ). Unter H0 : p = p0 gilt Var(ˆ p) = n1 p0 (1 − p0 ). Also ist die folgende Variable unter H0 standardisiert: √ pˆ − p0 T (X) =  n. p0 (1 − p0 )

(7.19)

F¨ ur hinreichend großes n (np(1 − p) ≥ 9) kann die Binomialverteilung durch die Normalverteilung approximiert werden, so dass dann approximativ T (X) ∼ N (0, 1) gilt. Der Test der Nullhypothese H0 : p = p0 verl¨auft damit wie in Abschnitt 7.3.1. F¨ ur kleine Stichproben werden die Testgr¨ oße T (X) =

n 

Xi

(7.20)

i=1

(absolute H¨aufigkeit) und die Quantile der Binomialverteilung verwendet. F¨ ur die zweiseitige Fragestellung wird der kritische Bereich K = {0, 1, . . . , ku − 1} ∪ {ko + 1, . . . , n} aus der Bedingung Pp0 (T (X) < ku ) + Pp0 (T (X) > ko ) ≤ α bestimmt, wobei die Aufteilung der Wahrscheinlichkeitsmasse α auf die zwei Teilmengen von K gem¨ aß Pp0 (T (X) < ku ) ≤ α/2 Pp0 (T (X) > ko ) ≤ α/2

(7.21) (7.22)

erfolgt. Aus Gleichung (7.21) ergibt sich ku als gr¨oßte ganze Zahl, die k u −1   n i Pp0 (T (X) < ku ) = p0 (1 − p0 )n−i ≤ α/2 (7.23) i i=0 erf¨ ullt. ko wird analog als kleinste ganze Zahl bestimmt, die (7.22) erf¨ ullt:   n  n i (7.24) Pp0 (T (X) > ko ) = p (1 − p0 )n−i ≤ α/2 i 0 i=ko +1

F¨ ur die einseitige Fragestellung H0 : p ≤ p0 gegen H1 : p > p0 wird K = {k + 1, . . . , n} in analoger Weise aus der folgenden Forderung bestimmt: Pp0 (T (X) > k) ≤ α . F¨ ur die einseitige Fragestellung H0 : p ≥ p0 gegen H1 : p < p0 gilt schießlich K = {0, . . . , k} mit k gem¨ aß Pp0 (T (X) < k) ≤ α .

7.6 Pr¨ ufen von Hypothesen u ¨ ber Binomialverteilungen

151

Anmerkung. Hierbei tritt im Gegensatz zu stetigen Verteilungen jeweils das Problem auf, dass das vorgegebene Niveau α nicht immer voll ausgesch¨opft werden kann. Eine m¨ ogliche L¨ osung liegt in randomisierten Tests (vgl. R¨ uger, 1996). Beispiel 7.6.1. Einem Versandhaus ist aus Erfahrung bekannt, dass bei 20% der Kunden, die ihre Ware in Raten bezahlen, Schwierigkeiten auftreten. Das Ereignis A Kunde zahlt seine Raten nicht ordnungsgem¨aß“ tritt mit einer ” Wahrscheinlichkeit von p0 = 0.2 ein. Aus der Kundendatei der Ratenzahler wird zuf¨allig (mit Zur¨ ucklegen) eine Stichprobe vom Umfang n = 100 gezogen. Die Anzahl des Auftretens von Ereignis A in der Stichprobe ist eine B(n; p)-verteilte Zufallsvariable. In der Stichprobe wird 25mal das Ereignis A und 75mal A¯ (Kunde zahlt die Raten ordnungsgem¨aß) beobachtet. Es soll 25 gegen gepr¨ uft werden, ob die damit gesch¨ atzte Wahrscheinlichkeit pˆ = 100 ochstens 20% der Kunden treten die Hypothese H0 : p ≤ p0 spricht (bei h¨ Schwierigkeiten auf). Wir geben eine Irrtumswahrscheinlichkeit von α = 0.05 vor. F¨ ur die einseitige Fragestellung H0 : p ≤ p 0

gegen H1 : p > p0

ergibt sich f¨ ur die Testgr¨ oße T (X) (vgl. (7.20)) der Wert t = 25. Zur exakten Berechnung des kritischen Bereichs bestimmen wir die Wahrscheinlichkeiten   n l Pp0 (t = l) = p (1 − p0 )n−l l 0 und die kumulierten Wahrscheinlichkeiten Pp0 (t ≤ l) =

l    n i p0 (1 − p0 )n−i , i i=0

die in Tablelle 7.7 angegeben sind. Wir erhalten k = 27, da P (t > 27) = 1−P (t ≤ 27) = 1−0.9658484 ≤ 0.05. Der beobachtete Wert 25 liegt nicht in K = {k + 1, . . . , n} = {28, . . . , 100}, so dass H0 hier nicht abgelehnt wird. Da np0 (1 − p0 ) = 0.2 · 0.8 · 100 = 16 > 9 gilt, kann die Binomialverteilung durch die Normalverteilung approximiert werden. Die Berechnung der Testgr¨oße T (X) gem¨ aß (7.19) liefert den Wert 0.25 − 0.2 √ 100 = 1.25 . t= √ 0.2 · 0.8 H0 wird also ebenfalls nicht abgelehnt, da 1.25 < 1.64 = z1−0.05 . Interpretation: Die alten Erfahrungswerte sind weiterhin g¨ ultig, es liegt kein signifikant h¨oherer Anteil an s¨ aumigen Ratenzahlern vor.

152

7. Pr¨ ufen statistischer Hypothesen

Tabelle 7.7. Wahrscheinlichkeiten Pp0 (t = l) und kum. Wahrscheinlichkeiten Pp0 (t ≤ l) f¨ ur Beispiel 7.6.1 l 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

Pp0 (t = l) 0.0000000 0.0000000 0.0000001 0.0000005 0.0000031 0.0000150 0.0000593 0.0001990 0.0005784 0.0014782 0.0033628 0.0068785 0.0127539 0.0215835 0.0335315 0.0480618 0.0638321 0.0788514 0.0908981 0.0980743 0.0993002 0.0945716 0.0848995

Pp0 (t ≤ l) 0.0000000 0.0000000 0.0000001 0.0000006 0.0000037 0.0000187 0.0000780 0.0002770 0.0008554 0.0023336 0.0056964 0.0125749 0.0253288 0.0469122 0.0804437 0.1285055 0.1923376 0.2711890 0.3620871 0.4601614 0.5594616 0.6540332 0.7389328

l 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

Pp0 (t = l) 0.0719800 0.0577340 0.0438778 0.0316427 0.0216811 0.0141314 0.0087712 0.0051896 0.0029296 0.0015793 0.0008136 0.0004008 0.0001889 0.0000853 0.0000369 0.0000153 0.0000061 0.0000023 0.0000008 0.0000003 0.0000001 0.0000000 0.0000000

Pp0 (t ≤ l) 0.8109128 0.8686468 0.9125246 0.9441673 0.9658484 0.9799798 0.9887510 0.9939407 0.9968703 0.9984496 0.9992631 0.9996639 0.9998529 0.9999381 0.9999750 0.9999903 0.9999964 0.9999987 0.9999996 0.9999999 1.0000000 1.0000000 1.0000000

7.6.2 Pr¨ ufen der Gleichheit zweier Binomialwahrscheinlichkeiten Wir betrachten wieder das obige Zufallsexperiment, jedoch nun als Zweistichprobenproblem mit zwei unabh¨ angigen Stichproben X = (X1 , . . . , Xn1 ) bzw. Y = (Y1 , . . . , Yn2 ). Xi bzw. Y sind B(1; p1 )- bzw. B(1; p 2 )-verteilte Zufallsvan1 i n2 riablen. Damit ist X = i=1 Xi ∼ B(n1 ; p1 ) und Y = i=1 Yi ∼ B(n2 ; p2 ). ufen und bilden dazu die Wir wollen die Hypothese H0 : p1 = p2 = p pr¨ Differenz D = nX1 − nY2 . F¨ ur hinreichend großes n1 und n2 sind nX1 und nY2 n¨aherungsweise normalverteilt:   p1 (1 − p1 ) X approx. ∼ N p1 , , n1 n1   Y approx. p2 (1 − p2 ) ∼ N p2 , , n2 n2 so dass unter H0 D

approx.



   1 1 N 0, p(1 − p) + n1 n2

gilt. Die unter H0 in beiden Verteilungen identische Wahrscheinlichkeit p wird durch die Sch¨atzfunktion

7.6 Pr¨ ufen von Hypothesen u ¨ ber Binomialverteilungen

pˆ =

X +Y n1 + n2

153

(7.25)

erwartungstreu gesch¨ atzt. Dann erhalten wir folgende Teststatistik D T (X, Y) = *  pˆ(1 − pˆ) n11 +

1 n2

,

(7.26)

die f¨ ur große n1 , n2 n¨ aherungsweise N (0, 1)-verteilt ist. Der Test f¨ ur die einund zweiseitigen Fragestellungen verl¨ auft wie im Abschnitt 7.3.1. Beispiel 7.6.2 (Fortsetzung von Beispiel 7.6.1). Das Versandhaus kauft die beiden Konkurrenzunternehmen Erwin-Versand und Hugo-Versand auf. Es liegen zwei unabh¨ angige Stichproben (Ziehen mit Zur¨ ucklegen) vom Umfang n1 = 200 bzw. n2 = 250 aus den jeweiligen Kundendateien vor. In der Stichprobe des Erwin-Versands wird 35mal das Ereignis A beobachtet. 65mal tritt das Ereignis A in der Stichprobe des Hugo-Versands auf. X bzw. Y bezeichnen die Anzahl des Auftretens von Ereignis A in der Stichprobe 1 (Erwin-Versand) bzw. Stichprobe 2 (Hugo-Versand). X ist eine B(n1 ; p1 )verteilte und Y eine B(n2 ; p2 )-verteilte Zufallsvariable. Wir wollen pr¨ ufen, ob die Auftretenswahrscheinlichkeit f¨ ur Ereignis A in beiden Versandh¨ausern gleich groß ist, d. h., wir testen zweiseitig H0 : p1 = p2 = p gegen H1 : p1 = p2 . Die Irrtumswahrscheinlichkeit wird wieder mit α = 0.05 vorgegeben. Die gesch¨atzten Wahrscheinlichkeiten f¨ ur das Ereignis A sind pˆ1 = 35/200 = 0.175 (Erwin-Versand) und pˆ2 = 65/250 = 0.260 (Hugo-Versand), ihre Differenz ist also d = 0.175 − 0.260 = −0.085. F¨ ur die Sch¨atzung der unter H0 in beiden Verteilungen identischen Wahrscheinlichkeit p ergibt sich gem¨aß (7.25) der Wert pˆ =

100 35 + 65 = = 0.222. 200 + 250 450

F¨ ur die zweiseitige Fragestellung ergibt sich f¨ ur die Testgr¨oße T (X, Y) der Wert −0.085 t= #  1  = −2.16. 1 0.222(1 − 0.222) 200 + 250 H0 wird abgelehnt, da |t| = 2.16 > 1.96 = z1−0.05/2 . 7.6.3 Exakter Test von Fisher Wir betrachten die gleiche Situation wie im letzten Abschnitt (Zweistichprobenproblem), jedoch mit der Einschr¨ ankung, dass die Stichprobenumf¨ange n1 und n2 klein sind und deshalb approximative Verfahren nicht angewendet werden k¨onnen. Von Interesse sind die Wahrscheinlichkeiten p1 = P (Xi = 1)

154

7. Pr¨ ufen statistischer Hypothesen

und p2 = P (Yi = 1) sowie der Test f¨ ur die Hypothese H0 : p1 = p2 = p gegen die Alternative H1 : p1 = p2 . Konstruktion einer Testgr¨ oße verwenden wir die Zufallsvariablen X = nZur n2 1 i=1 Xi und Y = i=1 Yi sowie die bedingte Verteilung von X gegeben X + Y , die unter H0 durch P (X = t1 |X + Y = t1 + t2 = t) P (X = t1 )P (Y = t − t1 ) = P (X + Y = t)   t−t n1  t n1 −t1 n2 1 1 (1 − p)n2 −(t−t1 ) t1 p (1 − p) t−t1 p n1 +n2  = pt (1 − p)n1 +n2 −t   t n1 n2 t1 t − t1  =  n1 + n2 t

(7.27)

gegeben ist. Unter H0 ist die bedingte Verteilung von X gegeben X + Y also die hypergeometrische Verteilung H(n1 + n2 , n1 , t) und damit unabh¨angig vom unbekannten p. Der kritische Bereich K = {0, . . . , ku − 1} ∪ {ko + 1, . . . , t} wird dann gem¨aß (7.27) aus P (X > ko |X + Y = t) ≤ α/2 und P (X < ku |X + Y = t) ≤ α/2 so bestimmt, dass ku und ko die gr¨ oßte bzw. kleinste ganze Zahl ist, die die jeweilige Niveaubedingung einh¨ alt (Vorgehensweise analog zur Bestimmung der kritischen Werte in Abschnitt 7.6.1). Auch hier gilt, dass der Test das Niveau α nicht immer ganz aussch¨ opft (vgl. R¨ uger, 1996). Beispiel 7.6.3. Zwei Strategien A und B werden danach beurteilt, ob sie zu Erfolg oder Nichterfolg f¨ uhren. Mit p1 bezeichnen wir die Wahrscheinlichkeit P (Xi = 1) f¨ ur Erfolg unter Strategie A, mit p2 bezeichnen wir die Wahrscheinlichkeit P (Yi = 1) f¨ ur Erfolg unter Strategie B. Wir wollen pr¨ ufen, ob sich die beiden Strategien A und B hinsichtlich ihrer Erfolgsquote signifikant unterscheiden, d. h., wir pr¨ ufen die Hypothese H0 : p1 = p2 = p gegen die Alternative H1 : p1 = p2 . Wir setzen das Signifikanzniveau als α = 0.05 fest. In der folgenden Tabelle sind die Ergebnisse des Zufallsexperiments angegeben. Strategie A Strategie B

Erfolge 8 5 13

Mißerfolge 3 3 6

n1 = 11 n2 = 8 n1 + n2 = 19

7.6 Pr¨ ufen von Hypothesen u ¨ ber Binomialverteilungen

155

Wir haben n1 = 11, n2 = 8, t1 = 8, t2 = 5 und damit n = n1 + n2 = 19 und t = t1 + t2 = 13. Die bedingte Verteilung von X unter der Bedingung X + Y = t ist die hypergeometrische Verteilung H(19, 11, 13). Wir berechnen k 0 1 2 3 4 5 6 7 8 9 10 11 12 13

P (X = k|X ⎫ + Y = 13) 0.00000 ⎪ ⎪ ⎪ 0.00000 ⎪ ⎪ ⎪ ⎬ 0.00000 = 0.01703 < α/2 0.00000 ⎪ ⎪ ⎪ 0.00000 ⎪ ⎪ ⎪ ⎭ 0.01703 0.13622 ku 0.34056 0.34056 0.14190 ⎫ko 0.02270 ⎪ ⎪ ⎬ 0.00103 = 0.02373 < α/2 0.00000 ⎪ ⎪ ⎭ 0.00000

Daraus erhalten wir K = {0, . . . , ku − 1} ∪ {ko + 1, . . . , t} = {0, . . . , 5} ∪ {10, . . . , 13}, so dass H0 wegen X = 8 ∈ K nicht abgelehnt wird. Beide Strategien k¨onnen als gleich gut angesehen werden. Anmerkung. Die bedingten Wahrscheinlichkeiten P (X = 0|X + Y = 13), . . ., P (X = 4|X + Y = 13) und P (X = 12|X + Y = 13), P (X = 13|X + Y = 13) sind Null, da diese Ereignisse unm¨ oglich sind. 7.6.4 McNemar-Test f¨ ur bin¨ aren Response Wir betrachten nun ein matched-pair Design mit den beiden Zufallsvariablen X und Y , die jedoch jeweils nur zwei m¨ogliche Auspr¨agungen x1 , x2 bzw. y1 , y2 besitzen. Wir verwenden standardm¨aßig die Kodierungen 0 und 1 (bin¨arer Response), so dass die Paare (xi , yi ) die Responsetupel (0, 0), (0, 1), (1, 0) oder (1, 1) bilden. Die Ergebnisse werden in einer 2 × 2-Tafel zusammengefaßt. X Y

0

1 Summe

0 A

1 C

B A+B

D C +D

Summe A+C B+D A+B+C +D =n

Wir testen die Nullhypothese H0 : P (X = 1) = P (Y = 1) gegen H1 : P (X = 1) = P (Y = 1). Dieser Test ist damit das Pendant zum exakten Test von Fisher f¨ ur den matched-pair Fall.

156

7. Pr¨ ufen statistischer Hypothesen

Der Test basiert auf den relativen (Rand-) H¨aufigkeiten, die sich in B und C (den H¨aufigkeiten f¨ ur die diskordanten Ergebnisse (0, 1) bzw. (1, 0)) unterscheiden. Unter H0 m¨ ußten b und c (Realisierungen der Zufallsvariablen B und C) gleich groß sein. Unter fest vorgegebener Summe b + c ist C = Anzahl der (1, 0)-Paare“ damit eine binomialverteilte Zufallsvariable: C ∼ ” B(b + c; 1/2). Also gilt E(C) = (b + c)/2 und Var(C) = (b + c) · 12 · 12 . Damit ist der folgende Quotient unter H0 standardisiert: C − (b + c)/2  . (b + c) · 1/2 · 1/2

(7.28)

F¨ ur hinreichend großes (b + c) folgt nach dem zentralen Grenzwertsatz, dass (7.28) N (0, 1)-verteilt ist. Diese N¨ aherung gilt ab (b + c) ≥ 20. Damit hat die Teststatistik folgende Gestalt: Z=

2C − (b + c) √ . b+c

(7.29)

Die Teststatistik von McNemar ist das Quadrat dieser Z-Statistik. Sie wird im Fall (b + c) ≥ 20 und bei zweiseitiger Fragestellung verwendet und folgt einer χ2 -Verteilung mit einem Freiheitsgrad: (2C − (b + c))2 ∼ χ21 b+c

(7.30)

(b − c)2 (2c − (b + c))2 = . b+c b+c

(7.31)

Z2 = mit der Realisierung z2 =

F¨ ur kleine Stichproben w¨ ahlt man als Testgr¨oße C und als kritische Werte die Quantile der Binomialverteilung B(b + c; 21 ). F¨ ur (b + c) ≥ 20 w¨ahlt man als Testgr¨oße Z (bzw. Z 2 ) und die Quantile der Standardnormalverteilung (bzw. der Chi-Quadrat-Verteilung). Beispiel 7.6.4. In einem matched-pair Design werden n = 210 Studenten bez¨ uglich ihrer Leistungen im Seminar und im Praktikum eingesch¨atzt. Seien X (Leistung im Seminar) und Y (Leistung im Praktikum) bin¨ar kodiert mit 0 (zufriedenstellend), 1 (nicht zufriedenstellend). Y X

0 1

0 10 70 80

1 50 80 130

60 150 210

Wir pr¨ ufen H0 : P (X = 1) = P (Y = 1) und erhalten den Wert der Teststatistik (7.31)

7.7 Testentscheidung mit Statistik Software

157

X&Y Y X 0 1

0 10 70

1 50 80

Test Statisticsb N Chi-Square a Asymp. Sig.

X&Y 210 3.008 .083

a. Continuity Corrected b. McNemar Test Abb. 7.9. SPSS-Output zu Beispiel 7.6.4

z2 =

(70 − 50)2 400 = = 3.33 < 3.84 = c1;0.95 , 70 + 50 120

so dass wir H0 nicht ablehnen. Hierbei ist zu beachten, dass SPSS bei der Auswertung von (7.31) eine Stetigkeitskorrektur (|b−c|−1)2 )/(b+c) verwendet, so dass wir Chi-Square 3.008 anstelle von z 2 = 3.33 erhalten.

7.7 Testentscheidung mit Statistik Software In der klassischen Testtheorie wird eine Hypothese H0 zugunsten der Alternative H1 verworfen, wenn der aus der Stichprobe berechnete Wert der Testgr¨oße einen zugeh¨ origen kritischen Wert zu vorgegebenem Signifikanzniveau α u ur die verschiedenen ¨berschreitet. Die kritischen Werte der Tests sind f¨ Verteilungen der Testgr¨ oßen tabelliert, so dass die Testentscheidung durch Vergleich der berechneten Testgr¨ oße und des Tabellenwertes getroffen werden kann. Softwarepakete geben zu den berechneten Testgr¨oßen (TG) sogenannte p-values aus, anhand derer die Testentscheidung getroffen werden kann. Die Analogie beider Vorgehensweisen soll im Folgenden erl¨autert werden. Der zweiseitige p-value ist wie in Abschnitt 7.2 definiert durch p-value = PH0 (|x| > |T G|)

−T G

= fT G (x)dx + −∞



TG

fT G (x)dx .

158

7. Pr¨ ufen statistischer Hypothesen

z1−α/2

zα/2 = −z1−α/2

Abb. 7.10. Ablehnbereich (−∞, −z1−α/2 ) ∪ (z1−α/2 , ∞) des zweiseitigen GaussTests. Die graue Fl¨ ache ist gem¨ aß der Definition von z1−α/2 gleich α/2 + α/2 = α

Er entspricht also der Wahrscheinlichkeit, dass bei G¨ ultigkeit von H0 ein Wert x beobachtet wird, der ‘extremer’ ist als der beobachtete Wert der Testgr¨oße, was genau der Fl¨ ache unter der Dichte von T G f¨ ur Werte gr¨oßer als |T G| entspricht. Die beiden Integrale sind f¨ ur symmetrische Pr¨ ufverteilungen wie die Normal- oder t-Verteilung gleich, da die Dichte hier symmetrisch zu Null ist. Es gilt also

p-value = 2



fT G (x)dx .

TG

F¨ ur die einseitige Fragestellung ist je nach Richtung der Hypothese eines der beiden Integrale nicht von Bedeutung. Der Wert kann also halbiert werden. Testentscheidung

Wir wollen die Testentscheidungen f¨ ur die ein- und zweiseitigen Fragestellungen hier am Beispiel des Gauss-Tests aus Abschnitt 7.3.1 vorstellen. Zweiseitige Fragestellung. F¨ ur den zweiseitigen Gauss-Test wird die Nullhypothese H0 : μX = μ0 zugunsten der Alternative H1 : μX = μ0 verworfen – der Test lehnt H0 ab – falls die Realisierung der Testgr¨oße T G gr¨oßer als z1−α/2 bzw. kleiner als −z1−α/2 ist. Der Ablehnbereich (−∞, −z1−α/2 ) ∪ (z1−α/2 , ∞) ist in Abbildung 7.10 dargestellt. In Abbildung 7.11 wird eine Situation dargestellt, die zum Ablehnen von H0 f¨ uhrt. Die Realisation der Testgr¨ oße ist gr¨ oßer als z1−α/2 . Die Fl¨ache unter der Dichte rechts von T G ist damit kleiner als α/2. Der p-value entspricht der Summe dieser Fl¨ ache und dem Pendant auf der negativen Halbachse. Es gilt also insgesamt p-value < α (Ablehnen von H0 ). Abbildung 7.12 zeigt die Situation, die nicht zum Verwerfen von H0 f¨ uhrt. Die Realisation der Testgr¨ oße ist kleiner als z1−α/2 . Die Fl¨ache unter der Dichte rechts von T G ist damit gr¨ oßer als α/2. Es gilt also insgesamt p-value > α (H0 wird beibehalten).

7.7 Testentscheidung mit Statistik Software

−T G

−z1−α/2

z1−α/2

159

TG

Abb. 7.11. Zweiseitiger Gauss-Test: Ablehnen von H0 . Die schraffierte Fl¨ ache rechts von T G ist kleiner als α/2 (graue Fl¨ ache). Insgesamt gilt p-value < α

−z1−α/2

−T G

TG

z1−α/2

Abb. 7.12. Zweiseitiger Gauss-Test: H0 wird nicht abgelehnt. Die dunkle Fl¨ ache rechts von T G ist gr¨ oßer als α/2. Insgesamt gilt p-value > α.

Einseitige Fragestellung. F¨ ur den einseitigen Gauss-Test wird die Nullhypothese H0 : μX ≤ μ0 zugunsten der Alternative H1 : μX > μ0 verworfen – der Test lehnt H0 ab – falls die Realisierung der Testgr¨oße T G gr¨oßer als z1−α ist (die umgekehrte Fragestellung H0 : μX ≥ μ0 wird analog behandelt und deshalb hier nicht n¨ aher erl¨ autert). Der Ablehnbereich (z1−α , ∞) ist in Abbildung 7.13 dargestellt. Die Entscheidung H0 abzulehnen oder beizubehalten verl¨auft analog zur Vorgehensweise beim zweiseitigen Test. In Abbildung 7.14 werden die Ablehnbereiche der ein- und der zweiseitigen Fragestellung verglichen. Hier ist die Fl¨ ache unter der Dichte rechts von z1−α gleich der Summe der Fl¨ achen unter der Dichte links von −z1−α/2 und rechts von z1−α/2 .

160

7. Pr¨ ufen statistischer Hypothesen

z1−α Abb. 7.13. Ablehnbereich (z1−α , ∞) beim einseitigen Gauss-Test. Die graue Fl¨ ache ist α.

−z1−α/2

z1−α

z1−α/2

Abb. 7.14. Vergleich der Ablehnbereiche (z1−α , ∞) beim einseitigen und (−∞, −z1−α/2 ) ∪ (z1−α/2 , ∞) beim zweiseitigen Gauss-Test. Die Summe der hellgrauen Fl¨ achen ist gleich der dunkelgrauen Fl¨ ache; jeweils gleich α.

7.8 Aufgaben und Kontrollfragen

161

7.8 Aufgaben und Kontrollfragen Aufgabe 7.1: Erl¨autern Sie die Vorgehensweise beim Signifikanztest. Aufgabe 7.2: Eine Mensa bezieht Semmeln aus einer Großb¨ackerei. Diese garantiert ein mittleres Gewicht von mindestens 45 g bei einer Standardabweichung von 2 g. Die Mensa unterzieht die t¨agliche große Lieferung einer Pr¨ ufung bez¨ uglich des Sollgewichts. a) Wie lauten Null- und Alternativhypothese? b) Bestimmen Sie den Annahme- und Ablehnungsbereich f¨ ur α = 0.05 und den Stichprobenumfang n = 25 unter Verwendung der Normalverteilung. c) Eine Stichprobe liefert x = 44g. Wie entscheiden Sie? Aufgabe 7.3: Eine Gastst¨ atte bezieht die 1/2-Liter-Bierflaschen aus einer kleinen Brauerei im Nachbarort. Nach mehreren Beschwerden seiner G¨aste, dass die Flaschen weniger als 1/2 Liter Bier enthalten w¨ urden, fordert der Gastwirt den Brauereibesitzer auf, seine Abf¨ ullanlage u ufen zu lassen. ¨berpr¨ Zu diesem Zweck wird eine Zufallsstichprobe vom Umfang n = 150 Flaschen ausgew¨ahlt. Bei deren Untersuchung ergaben sich die folgenden Werte: x¯ = 498.8 ml und s = 3.5 ml (Normalverteilung vorausgesetzt). a) Ist der Verdacht der Besucher der Gastst¨ atte bei einem Signifikanzniveau von 1% gerechtfertigt? b) Der Brauereibesitzer behauptet nun, dass das Ergebnis der Stichprobe ¨ nicht widerlegen w¨ urde, dass seine Flaschen genau 500 ml enthalten. Uberpr¨ ufen Sie diese Behauptung bei α = 0.01. c) Ein Jahr sp¨ater wird nochmals eine Untersuchung durchgef¨ uhrt, allerdings diesmal nur mit n = 20 Flaschen. Die Stichprobenresultate sind diesmal x ¯ = 498.1 und s = 3.7. Wie lauten die Tests aus (a) und (b) unter Verwendung dieser Werte? Aufgabe 7.4: In den Bundesl¨ andern Baden–W¨ urttemberg und Bayern wurde eine Untersuchung u ¨ber das monatliche Bruttoeinkommen von Hochschulabsolventen durchgef¨ uhrt. Eine Stichprobe von je 41 Absolventen ergab in Baden–W¨ urttemberg ein durchschnittliches Monatseinkommen von x = 3025 Euro bei einer Varianz von s2x = 41068 bzw. in Bayern von y = 2846 Euro mit s2y = 39236. Es soll angenommen werden, dass die Bruttoverdienste in beiden Bundesl¨ andern normalverteilt sind. Pr¨ ufen Sie anhand der Stichprobenergebnisse, ob von einer Gleichheit der Varianzen ausgegangen werden kann (α = 0.05). Hinweis: Das f¨ ur den Test ben¨otigte F -Quantil lautet F40,40,0.975 = 1.88. Aufgabe 7.5: W¨ahrend eines Behandlungszeitraumes von einem Jahr wird ein cholesterinsenkendes Pr¨ aparat A an 15 Versuchspersonen, ein ebenso wirkendes Mittel B an 17 Personen verabreicht. Stichprobenmittel und -varianz der in dieser Zeit erzielten Senkung des Cholesterinspiegels (in mg) lauten:

162

7. Pr¨ ufen statistischer Hypothesen

A-Personen: x ¯A = 102;

s2A = 37;

B-Personen: x ¯B = 86;

s2B = 48.

Kann aus diesen Beobachtungen mit einer Irrtumswahrscheinlichkeit von h¨ochstens 0.05 darauf geschlossen werden, dass Pr¨aparat A im Durchschnitt zu einer um mehr als 10 mg h¨ oheren Senkung des Cholesterinspiegels f¨ uhrt als Pr¨aparat B? Gehen Sie dabei davon aus, dass die erzielten Cholesterinsenkungen unter A bzw. B normalverteilte Zufallsgr¨oßen mit a) u ¨ bereinstimmenden Varianzen, 2 2 b) den Varianzen σA = 32, σB = 50 sind. Aufgabe 7.6: 10 Personen werden zuf¨ allig ausgew¨ahlt, um die Reaktionszeit nach der Einnahme eines neuen Medikaments zu untersuchen (Personengruppe X). Dieselbe Untersuchung wird an 10 ebenfalls zuf¨allig bestimmten Personen durchgef¨ uhrt, wobei diese jedoch keinerlei Medikamente eingenommen haben (Personengruppe Y). Kann man aufgrund der in der Tabelle zusammengefaßten Ergebnisse behaupten, dass das Medikament die Reaktionszeit signifikant beeinflusst (α = 0.05)? Wir gehen dabei von der Annahme 2 2 ), Y1 , . . . , Ym ∼ N (μY ; σY2 ) und σX = σY2 aus. X1 , . . .,Xn ∼ N (μX ; σX Person 1 2 3 4 5 6 7 8 9 10 X 0.61 0.72 0.79 0.83 0.64 0.69 0.73 0.72 0.84 0.81 Y 0.68 0.65 0.58 0.67 0.70 0.82 0.59 0.60 0.71 0.62 Aufgabe 7.7: Auf einer landwirtschaftlichen Versuchsanlage werden zuf¨allig 10 Felder ausgew¨ ahlt, um ein neues D¨ ungemittel f¨ ur den Kartoffelanbau zu testen. Nachdem jedes Versuchsfeld halbiert wurde, wird in der ersten H¨alfte das herk¨ommliche D¨ ungemittel und in der zweiten H¨alfte das neue Mittel eingesetzt. Die jeweiligen Ernteertr¨ age (in kg/m2 ) sollen als Realisationen normalverteilter Zufallsgr¨ oßen X (herk¨ ommliches Mittel) und Y (neues Mittel) angesehen werden. Feld X Y

1 7.1 7.3

2 6.4 5.1

3 6.8 8.6

4 8.8 9.8

5 7.2 7.9

6 9.1 8.0

7 7.4 9.2

8 5.2 8.5

9 5.1 6.4

10 5.9 7.2

Wurden die durchschnittlichen Ernteertr¨ age durch das neue D¨ ungemittel signifikant gegen¨ uber dem herk¨ ommlichen D¨ ungemittel gesteigert (α = 0.05)? Aufgabe 7.8: Worin unterscheiden sich der paired t-Test und der doppelte t-Test? Aufgabe 7.9: Unter 3000 Neugeborenen wurden 1428 M¨adchen gez¨ahlt. Testen Sie zum Niveau 0.05 die Hypothese, dass die Wahrscheinlichkeit f¨ ur eine M¨adchengeburt 0.5 betr¨ agt.

7.8 Aufgaben und Kontrollfragen

163

Aufgabe 7.10: Bei den letzten Wahlen entschieden sich 48% der wahlberechtigten Bev¨olkerung einer Stadt mit mehr als 100000 Einwohnern f¨ ur den Kandidaten A als B¨ urgermeister. In einer aktuellen Umfrage unter 3000 zuf¨allig bestimmten W¨ahlern entschieden sich 1312 wieder f¨ ur diesen Kandidaten. Kann aus diesem Ergebnis mit einer Irrtumswahrscheinlichkeit von 0.05 auf eine Ver¨anderung des W¨ ahleranteils des Kandidaten A geschlossen werden? Aufgabe 7.11: Frau Meier kauft im Supermarkt 10 Orangen. Sp¨ater f¨allt ihr ein, dass sie nochmals 8 Orangen braucht und sie kauft diese im Obstgesch¨aft um die Ecke. Als sie zu Hause ist, stellt sie fest, dass 3 Orangen aus dem Supermarkt angefault sind. Beim Obsth¨ andler hat sie nur eine schlechte Orange bekommen. Spricht dies f¨ ur eine unterschiedliche Qualit¨at in den beiden Gesch¨aften? Aufgabe 7.12: Ein Dauertest von Gl¨ uhbirnen zweier verschiedener Firmen f¨ uhrte zu folgenden Ergebnissen: Von 400 Gl¨ uhbirnen des Herstellers 1 waren 300 qualit¨atsm¨aßig ausreichend, von den 900 u uften Gl¨ uhbirnen des ¨ berpr¨ Herstellers 2 hingegen 648. Kann auf Grund dieses Ergebnisses behauptet werden (α = 0.01), dass die Firmen mit verschiedenen Ausschussanteilen produzieren? Aufgabe 7.13: Eine umfangreiche Lieferung von Eiern soll auf ihre Qualit¨at hin u uft werden. Zu diesem Zweck werden n = 100 Eier zuf¨allig aus¨berpr¨ gew¨ahlt und u uft. Dabei geben 3 Eier Anlaß zu Beanstandungen. Der ¨ berpr¨ Lieferant behauptet nun, dass der Anteil verdorbener Eier bei seinen Liefe¨ rungen kleiner als 4% ist. Uberpr¨ ufen Sie diese Annahme unter Verwendung einer geeigneten Verteilungsapproximation mit dem dazugeh¨origen Test zum Niveau α = 0.05. Aufgabe 7.14: Eine Drahtziehmaschine erzeugt eine bestimmte Sorte Draht. Die mechanischen Eigenschaften von Draht werden durch seine Zugfestigkeit (in N/mm2 = Newton pro Quadratmillimeter) gemessen. Die Zugfestigkeit einer Drahtprobe aus der laufenden Produktion kann als normalverteilte Zufallsgr¨oße angesehen werden. Erfahrungsgem¨ aß streut die Zugfestigkeit von Draht aus einer laufenden Produktion umso mehr, je l¨ anger die Maschine im Einsatz ist. Dies soll anhand von zwei Stichproben u uft werden, die nacheinander in einem ¨ berpr¨ bestimmten zeitlichen Abstand aus der laufenden Produktion entnommen wurden. Wir sehen die beiden Stichproben als unabh¨angig voneinander an. Die zeitlich erste Stichprobe Y von 15 untersuchten Drahtproben ergab eine Streuung sY = 80 N/mm2 . Die zweite Stichprobe X von 25 Drahtproben lieferte sX = 128 N/mm2 . 2 ≤ σY2 bei einem Signifikanzniveau von Testen Sie die Hypothese H0 : σX 5%. Aufgabe 7.15: Wir nehmen an, dass die Wirkung von Kaffee auf die Lernleistung in einem Test erprobt werden soll. Dazu werden die Leistungen von Studenten vor bzw. nach dem Kaffeegenuß beurteilt. Die Leistungen seien

164

7. Pr¨ ufen statistischer Hypothesen

bin¨ar kodiert gem¨ aß Leistungen u ¨ber/unter dem Durchschnitt: 1/0. Es sei folgendes Ergebnis bei n = 100 Studenten erzielt worden:

0 nachher

1

vorher 0 1 20 25

45

15 35

55 100

Pr¨ ufen Sie H0 : p1 = p2 gegen H1 : p1 = p2 .

40 65

8. Nichtparametrische Tests

8.1 Einleitung In die bisherigen Pr¨ ufverfahren des Kapitels 7 ging der Verteilungstyp der Stichprobenvariablen ein (z.B. normal- oder binomialverteilte Zufallsvariablen). Der Typ der Verteilung war also bekannt. Die zu pr¨ ufenden Hypothesen bezogen sich auf Parameter dieser Verteilung. Die f¨ ur Parameter bekannter Verteilungen konstruierten Pr¨ ufverfahren heißen parametrische Tests, da die Hypothesen Parameterwerte festlegen. So wird beim einfachen t-Test beiuft. M¨ochte man Lage- oder Streuspielsweise die Hypothese H0 : μ = 5 gepr¨ ungsalternativen bei stetigen Variablen pr¨ ufen, deren Verteilung nicht bekannt ist, so sind die im Folgenden dargestellten nichtparametrischen Tests zu verwenden. Wir wollen in diesem Kapitel einige f¨ ur die Praxis relevante Tests vorstellen. F¨ ur weitergehende Ausf¨ uhrungen verweisen wir auf B¨ uning und Trenkler (1994).

8.2 Anpassungstests Der einfache t-Test pr¨ uft anhand einer Stichprobe ob beispielsweise der Erwartungswert einer (normalverteilten) Zufallsvariablen kleiner ist als der Erwartungswert einer (theoretischen) Zufallsvariablen mit anderem Erwartungswert. Kennt man nun den Verteilungstyp der der Stichprobe zugrunde liegenden Zufallsvariablen nicht, so kann man pr¨ ufen, ob diese Zufallsvariable von einer bestimmte Verteilung wie z.B. einer Normalverteilung abweicht. Es soll also untersucht werden, wie gut“ sich eine beobachtete Verteilung der ” hypothetischen Verteilung anpaßt. Wie in Kapitel 7 beschrieben, ist es bei der Konstruktion des Tests notwendig, die Verteilung der Testgr¨ oße unter der Nullhypothese zu kennen. Daher sind alle Anpassungstests so aufgebaut, dass die eigentlich interessierende Hypothese als Nullhypothese und nicht – wie sonst u ¨ blich – als Alternative formuliert wird. Deshalb kann mit einem Anpassungstest auch kein statistischer Nachweis gef¨ uhrt werden, dass ein bestimmter Verteilungstyp vorliegt, sondern es kann nur nachgewiesen werden, dass ein bestimmter Verteilungstyp nicht vorliegt.

166

8. Nichtparametrische Tests

8.2.1 Chi-Quadrat-Anpassungstest Der wohl bekannteste Anpassungstest ist der Chi-Quadrat-Anpassungstest. Die Teststatistik wird so konstruiert, dass sie die Abweichungen der unter H0 erwarteten von den tats¨ achlich beobachteten absoluten H¨aufigkeiten mißt. Hierbei ist jedes Skalenniveau zul¨ assig. Um jedoch die erwarteten H¨aufigkeiten zu berechnen ist es bei ordinalem oder stetigem Datenniveau notwendig, die Stichprobe X = (X1 , . . . , Xn ) in k Klassen Klasse Anzahl der Beobachtungen

1 n1

2 n2

··· ···

k nk

Total n

einzuteilen. Die Klasseneinteilung ist dabei in gewisser Weise willk¨ urlich. Die Klasseneinteilung sollte jedoch nicht zu fein gew¨ahlt werden, um eine gen¨ ugend große Anzahl an Beobachtungen in den einzelnen Klassen zu gew¨ahrleisten. Wir pr¨ ufen die Nullhypothese H0 : Die Verteilungsfunktion F (x) der in ” der Stichprobe realisierten Zufallsvariablen X stimmt mit einer vorgegebenen ufen H0 : F (x) = F0 (x) gegen Verteilungsfunktion F0 (x) u ¨ berein“, d.h., wir pr¨ die zweiseitige Alternative H1 : F (x) = F0 (x). Die Teststatistik lautet T (X) =

k  (Ni − npi )2 i=1

npi

,

(8.1)

wobei aufigkeit der Stichprobe X f¨ ur die Klasse i (i = 1, . . . , k) • Ni die absolute H¨ ist (Ni ist eine Zufallsvariable mit Realisierung ni in der konkreten Stichprobe), • pi die mit Hilfe der vorgegebenen Verteilungsfunktion F0 (x) berechnete (also hypothetische) Wahrscheinlichkeit daf¨ ur ist, dass die Zufallsvariable X in die Klasse i f¨ allt, • npi die unter H0 erwartete H¨ aufigkeit in der Klasse i angibt. Entscheidungsregel: Die Nullhypothese H0 wird zum Signifikanzniveau α oßer als das (1 − α)-Quantil der χ2 abgelehnt, falls t = T (x1 , . . . , xn ) gr¨ Verteilung mit k − 1 − r Freiheitsgraden ist, d.h., falls gilt: t > ck−1−r,1−α . r ist dabei die Anzahl der Parameter der vorgegebenen Verteilungsfunktion F0 (x). Sind die Parameter der Verteilungsfunktion unbekannt, so m¨ ussen diese aus der Stichprobe gesch¨ atzt werden. Die Sch¨atzung der Parameter aus den gruppierten Daten f¨ uhrt dabei im Gegensatz zur Sch¨atzung aus ungruppierten Daten zu Verzerrungen in dem Sinne, dass die Teststatistik dann ur eine genauere Diskussion sei auf B¨ uning und nicht mehr χ2 -verteilt ist. F¨ Trenkler (1994) verwiesen.

8.2 Anpassungstests

167

Anmerkung. Die Teststatistik T (X) ist unter der Nullhypothese nur asymptotisch χ2 -verteilt. Diese Approximation ist u ¨ blicherweise hinreichend genau, wenn nicht mehr als 20% der erwarteten Klassenbesetzungen npi kleiner als 5 sind und kein Wert npi kleiner als 1 ist. Beispiel 8.2.1. In einem Betrieb werden Plastikteile produziert. Im Rahmen der Qualit¨atskontrolle entnimmt man bei einer neu aufgestellten Maschine n = 50 Teile und pr¨ uft, ob die Zufallsvariable X: Durchmesser eines Teils“ ” normalverteilt ist. Wir erhalten folgende Werte: xi 7.6 6.9 7.5 7.4 7.1

7.1 6.3 7.1 6.4 6.9

7.1 6.5 7.9 7.8 7.0

6.0 6.4 7.0 6.6 6.3

7.7 6.0 7.0 7.3 7.2

6.8 6.9 7.4 7.3 6.9

6.4 7.2 6.1 6.5 6.7

6.0 6.9 7.2 6.9 6.1

7.3 6.9 6.9 7.9 7.0

7.9 6.7 7.1 6.7 6.9

Wir pr¨ ufen auf Normalverteilung, d.h. H0 : F (x) = F0 (x) = N (μ, σ 2 ). Die Nullhypothese legt hier also nur den Typ der Verteilung, nicht aber die Werte der Parameter μ und σ 2 fest. Wir m¨ ussen die Parameterwerte daher aus der Stichprobe sch¨atzen. Wir ermitteln die Sch¨ atzwerte x ¯ = 6.93 und s2 = 0.502 f¨ ur μ und σ 2 . Im n¨achsten Schritt m¨ ussen nun die Originaldaten klassiert werden. Wir w¨ahlen folgende Klasseneinteilung der Stichprobe vom Umfang n = 50. Klasse Grenzen ni

1 (−∞, 6.5) 10

2 [6.5, 7.0) 16

3 [7.0, 7.5) 17

4 [7.5, ∞) 7

Um die Wahrscheinlichkeiten pi (i = 1, . . . , 4) zu berechnen f¨ uhren wir mit Z ∼ N (0, 1) wieder die standardisierte normalverteilte Zufallsvariable ein. Unter Verwendung von Tabelle B.1 erhalten wir f¨ ur Klasse 1:   6.5 − 6.93 p1 = P (X < 6.5) = P Z < 0.50 = Φ(−0.86) = 1 − Φ(0.86) = 0.194895 .

Die unter H0 erwartete H¨ aufigkeit f¨ ur die Klasse 1 betr¨agt also 50 · p1 = 9.74. F¨ ur Klasse 2 erhalten wir:   6.5 − 6.93 7.0 − 6.93 p2 = P (6.5 ≤ X < 7.0) = P ≤Z< 0.50 0.50 = Φ(0.14) − Φ(−0.86) = Φ(0.14) + Φ(0.86) − 1 = 0.360775 .

168

8. Nichtparametrische Tests

Die erwartete H¨aufigkeit unter H0 betr¨ agt 50 · p2 = 18.04. F¨ ur Klasse 3 erhalten wir:   7.0 − 6.93 7.5 − 6.93 ≤Z< p3 = P (7.0 ≤ X < 7.5) = P 0.50 0.50 = Φ(1.14) − Φ(0.14) = 0.317187 .

Die erwartete H¨ aufigkeit unter H0 betr¨ agt 50 · p3 = 15.86. F¨ ur Klasse 4 erhalten wir schließlich:   7.5 − 6.93 p4 = P (X ≥ 7.5) = P Z ≥ 0.50 = 1 − Φ(1.14) = 0.127143 .

Die erwartete H¨ aufigkeit unter H0 betr¨ agt 50 · p4 = 6.36. Damit k¨onnen wir den Wert der Testgr¨ oße (8.1) berechnen: (10 − 9.74)2 (16 − 18.04)2 (17 − 15.86)2 (7 − 6.36)2 + + + 9.74 18.04 15.86 6.36 = 0.3839 .

t=

Die Zahl der Freiheitsgrade betr¨ agt k − 1 − r = 4 (Klassen) − 1 − 2 (gesch¨ atzte Parameter) = 1 . Zur Irrtumswahrscheinlichkeit α = 0.05 und der Freiheitsgradzahl 1 lesen wir aus Tabelle B.3 den kritischen Wert c1,0.95 = 3.84 ab. Da t = 0.38 < 3.84 ist, besteht kein Anlaß die Nullhypothese abzulehnen. Die Annahme einer Normalverteilung f¨ ur die Zufallsvariable X (Durchmesser) ist also im Rahmen der vorliegenden Stichprobe nicht widerlegt. Anmerkung. Die Zahl der zu sch¨ atzenden Parameter wird bei der Bestimmung der Freiheitsgrade von SPSS nicht ber¨ ucksichtigt. Es gilt hier stets df = k − 1 (in unserem Beispiel df = 4 − 1 = 3). Damit erhalten wir zwar den gleichen Wert der Teststatistik, jedoch einen anderen p-value, was gerade bei wenig Klassen deutliche Unterschiede ergeben kann. 8.2.2 Kolmogorov–Smirnov–Anpassungstest Der Chi–Quadrat–Anpassungstest hat bei stetigen Variablen den Nachteil, dass eine Gruppierung der Werte notwendig ist. Insbesondere kann die Klassenbildung auch die Teststatistik und damit das Testergebnis beeinflussen. Dieses Problem wirkt sich besonders stark bei kleinen Stichproben aus. In

8.2 Anpassungstests

169

Descriptive Statistics

N X Valid N (listwise)

50

Mean 6,9340

Std. Deviation ,5041

Variance ,254

50

Test Statistics

Chi-Squarea df Asymp. Sig.

KLASSE

1 2 3 4 Total

Observed N 10 16 17 7 50

Expected N 9,7 18,0 15,9 6,4

Residual ,3 -2,0 1,1 ,6

KLASSE ,386 3 ,943

a. 0 cells (,0%) have expected frequencies less than 5. The minimum expected cell frequency is 6,4.

Abb. 8.1. SPSS-Output zu Beispiel 8.2.1

diesen F¨allen ist der Kolmogorov-Smirnov-Anpassungstest f¨ ur stetige Variablen dem Chi-Quadrat-Anpassungstest vorzuziehen. Dieser Test pr¨ uft ebenfalls die Hypothese H0 : F (x) = F0 (x) gegen H1 : F (x) = F0 (x), wobei F eine stetige Verteilung ist. Die Testgr¨ oße basiert beim Kolmogorov-SmirnovAnpassungstest auf der gr¨ oßten Abweichung zwischen empirischer und theoretischer Verteilungsfunktion. Wir ordnen daher zun¨ achst die Stichprobe x = (x1 , . . . , xn ) der Gr¨oße nach zu (x(1) ≤ . . . ≤ x(n) ) und bestimmen die empirische Verteilungsfunktion Fˆ (x) ⎧ ⎨ 0 −∞ < x < x(1) Fˆ (x) = i/n x(i) ≤ x < x(i+1) i = 1, . . . , n − 1 ⎩ 1 x(n) ≤ x < ∞ bzw. allgemeiner formuliert (f¨ ur den Fall von Bindungen) n

1 Fˆ (x) = 1{xi ≤x} . n i=1 Dann lautet die Teststatistik D = sup |F0 (x) − Fˆ (x)| . x∈R

Wegen der Monotonie von F (x) ist (8.2) identisch zu

(8.2)

170

8. Nichtparametrische Tests

D = max {|Di+ |, |Di− |} i=1,...,n

mit Di− = Fˆ (x(i−1) ) − F0 (x(i) ) D+ = Fˆ (x(i) ) − F0 (x(i) ) . i

Zur Veranschaulichung dieser Situation vgl. Abbildung 8.2.

|Di+ |

F0 (x) Fˆ (x)

• |Di− |







x

x(i−1)

x(i)

Abb. 8.2. Abst¨ ande zwischen empirischer Verteilungsfunktion Fˆ (x) und theoretischer Verteilungsfunktion F0 (x)

Entscheidungsregel: Die Nullhypothese H0 : F (x) = F0 wird zugunsten der Alternative H1 : F (x) = F0 (x) abgelehnt, falls D > dn;1−α ist, wobei die kritischen Werte in der folgenden Tabelle enthalten sind. n dn;1−α n dn;1−α

3 0.708 10 0.409

4 0.624 15 0.338

5 0.563 20 0.294

6 0.519 25 0.264

7 0.483 30 0.242

8 0.454 40 0.210

9 0.430 > 40 √ ≈ 1.36/ n

Im Gegensatz zum Chi–Quadrat–Anpassungstest gibt es keine allgemeine Methodik f¨ ur den Fall, dass die Parameter der theoretischen Verteilung unbekannt sind. Werden diese Parameter aus der Stichprobe gesch¨atzt, dann ist der Test zu konservativ. Lilliefors (1967; 1969) hat f¨ ur die Normalverteilung und Exponentialverteilung korrigierte kritische Werte f¨ ur den Fall bestimmt, dass die Parameter aus der Stichprobe gesch¨ atzt werden. Beispiel 8.2.2 (Fortsetzung von Beispiel 8.2.1). Wir pr¨ ufen H0 : F (x) = F0 (x), wobei F0 (x) die Verteilungsfunktion einer N (μ, σ 2 )-Verteilung mit μ=6.93 und σ 2 =0.25 ist. Wir bestimmen die Werte der empirischen Verteilungsfunktion Fˆ (x(i) ), die der theoretischen Verteilungsfunktion F0 (x(i) ) und die daraus resultierenden Werte von Di− und Di+ gem¨aß Tabelle 8.1.

8.2 Anpassungstests

171

Tabelle 8.1. Verteilungsfunktionen und Abst¨ ande ni 3 2 2 3 2 1 3 1 9 4 5 3 3 2 1 1 1 1 3

x(i) 6.00 6.10 6.30 6.40 6.50 6.60 6.70 6.80 6.90 7.00 7.10 7.20 7.30 7.40 7.50 7.60 7.70 7.80 7.90

Fˆ (x(i) ) 0.0600 0.1000 0.1400 0.2000 0.2400 0.2600 0.3200 0.3400 0.5200 0.6000 0.7000 0.7600 0.8200 0.8600 0.8800 0.9000 0.9200 0.9400 1.0000

F0 (x(i) ) 0.0320 0.0490 0.1043 0.1447 0.1946 0.2538 0.3213 0.3952 0.4731 0.5521 0.6290 0.7011 0.7661 0.8224 0.8692 0.9068 0.9357 0.9571 0.9723

Di− –0.0320 0.0110 –0.0043 –0.0047 0.0054 –0.0138 –0.0613 –0.0752 –0.1331 –0.0321 –0.0290 –0.0011 –0.0061 –0.0024 –0.0092 –0.0268 –0.0357 –0.0371 –0.0323

Di+ 0.0280 0.0510 0.0367 0.0553 0.0454 0.0062 –0.0013 –0.0552 0.0469 0.0479 0.0710 0.0589 0.0539 0.0376 0.0108 –0.0068 –0.0157 –0.0171 0.0277



√ Wir entnehmen D = max{|Di− |, |Di+ |} = 0.1331 < d50;1−0.05 ≈ 1.36/ 50 = 0.192, so dass H0 nicht abgelehnt wird.

One-Sample Kolmogorov-Smirnov Test X N Normal Parametersa,b Most Extreme Differences

Mean Std. Deviation Absolute Positive Negative

Kolmogorov-Smirnov Z Asymp. Sig. (2-tailed) Exact Sig. (2-tailed) Point Probability a. Test distribution is Normal. b. Calculated from data. Abb. 8.3. SPSS-Output zu Beispiel 8.2.2

50 6,9340 ,5041 ,133 ,071 -,133 ,941 ,338 ,310 ,000

172

8. Nichtparametrische Tests

√ Anmerkung. SPSS verwendet die√Teststatistik nD mit D aus (8.2). Im √ Beispiel erhalten wir f¨ ur nD = 50 · 0.1331 = 0.941 (K-S Z = .9413).

8.3 Homogenit¨ atstests fu angige ¨ r zwei unabh¨ Stichproben Im Gegensatz zu den Anpassungstests vergleichen die Homogenit¨atstests die Verteilungen zweier Zufallsvariablen miteinander. Die beiden Zufallsvariablen k¨onnen unabh¨ angig sein oder im matched-pair Design vorliegen. Homogenit¨atstests f¨ ur unabh¨ angige Zufallsvariablen werden in diesem Abschnitt vorgestellt, Abschnitt 8.4 behandelt das matched-pair Design. 8.3.1 Kolmogorov-Smirnov-Test im Zweistichprobenproblem Gegeben seien zwei Stichproben X1 , . . . , Xn1 und Y1 , . . . , Yn2 zweier unabh¨angiger Zufallsvariablen X ∼ F und Y ∼ G. Zu pr¨ ufen ist nun die Hypothese H0 : F (t) = G(t) gegen H1 : F (t) = G(t) f¨ ur alle t ∈ R. Analog zur Vorgehensweise beim Kolmogorov-Smirnov-Anpassungstest (Einstichprobenproblem) werden hier die Differenzen zwischen den beiden empirischen Verteilungsfunktionen bestimmt. Die Teststatistik ist der maxiˆ male absolute Abstand zwischen Fˆ (t) und G(t): ˆ K = max |Fˆ (t) − G(t)| . t∈R

Zur praktischen Anwendung ist es ausreichend, diesen Abstand f¨ ur alle t ∈ S zu bestimmen (S bezeichnet hierbei die (gepoolte) Stichprobe S = X ∪ Y): ˆ K = max |Fˆ (t) − G(t)| . (8.3) t∈S

Entscheidungsregel: H0 wird abgelehnt, falls K > kn1 ,n2 ;1−α gilt. Die kritiuning und Trenkler, 1994, schen Werte kn1 ,n2 ;1−α sind tabelliert (vgl. z.B. B¨ Tabellen J und K). Beispiel 8.3.1. In zwei St¨ adten wird der Quadratmeterpreis bei Neubauwohnungen ermittelt. Die Zufallsvariable X sei der Preis in Stadt A“, die Zu” fallsvariable Y sei der Preis in Stadt B“. Wir pr¨ ufen H0 : FA (i) = GB (i) ” gegen H1 : FA (i) = GB (i) zum Niveau α = 0.05. Die Daten sind in folgender Tabelle gegeben: 8.18 9.45 6.29 9.37 9.63

xi 6.95 11.47 10.03 13.03 9.97

9.32 12.85 9.11 9.57 11.39

10.93 10.28 7.47 14.27 10.37

yi 13.03 12.17 9.24 10.47 7.43

8.68 9.26

8.3 Homogenit¨ atstests f¨ ur zwei unabh¨ angige Stichproben

173

Daraus bestimmen wir die empirischen Verteilungsfunktionen FˆA (i) und ˆ GB (i): x(i) 6.29 6.95 8.18 9.11 9.32 9.37 9.45 9.57 9.63 9.97 10.03 11.39 11.47 12.85 13.03 i 6.29 6.95 7.43 7.47 8.18 8.68 9.11 9.24 9.26 9.32 9.37 9.45 9.57

FˆA (x(i) ) 0.067 0.133 0.200 0.267 0.333 0.400 0.467 0.533 0.600 0.667 0.733 0.800 0.867 0.933 1.000

ˆ Fˆ (i) − G(i) 0.067 0.133 0.050 –0.034 0.033 –0.050 0.017 –0.066 –0.150 –0.084 –0.017 0.050 0.116

y(i) 7.43 7.47 8.68 9.24 9.26 10.28 10.37 10.47 10.93 12.17 13.03 14.27

i 9.63 9.97 10.03 10.28 10.37 10.47 10.93 11.39 11.47 12.17 12.85 13.03 14.27

ˆ B (y(i) ) G 0.083 0.167 0.250 0.333 0.417 0.500 0.583 0.667 0.750 0.833 0.917 1.000

ˆ Fˆ (i) − G(i) 0.183 0.250 0.316 0.233 0.150 0.066 –0.017 0.050 0.117 0.037 0.100 –0.083 0.000



F¨ ur die Werte i ∈ s (s = x ∪ y) erhalten wir die Differenzen FˆA (i) − ˆ ˆ GB (i) wie in der obigen Tabelle und damit K = maxi∈s |Fˆ (i) − G(i)| = 0.316 < kn1 ,n2 ;1−0.05 = 0.5, so dass (zum Niveau α = 0.05, zweiseitig) H0 nicht abgelehnt wird. Hierbei ist zu beachten, dass derWert Kolmogorov-Smirnov Z aus dem Wert K durch Multiplikation mit n1 n2 /(n1 + n2 ) hervorgeht: 0.8176 =  15 · 12/(15 + 12) · 0.316.

174

8. Nichtparametrische Tests

Frequencies Stichprobe X Y Total

XY

N 15 12 27

Test Statisticsa

Most Extreme Differences

Absolute Positive Negative

Kolmogorov-Smirnov Z Asymp. Sig. (2-tailed)

XY ,317 ,317 -,150 ,818 ,516

a. Grouping Variable: Stichprobe Abb. 8.4. SPSS-Output zu Beispiel 8.3.1

8.3.2 Mann-Whitney-U-Test Der Kolmogorov-Smirnov-Test pr¨ uft allgemeine Hypothesen der Art Die ” beiden Verteilungen sind gleich“. Wir gehen nun davon aus, dass sich die Verteilungen zweier stetiger Variablen nur bez¨ uglich der Lage unterscheiden. Der wohl bekannteste Test f¨ ur Lagealternativen ist der U -Test von Mann und Whitney. Der U -Test von Mann und Whitney ist ein Rangtest. Er ist ein nichtparametrisches Gegenst¨ uck zum t-Test und wird bei Fehlen der Voraussetzungen des t-Tests (bzw. bei begr¨ undeten Zweifeln) angewandt. Die zu pr¨ ufende Hypothese l¨ asst sich auch formulieren als H0 : Die Wahrscheinlichkeit P , dass eine Beobachtung der ersten Grundgesamtheit X gr¨oßer ist als ein beliebiger Wert der zweiten Grundgesamtheit Y , ist gleich 0.5. Die Alternative lautet H1 : P = 0.5. Man f¨ ugt die Stichproben (x1 , . . . , xn1 ) und (y1 , . . . , yn2 ) zu einer gemeinsamen aufsteigend geordneten Stichprobe S zusammen. Die Summe der Rangzahlen der X-Stichprobenelemente sei R1+ , die Summe der Rangzahlen der Y -Stichprobenelemente sei R2+ . Als Pr¨ ufgr¨oße w¨ahlt man U , den kleineren der beiden Werte U1 , U2 : n1 (n1 + 1) − R1+ , 2 n2 (n2 + 1) − R2+ . U 2 = n1 · n2 + 2

U 1 = n1 · n2 +

(8.4) (8.5)

8.3 Homogenit¨ atstests f¨ ur zwei unabh¨ angige Stichproben

175

Entscheidungsregel: H0 wird abgelehnt, wenn U < un1 ,n2 ;α gilt. Da U1 +U2 = n1 · n2 gilt, gen¨ ugt es zur praktischen Berechnung des Tests, nur Ri+ und damit U = min{Ui , n1 n2 − Ui } zu berechnen (i = 1 oder 2 wird dabei so gew¨ahlt, dass Ri+ f¨ ur die kleinere der beiden Stichproben ermittelt werden muß). F¨ ur n1 , n2 ≥ 8 kann die N¨ aherung Z= *

U−

n1 ·n2 2

approx.



n1 · n2 · (n1 + n2 + 1) 12

N (0, 1)

(8.6)

benutzt werden. F¨ ur |z| > z1−α/2 wird H0 abgelehnt. Beispiel 8.3.2. Wir pr¨ ufen die Gleichheit der Mittelwerte der beiden Meßreihen aus Tabelle 8.2 mit dem U -Test. Es sei X: Biegefestigkeit von Kunststoff ” A“ und Y : Biegefestigkeit von Kunststoff B“. Wir ordnen die (16+15) Werte ” beider Meßreihen der Gr¨ oße nach und bestimmen die Rangzahlen und daraus die Rangsumme R2+ = 265 (vgl. Tabelle 8.3). Tabelle 8.2. Biegefestigkeit zweier Kunststoffe Kunststoff A 98.47 106.20 100.74 98.72 91.42 108.17 98.36 92.36

B 80.00 114.43 104.99 101.11 102.94 103.95 99.00 106.05

106.75 111.75 96.67 98.70 118.61 111.03 90.92 104.62

94.63 110.91 104.62 108.77 98.97 98.78 102.65

Dann wird 15(15 + 1) − 265 = 95 , 2 U1 = (16 · 15) − U2 = 145 . U2 = 16 · 15 +

Da n1 = 16 und n2 = 15 (also beide Stichprobenumf¨ange ≥ 8), wird die Pr¨ ufgr¨oße (8.6) berechnet, und zwar mit U = U2 als kleinerem der beiden U -Werte: 25 95 − 120 = −√ = −0.99 , z= # 240(16+15+1) 640 12

also ist |z| = 0.99 < 1.96 = z1−0.05/2 = z0.975 .

176

8. Nichtparametrische Tests Tabelle 8.3. Berechnung der Rangsumme R2+ = 265

Rangzahl Meßwert Variable Rangsumme Y

1 80.00 X

2 90.92 Y 2

3 91.42 X

4 92.36 X

5 94.63 Y +5

6 96.67 Y +6

7 98.36 X

Rangzahl Meßwert Variable Rangsumme Y

10 98.72 X

11 98.78 Y +11

12 98.97 Y +12

13 99.00 X

14 100.47 X

Rangzahl Meßwert Variable Rangsumme Y

18 103.95 X

19 104.62 Y +19

20 104.75 Y +20

21 104.99 X

22 106.05 X

23 106.20 X

24 106.75 Y +24

Rangzahl Meßwert Variable Rangsumme Y

25 108.17 X

26 108.77 Y +26

27 110.91 Y +27

28 111.03 Y +28

29 111.75 Y +29

30 114.43 X

31 118.61 Y +31

15 101.11 X

8 98.47 X

16 102.65 Y +16

9 98.70 Y +9

17 102.94 X

Die Nullhypothese wird damit nicht abgelehnt (Irrtumswahrscheinlichkeit 0.05, approximative Vorgehensweise). Der exakte kritische Wert f¨ ur U betr¨agt u16,15,0.05/2 = 70 (Tabellen in Sachs, 1978), also haben wir die gleiche Entscheidung (H0 nicht ablehnen).

Ranks

WERT

XY 1,00 2,00 Total

Mean Rank 14,44 17,67

N 16 15 31

Sum of Ranks 231,00 265,00

Test Statisticsb

Mann-Whitney U Wilcoxon W Z Asymp. Sig. (2-tailed) Exact Sig. [2*(1-tailed Sig.)]

WERT 95,000 231,000 -,988 ,323 ,338

a

a. Not corrected for ties. b. Grouping Variable: XY

Abb. 8.5. SPSS-Output zu Beispiel 8.3.2

8.3 Homogenit¨ atstests f¨ ur zwei unabh¨ angige Stichproben

177

Korrektur der U-Statistik bei Bindungen Treten in der zusammengefaßten und der Gr¨ oße nach geordneten Stichprobe Meßwerte mehrfach auf, so spricht man von Bindungen. In diesem Fall ist jedem dieser Meßwerte der Mittelwert der Rangpl¨atze zuzuordnen. Die korrigierte Formel f¨ ur den U -Test lautet dann (n1 + n2 = n gesetzt) n1 · n2 2 Z= / 0 R 3 0 n1 · n2 n − n  Ti3 − Ti 1[ ][ − ] n(n − 1) 12 12 i=1 U−

approx.



N (0, 1) .

(8.7)

Dabei bezeichnet R die Zufallsvariable Anzahl der Bindungen“ mit der Rea” lisierung r und Ti die Zufallsvariable Anzahl der gleichen Werte bei Bindung ” i“ mit den Realisierungen ti . Beispiel 8.3.3. Wir vergleichen die Umsatzsteigerungen beim Einsatz von Werbemaßnahmen (Daten in Tabelle 9.1) und zwar bez¨ uglich Maßnahme A (Werbung II) und Maßnahme B (Werbung III). Beide Stichproben werden zun¨achst in einer aufsteigenden Rangfolge zusammengefaßt (Tabelle 8.4). Tabelle 8.4. Berechnung der Rangordnung (vgl. Tabelle 10.1) Meßwert Werbung Rangzahl

19.5 B 1

31.5 B 2.5

31.5 B 2.5

33.5 A 4

37.0 A 5

40.0 B 6

43.5 A 7

50.5 B 8

53.0 B 9

Meßwert Werbung Rangzahl

56.0 A 11

57.0 A 12

59.5 A 13

60.0 A 14

62.5 B 15.5

62.5 B 15.5

65.5 A 17

67.0 A 18

75.0 A 19

Wir haben r = 2 Gruppen gleicher Werte 1. Gruppe (B) : zweimal den Wert 31.5; 2. Gruppe (B) : zweimal den Wert 62.5; Das Korrekturglied in (8.7) wird also 2  t3 − ti i

i=1

12

=

23 − 2 23 − 2 + = 1. 12 12

Die Rangsumme R2+ (Werbung B) ist R2+ = 1 + 2.5 + · · · + 15.5 = 60 , also erhalten wir nach (8.5)

t1 = 2 , t2 = 2 .

54.0 A 10

178

8. Nichtparametrische Tests

U2 = 11 · 8 +

8(8 + 1) − 60 = 64 2

und nach (8.4) U1 = 11 · 8 − U2 = 24 . Mit n = n1 + n2 = 11 + 8 = 19 und f¨ ur U = U1 wird die Pr¨ ufgr¨oße (8.7) 24 − 44

z=*

88 193 − 19 [ ][ − 1] 19 · 18 12

= −1.65 ,

also ist |z| = 1.65 < 1.96 = z1−0.05/2 . Die Nullhypothese H0 : Beide Werbemaßnahmen f¨ uhren im Mittel zur ” selben Umsatzsteigerung“ wird damit nicht abgelehnt. Beide Stichproben k¨onnen als homogen angesehen und zu einer gemeinsamen Stichprobe zusammengefaßt werden.

Ranks

WERT

Werbung Werbung A Werbung B Total

Mean Rank 11,82 7,50

N 11 8 19

Sum of Ranks 130,00 60,00

Test Statisticsb

Mann-Whitney U Wilcoxon W Z Asymp. Sig. (2-tailed) Exact Sig. [2*(1-tailed Sig.)]

WERT 24,000 60,000 -1,653 ,098 ,109

a

a. Not corrected for ties. b. Grouping Variable: Werbung

Abb. 8.6. SPSS-Output zu Beispiel 8.3.3

Wir wollen feststellen, zu welchem Ergebnis wir bei gerechtfertigter Annahme von Normalverteilung mit dem t-Test gekommen w¨aren: Werbung A : Werbung B :

x ¯ = 55.27 s2x = 12.742 y¯ = 43.88

s2y

= 15.75

2

n1 = 11 n2 = 8

2 2 Die Pr¨ ufgr¨oße (7.7) f¨ ur H0 : σX ≤ σY2 und H1 : σX > σY2 mit α = 0.05 ergibt

8.4 Homogenit¨ atstests im matched-pair Design

179

15.752 = 1.53 < 3.15 = f7,10;0.95 . 12.742 Also wird die Hypothese gleicher Varianzen nicht abgelehnt. Zum Pr¨ ufen der Hypothese H0 : μx = μy wird also die Pr¨ ufgr¨ oße (7.13) verwendet, wobei die gemeinsame Varianz beider Stichproben nach (7.12) als s2 = (10 · 12.742 + 7 · 15.752)/17 = 14.062 berechnet wird. Dann nimmt die Pr¨ ufgr¨oße (7.13) folgenden Wert an: * 55.27 − 43.88 11 · 8 t= = 1.74 < 2.11 = t17;0.95 . 14.06 11 + 8 t=

uhren im Mittel zur selben Die Nullhypothese H0 : Beide Werbemaßnahmen f¨ ” Umsatzsteigerung“ wird auch hier nicht abgelehnt. Group Statistics

Werbung Werbung A Werbung B

WERT

N 11 8

Std. Deviation 12,7404 15,7497

Mean 55,2727 43,8750

Std. Error Mean 3,8414 5,5684

Independent Samples Test Levene’s Test for Equality of Variances

F Equal variances assumed Equal variances not assumed

Sig.

1,095

,310

t-test for Equality of Means

t

df

Sig. (2-tailed)

Mean Difference

Std. Error Difference

1,745

17

,099

11,3977

6,5321

1,685

13,161

,116

11,3977

6,7648

Abb. 8.7. SPSS-Output zu Beispiel 8.3.3

8.4 Homogenit¨ atstests im matched-pair Design In Abschnitt 8.3 wurden Tests zum Vergleich zweier unabh¨angiger Zufallsvariablen behandelt. Im Folgenden stellen wir zwei Tests f¨ ur Lagealternativen bei abh¨angigen Zufallsvariablen vor. 8.4.1 Vorzeichen-Test F¨ ur zwei abh¨angige Zufallsvariablen mit mindestens ordinalem Niveau kann zur Pr¨ ufung von H0 : P (X < Y ) = P (X > Y ) gegen H1 : P (X < Y ) = P (X > Y ) der Vorzeichen-Test (auch Sign-Test) verwendet werden.

180

8. Nichtparametrische Tests

Wir bilden dazu die Zufallsvariablen  1 falls Xi < Yi Di = 0 sonst f¨ ur i = 1, . . . , n. Die Teststatistik T ergibt sich als T (X, Y) =

n 

Di .

i=1

Unter H0 ist T binomialverteilt B(n; p) mit dem Parameter p = P (X < Y ) = 1/2. Entscheidungsregel: H0 wird abgelehnt, falls t < bn;1−α/2 , oder falls t > n − bn;1−α/2 , wobei bn;1−α/2 das (1-α/2)-Quantil einer B(n; 1/2)-verteilten Zufallsvariablen ist. F¨ ur n ≥ 20 ist die Teststatistik T approximativ N ( n2 , n4 )-verteilt. H0 wird dann abgelehnt, falls gilt |z| =

|2t − n| √ > z1−α/2 . n

Beispiel 8.4.1. Die positive Wirkung von gezieltem Z¨ahneputzen auf die Mundhygiene soll in einem klinischen Versuch u uft werden. Der Re¨ berpr¨ sponse ist der ordinalskalierte OHI-Index mit den Werten 0 bis 3. An n = 20 Patienten wird der OHI-Index vor bzw. nach dem Putzkurs gemessen (Variable X bzw. Y ). xi 3 2 3 2 1 1 2 3 2 0

yi 2 1 2 1 0 0 0 2 1 0

di 0 0 0 0 0 0 0 0 0 0

xi 1 2 3 0 0 2 1 0 3 3

yi 0 1 1 0 1 1 0 1 2 2

di 0 0 0 0 1 0 0 1 0 0

F¨ ur die exakte Bestimmung des kritischen Bereichs ermitteln wir die folgenden Wahrscheinlichkeiten:

8.4 Homogenit¨ atstests im matched-pair Design

i 0 1 2 3 4 5 6 7 8 9 10

P (T ≤ i) 0.00000 0.00002 0.00020 0.00129 0.00591 0.02069 0.05766 0.13159 0.25172 0.41190 0.58810

i 11 12 13 14 15 16 17 18 19 20

181

P (T ≤ i) 0.74828 0.86841 0.94234 0.97931 0.99409 0.99871 0.99980 0.99998 1.00000 1.00000

Damit erhalten wir den kritischen Bereich als {0, . . . , 5} ∪ {14, . . . , 20}, so 20 dass wir mit t = i=1 di = 2 die Nullhypothese H0 ablehnen. √ = Zur approximativen Bestimmung des Tests ermitteln wir |z| = |2·2−20| 20 3.58 > 1.96, so dass H0 : P (X < Y ) = P (X > Y ) ebenfalls zugunsten von H1 abgelehnt wird.

Frequencies N Negative Differencesa Positive Differencesb Ties c Total

Y-X

16 2 2 20

a. Y < X b. Y > X c. X = Y Test Statisticsb

Exact Sig. (2-tailed)

Y-X ,001a

a. Binomial distribution used. b. Sign Test Abb. 8.8. SPSS-Output zu Beispiel 8.4.1

182

8. Nichtparametrische Tests

Hier wird bei der Bestimmung von di auch der Fall xi = yi unterschieden, der bei unserer Vorgehensweise zu di = 0 f¨ uhrt. F¨alle mit xi = yi (Ties) werden von SPSS nicht ber¨ ucksichtigt. 8.4.2 Wilcoxon-Test Der Wilcoxon-Test f¨ ur Paardifferenzen ist das nichtparametrische Pendant zum t-Test f¨ ur Paardifferenzen. Dieser Test kann f¨ ur stetigen (nicht notwendig normalverteilten) Response angewandt werden. Der Test gestattet die Pr¨ ufung, ob die Differenzen Yi − Xi paarweise angeordneter Beobachtungen (Xi , Yi ) symmetrisch um den Median M = 0 verteilt sind. Die damit zu pr¨ ufende Hypothese lautet im zweiseitigen Testproblem H0 : aquivalent, H0 : P (X < Y ) = 0.5 gegen H1 : M = 0 gegen H1 : M = 0 oder, ¨ P (X < Y ) = 0.5. Die Hypothesen im einseitigen Testproblem lauten H0 : M ≤ 0 gegen H1 : M > 0 bzw. H0 : M ≥ 0 gegen H1 : M < 0. Unter der Annahme einer um Null symmetrischen Verteilung von X − Y gilt f¨ ur einen beliebigen Wert der Differenz D = Y − X also f (−d) = f (d), wobei f (·) die Dichtefunktion der Differenzvariablen ist. Damit kann man ange der absoluten Differenzen |D| bez¨ uglich unter H0 erwarten, dass die R¨ der negativen und positiven Differenzen gleichverteilt sind. Man bringt also die absoluten Differenzen in aufsteigende Rangordnung und notiert f¨ ur jede Differenz Di = Yi − Xi das Vorzeichen der Differenz. Dann bildet man die Summe der R¨ange der absoluten Differenzen u ¨ ber die Menge mit positivem Vorzeichen (oder analog mit negativem Vorzeichen) und erh¨alt die Teststatistik (vgl. B¨ uning und Trenkler, 1994) W+ =

n  i=1

mit

Zi =



Zi R(|Di |)

(8.8)

1 : di > 0 . 0 : di < 0

R(|Di |) : Rang von |Di |, Di = Yi − Xi . Zur Kontrolle kann man auch die R¨ ange der negativen Differenzen aufsummieren (W − ). Dann muß W + + W − = n(n + 1)/2 sein. Testprozeduren Bei der zweiseitigen Fragestellung wird H0 : M = 0 zugunsten von H1 : M = 0 abgelehnt, wenn W + < wα/2 oder W + > w1−α/2 ist. F¨ ur die einseitigen Fragestellungen wird H0 : M ≤ 0 zugunsten von H1 : M > 0 abgelehnt, wenn W + > w1−α ist, bzw. H0 : M ≥ 0 zugunsten von H1 : M < 0 abgelehnt, wenn W + < wα ist. Die exakten kritischen Werte sind vertafelt (z.B. B¨ uning und Trenkler, 1994, Tabelle H).

8.4 Homogenit¨ atstests im matched-pair Design

183

Auftreten von Bindungen Treten Bindungen, d.h. Paare (xi , yi ), mit di = 0 auf (Nulldifferenzen), so werden die zugeh¨ origen x- und y-Werte aus der Stichprobe entfernt. Bindungen der Form di = dj (i = j, Verbunddifferenzen) werden durch Bilden von Durchschnittsr¨ angen ber¨ ucksichtigt. F¨ ur große Stichproben (n > 20) kann man die N¨aherung W + − E(W + ) H0 ∼ N (0, 1) , Z=  Var(W + )

verwenden. Mit E(W + ) = f¨ ur die Teststatistik

n(n+1) 4

und Var(W + ) =

n(n+1)(2n+1) 24

erhalten wir

n(n + 1) W+ − 4 Z= * . (8.9) n(n + 1)(2n + 1) 24 Die Ablehnungsbereiche f¨ ur die Tests lauten dann |Z| > z1−α/2 (zweiseitige Fragestellung) und Z > z1−α bzw. Z < zα (einseitige Fragestellungen). Beispiel 8.4.2. Nach Durchf¨ uhrung der ISO-9001-Zertifizierung will ein Konzern die Wirkung von gezielter Weiterbildung auf dem Gebiet Statistische Qualit¨atskontrolle und Qualit¨ atssicherung u ufen. Dazu werden n = 22 ¨ berpr¨ Fertigungsbereiche auf ihren Ausschuss, gemessen durch Kosten f¨ ur Nacharbeit oder Verluste untersucht. Die Zufallsvariablen sind X und Y : Aus” schusskosten vor bzw. nach der Weiterbildung“. xi yi di Zi R(|di |) xi yi di Zi R(|di |) 17 10 –7 0 13 40 35 –5 0 9.5 25 22 –3 0 7 30 35 5 1 9.5 10 12 2 1 4.5 50 55 5 1 9.5 12 14 2 1 4.5 70 50 –20 0 21 34 20 –14 0 17.5 60 46 –14 0 17.5 20 10 –10 0 15 45 34 –11 0 16 14 12 –2 0 4.5 47 40 –7 0 13 10 11 1 1 1.5 27 20 –7 0 13 5 4 –1 0 1.5 13 8 –5 0 9.5 8 6 –2 0 4.5 83 53 –30 0 22 20 1 –19 0 20 48 30 –18 0 19

Mit diesen Werten ist W + = 29.5. Mit der N¨ aherung (8.9) erhalten wir den Wert der Teststatistik 29.5 − z= #

(22(22+1)) 4

22(22+1)(44+1) 24

=

29.5 − 126.5 # 22770 24

−97 = −3.15 < −1.64 = z0.05 . 30.80 Damit wird H0 : M ≥ 0 gegen H1 : M < 0 abgelehnt. Die gezielte Weiterbildung f¨ uhrt zu einem statistisch signifikanten R¨ uckgang der Kosten. =

184

8. Nichtparametrische Tests

Ranks

N Y-X

Negative Ranks Positive Ranks Ties Total

17a 5b 0c 22

Mean Rank 13,15 5,90

Sum of Ranks 223,50 29,50

a. Y < X b. Y > X c. X = Y Test Statisticsb

Z Asymp. Sig. (2-tailed)

Y-X -3,155a ,002

a. Based on positive ranks. b. Wilcoxon Signed Ranks Test

Abb. 8.9. SPSS-Output zu Beispiel 8.4.2

8.5 Matched-Pair Design: Pru ¨ fung der Rangkorrelation Liegt eine Stichprobe (xi , yi ) i = 1, . . . , n aus zwei (mindestens ordinalskalierten) Zufallsvariablen eines matched-pair Designs vor, so k¨onnen wir f¨ ur beide konkreten Stichproben jeweils ihre Rangreihen und damit rs , den Rangkorrelationskoeffizienten von Spearman, als Maß f¨ ur die Korrelation der beiden Zufallsvariablen X und Y bestimmen. Man bestimmt dazu separat die R¨ange innerhalb jeder Stichprobe. ri bezeichnet den Rang von xi und si den Rang von yi . Treten keine gleichen Originalwerte und damit keine gleichen R¨ange (Bindungen) auf, so wird der gew¨ ohnliche Korrelationskoeffizient nach Pearson, angewandt auf die R¨ ange, bestimmt, der in diesem Fall gleich dem Rangkorrelationskoeffizienten von Spearman ist: n (ri − r¯)(si − s¯) . rs = n i=1 n ¯)2 i=1 (si − s¯)2 i=1 (ri − r Diese Darstellung l¨ asst sich vereinfachen zu n 6 i=1 (ri − si )2 rs = 1 − . n(n2 − 1)

Es gilt stets −1 ≤ rs ≤ 1.

8.5 Matched-Pair Design: Pr¨ ufung der Rangkorrelation

185

Wenn beide Stichproben die gleiche Rangordnung besitzen, sind die Differenzen di = ri − si = 0, und es wird rs = 1. Sind die Rangordnungen v¨ollig entgegengesetzt, so wird rs = −1. Die Pr¨ ufung des Rangkorrelationskoeffizienten gestattet die Einsch¨ atzung, ob ein positiver oder ein negativer Zusammenhang vorliegt. ¨ Entscheidungsregel: Uberschreitet die Realisierung von |rs | den kritischen Wert rs;n,1−α/2 , so wird die Hypothese H0 : Die beiden Variablen sind un” korreliert“ abgelehnt. F¨ ur die einseitigen Fragestellungen H0 : rs ≤ 0 bzw. H0 : rs ≥ 0 wird H0 abgelehnt, falls rs > rs;n,α bzw. falls rs < rs;n,1−α . Eine Tabelle mit kritischen Werten f¨ ur |rs | ist z.B. in B¨ uning und Trenkler (1994, Tabelle S) angegeben. Hierbei ist allerdings zu beachten, dass dort  kritische Werte f¨ ur d = ni=1 (ri − si )2 betrachtet werden. d – und damit auch die kritischen Werte – steht jedoch in direktem Zusammenhang mit rs : d = n(n2 − 1)(1 − rs )/6. F¨ ur n ≥ 30 liefert eine N¨ aherungsl¨ osung auf der Basis der N (0, 1)Verteilung zufriedenstellende Resultate bei der Pr¨ ufung der Signifikanz von ufgr¨oße lautet in diesem Fall rs . Die Pr¨ √ z = rs n − 1 . Die Nullhypothese wird abgelehnt, wenn im zweiseitigen Fall |z| > z1−α/2 ist bzw. wenn bei einseitiger Fragestellung z > z1−α oder z < zα ist. Falls Bindungen (also mehrfach gleiche R¨ ange) auftreten, muß man einen korrigierten Rangkorrelationskoeffizienten rkorr berechnen:    n(n2 − 1) − 21 lj (lj2 − 1) − 21 mk (m2k − 1) − 6 (ri − si )2 j i k * rkorr = . *   n(n2 − 1) − lj (lj2 − 1) n(n2 − 1) − mk (m2k − 1) j

k

(8.10)

Dabei haben wir folgende Bezeichnungen benutzt: F¨ ur die X-Rangreihe j = 1, . . . , J Gruppen mit jeweils gleichen Meßwerten in der j-ten Gruppe, lj = Anzahl der gleichen Meßwerte in der j-ten Gruppe, f¨ ur die Y -Rangreihe k = 1, . . . , K Gruppen mit jeweils gleichen Meßwerten in der k-ten Gruppe, mk = Anzahl der gleichen Meßwerte in der k-ten Gruppe und n = Gesamtzahl der Einheiten. Beispiel 8.5.1. Bei einem Unternehmen ergab sich in den Jahren 1990–1994 folgende Entwicklung des Umsatzes und des Gewinns (in Mio. DM):

186

8. Nichtparametrische Tests

Jahr 1990 1991 1992 1993 1994

Umsatz (X) 60 70 70 80 90

Gewinn (Y ) 2 3 5 3 5

Um rs zu ermitteln, m¨ ussen zun¨ achst die R¨ange vergeben werden. Dabei gehen wir so vor, dass dem Jahr mit dem h¨ ochsten Umsatz bzw. Gewinn der Rang 1, dem Jahr mit dem zweith¨ ochsten Umsatz bzw. Gewinn der Rang 2 usw. zugewiesen wird. Da hier sowohl bei der Zufallsvariablen X (Wert 70) als auch bei Y (Wert 3 und 5) Bindungen auftreten, m¨ ussen gemittelte R¨ange vergeben werden. So erh¨alt man folgende Tabelle: Jahr 1990 1991 1992 1993 1994

Ri (x) 5 3+4 2 = 3.5 3+4 2 = 3.5 2 1

Ri (y) 5 3.5 1.5 3.5 1+2 2 = 1.5

di 0 0 2 -1.5 -0.5

d2i 0 0 4 2.25  0.25 2 i di = 6.50

In der X-Rangreihe ist eine Bindung bei 3.5, also ist J = 1 und l1 = 2. In der Y -Rangreihe liegt eine Bindung bei 1.5 und eine Bindung bei 3.5, also ist K = 2, m1 = 2 und m2 = 2. Setzt man die Werte in (8.10) ein, so erh¨ alt man 5(25 − 1) − 12 [2(4 − 1)] − 21 [2(4 − 1) + 2(4 − 1)] − 6 · 6.50  rkorr =  5(25 − 1) − [2(4 − 1)] 5(25 − 1) − [2(4 − 1) + 2(4 − 1)] 120 − 3 − 6 − 39 √ √ = = 0.6489 , 114 108 diese positive Korrelation ist jedoch nicht signifikant (p-value = 0.236).

Correlations

Spearman’s rho

Correlation Coefficient Sig. (2-tailed) N

X Y X Y X Y

X 1,000 ,649 , ,236 5 5

Abb. 8.10. SPSS-Output zu Beispiel 8.5.1

Y ,649 1,000 ,236 , 5 5

8.6 Aufgaben und Kontrollfragen

187

8.6 Aufgaben und Kontrollfragen Aufgabe 8.1: Von einem W¨ urfel wird vermutet, dass er gef¨alscht ist. Um diese Vermutung zu best¨ atigen, wird der W¨ urfel 300mal geworfen. Dabei ergeben sich folgende H¨aufigkeiten f¨ ur die einzelnen Augenzahlen: Augenzahl H¨ aufigkeit

1 39

2 42

3 41

4 50

5 58

6 70

Kann die Annahme, dass nicht alle Augenzahlen dieselbe Wahrscheinlichkeit besitzen, auf Grund dieser Beobachtung best¨ atigt werden (Signifikanzniveau α = 0.05)? Aufgabe 8.2: Wegen der bevorstehenden Wahlen werden 5000 W¨ahler zuf¨allig ausgew¨ahlt und nach ihrer Meinung befragt. Von diesen W¨ahlern bevorzugen 1984 die Partei A, 911 die Partei B, 1403 die Partei C und der Rest die verbleibenden, kleineren Parteigruppierungen. Aus den Ergebnissen der letzten Wahlen ist bekannt, dass Partei A 42%, B 15%, C 27% und sonstige Parteien 16% der Stimmen erhielten. Pr¨ ufen Sie, ob sich die Stimmenverteilung seit den letzten Wahlen ver¨andert hat (α = 0.01). Aufgabe 8.3: Nachdem 150 Kaffeepakete, die von einer bestimmten Maschine abgef¨ ullt werden und 500 g enthalten sollen, zuf¨allig ausgew¨ahlt und nachgewogen wurden, ergaben sich betragsm¨ aßig folgende Abweichungen von dem geforderten Soll-Gewicht: Abweichung (von – bis unter) H¨aufigkeit

0–5 43

5–10 36

10–15 41

15–20 30

Sind diese Ergebnisse bei einem Signifikanzniveau von α = 0.05 mit der Normalverteilungsannahme vertr¨ aglich? Aufgabe 8.4: Als Ergebnis zweier unabh¨ angiger Stichproben erh¨alt man die beiden folgenden Meßreihen: xi yi

1.2 3.2

2.1 2.3

1.7 2.0

0.6 3.2

2.8 3.5

3.1 3.8

1.7 4.6

3.3 3.0

1.6 7.2

2.9 3.4

¨ Uberpr¨ ufen Sie zum Signifikanzniveau α = 0.05 die Hypothese, dass die beiden Stichproben aus derselben Grundgesamtheit stammen mit Hilfe des Homogenit¨atstests von Kolmogorov-Smirnov, wobei hier die beiden Stichproben folgendermaßen eingeteilt sind: Klasse Klassengrenzen hi (x) hi (y)

1 < 2.1 5 1

2 [2.1; 2.5) 1 1

3 [2.5; 2.9) 1 0

Hinweis: Der kritische Wert lautet k10,10;0.95 = 0.6.

4 [2.9; 3.3) 2 3

5 ≥ 3.3 1 5

188

8. Nichtparametrische Tests

Aufgabe 8.5: Im Rahmen einer klinischen Studie wird die K¨orpergr¨oße von M¨adchen im Alter von 16 Jahren bestimmt. Dabei ergaben sich die folgenden Gr¨oßen (in cm): Gr¨ oße H¨ aufigkeit Gr¨ oße H¨ aufigkeit

159 1 170 3

160 1 171 4

161 1 172 1

162 2 173 4

163 3 174 3

164 5 175 2

165 3 176 2

166 2 177 1

167 3 178 1

168 3 179 1

169 4

¨ a) Uberpr¨ ufen Sie die Hypothese, dass die K¨ orpergr¨oße 16–j¨ahriger M¨adchen normalverteilt ist mit μ = 169 und σ 2 = 16. Verwenden Sie dazu sowohl den Kolmogorov-Smirnov-Test als auch den Chi-Quadrat-Test. b) Was w¨ urde sich gegen¨ uber (a) ¨ andern, wenn die Hypothese der Normalverteilung beibehalten wird, deren Parameter aber nicht spezifiziert sind? Aufgabe 8.6: Im Vergleich zweier unabh¨ angiger Stichproben X: Blattl¨ange ” von Erdbeeren mit D¨ ungung A“ und Y : D¨ ungung B“ seien Zweifel an der ” Normalverteilung angebracht. Pr¨ ufen sie H0 : F (x) = G(y) mit dem MannWhitney-U -Test. Beachten Sie, dass Bindungen vorliegen. A 37 49 51 62 74 44 53 17

B 45 51 62 73 87 45 33 89

Aufgabe 8.7: F¨ uhren Sie den Wilcoxon-Test (einseitig, zum Niveau α = 0.05) f¨ ur das matched-pair Design in folgender Tabelle durch, die Punktwerte von Studenten enth¨alt, die einmal vor bzw. direkt nach der Vorlesung einen starken Kaffee tranken und deren Leistungen jeweils nach der Vorlesung gepr¨ uft wurden. Hat die Behandlung B (Kaffee nachher) einen signifikanten Einfluss auf die Leistung? Student 1 2 3 4 5 6 7

vorher 17 18 25 12 19 34 29

nachher 25 45 37 10 21 27 29

8.6 Aufgaben und Kontrollfragen

189

Aufgabe 8.8: Ein Hersteller erzeugt Schrauben, deren Durchmesser 3 mm betragen soll. Eine Abweichung um 0.0196 mm nach oben bzw. unten ist jedoch noch tolerabel. Aus fr¨ uheren Produktionsserien ist die Streuung des Schraubendurchmessers bekannt, n¨ amlich σ = 0.01. a) Wir nehmen nun an, der Schraubendurchmesser sei N (3, 0.012 )-verteilt. Berechnen Sie mit dieser Annahme die Wahrscheinlichkeit f¨ ur die folgenden Ereignisse: A: Der Durchmesser einer produzierten Schraube ist zu klein.“ ” B: Der Durchmesser einer produzierten Schraube ist tolerabel.“ ” C: Der Durchmesser einer produzierten Schraube ist zu groß.“ ” b) Eine Stichprobe von 200 Schrauben aus der laufenden Produktion enth¨alt 5 zu schmale und 10 zu breite Schrauben, der Rest gen¨ ugt den Anforderungen. Testen Sie anhand dieser Stichprobe mit einem geeigneten Test die Hypothese: Der Schraubendurchmesser ist N (3, 0.012)-verteilt“ bei ” einem Signifikanzniveau von 5%.

Teil III

Modellierung von Ursache–Wirkungsbeziehungen

9. Lineare Regression

9.1 Bivariate Ursache-Wirkungsbeziehungen In diesem Kapitel behandeln wir Methoden zur Analyse und Modellierung der Beziehung zwischen zwei und mehr Variablen. Wir setzen zun¨achst voraus, dass an einem Untersuchungsobjekt (Person, Firma, Geldinstitut usw.) zwei Variablen X und Y erhoben werden. Diese Variablen seien stetig (Intervalloder Ratioskala). Wir erhalten also die zweidimensionale Stichprobe (Xi , Yi ), i = 1, . . . , n. Beispiele. • • • •

Einkommen (X) und Kreditwunsch (Y ) eines Bankkunden, Geschwindigkeit (X) und Bremsweg (Y ) eines Pkw, Einsatz von Werbung in DM (X) und Umsatz in DM (Y ) in einer Filiale, Investition (X) und Exporterl¨ os (Y ) eines Betriebes.

Mit dem Korrelationskoeffizienten ρ haben wir bereits ein dimensionsloses Maß kennengelernt, das die St¨ arke und die Richtung des linearen Zusammenhangs zwischen X und Y mißt. Ziel der Regressionsanalyse ist es, diesen Zusammenhang durch ein einfaches Modell zu erfassen. Die obigen Beispiele verdeutlichen, dass eine Variable (X) als gegeben oder beeinflussbar angesehen werden kann, w¨ ahrend die andere Variable (Y ) als Reaktion auf X beobachtet wird. Dies ist die allgemeine Struktur einer Ursache-Wirkungsbeziehung zwischen X und Y . Das einfachste Modell f¨ ur einen Zusammenhang Y = f (X) ist die lineare Gleichung Y = β0 + β1 X . Eine lineare Funktion liefert einen einfach zu handhabenden mathematischen Ansatz und ist auch insofern gerechtfertigt, als dass sich viele Funktionstypen gut durch lineare Funktionen st¨ uckweise approximieren lassen. Bevor man eine Ursache-Wirkungsbeziehung modelliert, sollte man sich durch grafische Darstellungen eine Vorstellung vom m¨oglichen Zusammenhang der beiden Variablen machen. Dazu werden beispielsweise Streudiagramme verwendet, die wir im Buch Deskriptive Statistik“ bereits ausf¨ uhr” lich diskutiert haben. Damit l¨ asst sich leicht feststellen, ob ein lineare Beziehung zu vermuten ist, oder nicht.

194

9. Lineare Regression

9.2 Induktive univariate lineare Regression Die Aufgabe der univariaten induktiven linearen Regression ist es, den durch das univariate lineare Modell Yi = β0 + β1 Xi + ǫi

(9.1)

i = 1, . . . n, beschriebenen Zusammenhang zwischen den Variablen X und Y zu beurteilen. Dabei sind β0 und β1 unbekannte Modellparameter und ǫ eine zuf¨allige Fehlervariable, f¨ ur die E(ǫi ) = 0 ,

Var(ǫi ) = σ 2

(9.2)

gelten soll. Man unterscheidet dabei Modelle, bei denen X und Y zuf¨allig sind, und Modelle, bei denen X als gegeben angesehen wird. Wir beschr¨anken uns hier auf den Fall eines vorgegebenen nichtzuf¨ alligen X. F¨ ur fest gegebenes X folgt f¨ ur die zuf¨allige Variable Y wegen (9.2) sofort E(Yi ) = β0 + β1 Xi und Var(Y ) = σ 2 . Es werden die Eigenschaften der Sch¨ atzfunktion b f¨ ur den unbekannten Parameter β betrachtet und eine Teststatistik hergeleitet. Weitere Details werden in 9.3.6, wo die univariate Regression als Spezialfall der multiplen Regression behandelt wird, betrachtet. Als Anmerkung sei notiert, dass wir hier, in Anlehnung an Deskriptive Statistik“ die Notation a, b f¨ ur die Sch¨atz” funktionen von β0 und β1 verwenden, in 9.3.6 wird diese Notation aufgegeben. Aus Deskriptive Statistik“ sind die Kleinste-Quadrat-Sch¨atzungen f¨ ur ” das univariate Regressionsmodell (9.1) bekannt. Sie lauten a = y¯ − b¯ x und Sxy b= = Sxx

n 

i=1

(xi − x ¯)(yi − y¯)) n 

(9.3)

.

(9.4)

(xi − x ¯)2

i=1

In der induktiven Statistik ist es von Interesse Aussagen u ¨ber die Grundgesamtheit durch diese Sch¨ atzungen zu treffen. So k¨onnte eine Stichprobe mit Konsum und Einkommensdaten von Individuen vorliegen und daraus soll die marginale Konsumneigung, der Anstieg des Konsums bei einer Einkommenserh¨ohung, gesch¨ atzt werden. Nach der Sch¨ atzung stellt sich zum Beispiel die

9.2 Induktive univariate lineare Regression

195

Frage ob dieser Anstieg statistisch signifikant ist. Dazu muss man auf die Grundgesamtheit schliessen k¨ onnen. Betrachten wir dazu einige Eigenschaften der Sch¨atzfunktion b. Dazu nehmen wir zus¨atzlich zu den obigen Annahmen an, dass die zuf¨alligen Fehler ǫi identisch unabh¨angig normalverteilt sind, mit den Parametern E(ǫi ) = 0 und ur alle i = 1, . . . , n. Die Annahme E(ǫi ) = 0 spiegelt wieder, V ar(ǫi ) = σ 2 , f¨ dass der erwartete Einfluss des Fehlers auf das Modell Null ist. Also streut der Fehlerterm symmetrisch um die Null mit einer festen Varianz. Alle Annahmen formal zusammengefasst: xi : nicht stochastisch E(ǫi ) = 0 Var(ǫi ) = E(ǫ2i ) = σ 2 Cov(ǫi ) = E(ǫi ǫj ) = 0, i = j ǫi ∼ N (0, σ 2 ).

9.2.1 Eigenschaften der Sch¨ atzfunktion b Die Sch¨atzfunktion (9.4) ist eine erwartungstreue Sch¨atzfunktion f¨ ur den unbekannten Modellparameter β1 . Das sieht man folgendermassen. Summiert man (9.1) u ¨ber alle n und dividiert anschliessend durch n, so ergibt das ¯ + ǫ¯. y¯ = β0 + β1 x Zieht man das von (9.1) ab, so erh¨ alt man yi − y¯ = β1 (xi − x ¯) + (ǫi − ǫ¯).

Das kann in (9.4) eingesetzt werden um

  (xi − x ¯)(ǫi − ¯ǫ) β1 (xi − x ¯)2  b=  + (xi − x ¯)2 (xi − x ¯)2

zu erhalten. Weiteres Umstellen,  Ausmultiplizieren und der Einsatz der aus Statistik I bekannten Beziehung (xi − x ¯) = 0 liefert  (xi − x¯)ǫi b = β1 +  . (9.5) (xi − x¯)2

Bilden wir nun den Erwartungswert und verwenden dabei die bekannte n  (xi − x¯)2 . Beachten Sie dabei, dass der ErwartungsAbk¨ urzung Sxx = i=1

wert einer Summe die Summe der Erwartungswerte ist und dass Konstanten vor den Erwartungswert gezogen werden k¨ onnen.

196

9. Lineare Regression

  (xi − x ¯)ǫi E(b) = E(β1 ) + E Sxx  ¯) E(ǫi ) (xi − x = β1 + Sxx

Oben wurde angenommen, dass E(ǫi ) = 0 ist, damit ist b erwartungstreu: E(b) = β1 . ¨ Als Ubung k¨onnen Sie zeigen, dass a ebenfalls erwartungstreu ist. Bestimmen wir nun die Varianz der Sch¨ atzfunktion b. Dank der Erwartungstreue von b ist die Varianz Var(b) = E[(b − β1 )2 ]. Das ergibt wegen (9.5)

 (xi − x¯)ǫi 2 . Var(b) = E Sxx

Ausklammern der Konstante ergibt   1 Var(b) = 2 E[( (xi − x ¯)ǫi (xj − x ¯)ǫj )]. Sxx i j

Dies kann durch die Doppelsumme weiter aufgel¨ost werden. Ziehen wir anschliessend den Erwartungswert in die Klammer, so erhalten wir 1  Var(b) = 2 ( (xi − x ¯)(xj − x ¯) E(ǫi ǫj )), Sxx i j

weil der Fehlerterm die einzige Zufallsvariable in dem Ausdruck ist. Wegen der Unabh¨ angigkeit der Fehler ist E(ǫi ǫj ) = 0 f¨ ur i = j, f¨ ur i = j ist E(ǫ2i ) = σ 2 . Damit sind nur die Terme mit i = j der Doppelsumme interessant und der Ausdruck vereinfacht sich zu 1  (xi − x ¯)2 σ 2 . Var(b) = 2 Sxx i

Durch K¨ urzen erhalten wir die Varianz von b σ2 Var(b) = . (9.6) Sxx Wie ist b verteilt? Wir kennen die Varianz und den Erwartungswert, kennen wir aber auch die Verteilung? Wie oben angenommen wurde, sind die Fehler die einzigen Zufallsvariablen in (9.1), da die xi fest vorgegeben sind. Weiter sind die Fehler als normalverteilt angenommen worden. Damit ist yi als lineare Funktion einer normalverteilten Zufallsvariablen ebenfalls normalverteilt. Nun ist b eine gewichtete Summe der Zufallsvariablen yi und somit als Summe von normalverteilten Zufallsva2 riablen ebenfalls normalverteilt, b ∼ N (β1 , Sσxx ).

9.3 Induktive multiple Regression

197

9.2.2 Hypothesentests f¨ ur den Parameter b Im vorherigen Abschnitt haben wir uns die Verteilung von b unter bestimmten Annahmen hergeleitet und sowohl den Erwartungswert als auch die Varianz spezifiziert. Damit k¨ onnen wir einen Test f¨ ur den unbekannten Parameter β1 konstruieren. Die Hypothesen lauten: H 0 : β1 = b 0 H1 : β1 = b0 Nat¨ urlich k¨onnen auch einseitige Hypothesen betrachtet werden. Als Pr¨ ufgr¨osse w¨ ahlen wir unseren gesch¨ atzten Wert b. Werte nahe bei ur die Nullhypothese; ’nahe bei b0 ’ h¨angt von der Varianz von b0 sprechen f¨ b ab. Die Varianz (9.6) h¨ angt aber von dem unbekannten Parameter σ 2 ab. Dieser wird erwartungstreu u ¨ber n

n

1  1  2 ǫˆi = (yi − yˆi )2 s = n − 2 i=1 n − 2 i=1 2

gesch¨atzt. Damit ist die gesch¨ atzte Varianz von b 2  = s . Var(b) Sxx

Wenn b normalverteilt ist mit b und

σ2 Sxx ,

dann ist die Standardisierung

√ b − b0 (b − b0 ) Sxx T = # = s  Var(b)

(9.7)

t-verteilt mit n − 2 Freiheitsgeraden. H0 wird folglich abgelehnt, wenn |T | > tn−2,1− α2 . Ein wichtiger Spezialfall ist b0 = 0. Dies Hypothese testet ob X einen signifikanten Einfluss auf y hat. Kann H0 nicht abgelehnt werden, so kann nicht ausgeschlossen werden, dass β = 0 ist und somit X keinen Einfluss hat.

9.3 Induktive multiple Regression Bei der Untersuchung von Zusammenh¨ angen in der Wirtschaft, den Sozialwissenschaften, in Naturwissenschaften, Technik oder Medizin steht man

198

9. Lineare Regression

h¨aufig vor dem Problem, dass eine zuf¨ allige Variable Y (auch Response genannt) von mehr als einer Einflussgr¨ oße, d.h. von X1 , . . . , XK , abh¨angt. Wir beschr¨anken uns auf den Fall, dass X1 , . . . , XK stetig und nicht zuf¨allig sind und Y stetig ist. Das Modell lautet Yi = β1 Xi1 + . . . + βK XiK + ǫi ,

i = 1, . . . , n .

Wir setzen voraus, dass alle Variablen n-mal beobachtet wurden und stellen dies in Matrixschreibweise dar y = β1 x1 + . . . + βk xk + ǫ = Xβ + ǫ . Dabei sind y, xi und ǫ n-Vektoren, β ein K-Vektor und X eine n×K-Matrix. Zus¨atzlich wird x1 im allgemeinen als 1 = (1, . . . , 1)′ gesetzt, wodurch eine Konstante (Intercept) in das Modell eingef¨ uhrt wird. Anmerkung. Im Gegensatz zur bisherigen strengen Unterscheidung zwischen Zufallsvariable Y und Realisierung y bedeutet der Vektor y nun sowohl die vektorielle Zufallsvariable y = (y1 , . . . , yn )′ als auch die Realisierung in der Stichprobe bei der Berechnung des konkreten Wertes von Parametersch¨atzungen. Dies wird jedoch jeweils aus dem Zusammenhang klar. Die Matrix X ist keine Zufallsgr¨oße. Wir treffen folgende Annahmen u ¨ ber das klassische lineare Regressionsmodell ⎫ y = Xβ + ǫ ⎪ ⎪ ⎪ X nichtstochastisch ⎪ ⎬ Rang(X) = K (9.8) ⎪ ⎪ E(ǫ) = 0 ⎪ ⎪ ⎭ E(ǫǫ′ ) = σ 2 In .

Die letzte Annahme E(ǫǫ′ ) = σ 2 In bedeutet, dass E(ǫ2i ) = σ 2 (i = 1, . . . , n) ur alle i = j) gilt. Die Fehlervariablen ǫi haben dieselbe und Cov(ǫi , ǫj ) = 0 (f¨ Varianz σ 2 und sind unkorreliert. Die Rangbedingung an X besagt, dass keine exakten linearen Beziehungen zwischen den Einflussgr¨oßen X1 , . . . , XK (den sogenannten Regressoren) bestehen. Insbesondere existiert die Inverse (X′ X)−1 . 9.3.1 Beste lineare erwartungstreue Sch¨ atzung von β Wir sind an optimalen Sch¨ atzungen der unbekannten Parameter β und σ 2 interessiert, die nach folgendem Prinzip hergeleitet werden: Wir w¨ahlen eine ˆ von β gem¨ in y lineare Sch¨ atzfunktion β aß ˆ = Cy , β wobei die K × n-Matrix C durch Minimierung einer geeignet gew¨ahlten Risikofunktion bestimmt wird. Wir w¨ ahlen die quadratische Risikofunktion.

9.3 Induktive multiple Regression

199

ˆ von Definition 9.3.1. Die quadratische Risikofunktion einer Sch¨atzung β β im Modell (9.8) ist definiert als ˆ β) = E(y − Xβ) ˆ ′ (y − Xβ) ˆ . r(β, ˆ ′ (y − Xβ) ˆ ist eine zuf¨allige Variable, die Die quadratische Form (y − Xβ) ˆ bezeichnet wird. Durch den als Verlust bei der Sch¨ atzung von y durch Xβ Erwartungswert wird der u ¨ ber die Verteilung von y gemittelte Verlust – das ˆ β) – gebildet. Ziel ist die Minimierung von r(β, ˆ β) in der Klasse Risiko r(β, der linearen erwartungstreuen Sch¨ atzungen. Wir erhalten die L¨ osung des Optimierungsproblems als (vgl. z. B. Toutenburg, 1992a) ˆ = b = (X′ X)−1 X′ y, β (9.9) die mit der empirischen KQ-Sch¨ atzung b u ¨ bereinstimmt. Die Optimalit¨at von b wird in Gestalt des fundamentalen Gauss-Markov-Theorems formuliert. Theorem 9.3.1 (Gauss–Markov-Theorem). Im klassischen linearen Regressionsmodell (9.8) ist die Sch¨atzung b = (X′ X)−1 X′ y

(9.10)

mit der Kovarianzmatrix Vb = σ 2 (X′ X)−1 die beste (homogene) lineare erwartungstreue Sch¨atzung von β. (Man bezeichnet b auch als Gauss–Markov-(GM)-Sch¨atzung.) Diese Optimalit¨ at u agt sich auch auf die Sch¨atzung des bedingten ¨ bertr¨ Erwartungswertes von y. Sei x∗ ein K-Vektor von Werten der Variablen X1 , . . . , XK und y∗ = x∗ β + ǫ∗ das lineare Modell zum Index ∗ (z.B. ein Zeitpunkt). Dann gilt f¨ ur die optimale lineare Sch¨atzung von x′∗ β der folgende Satz: Theorem 9.3.2. Im klassischen linearen Regressionsmodell (9.8) hat die beste lineare erwartungstreue Sch¨atzung des bedingten Erwartungswertes E(y∗ |x′∗ ) = x′∗ β die Gestalt yˆ∗ = x′∗ b und die Varianz Var(ˆ y∗ ) = x′∗ Vb x∗ . 9.3.2 Sch¨ atzung von σ 2 ˆ = Xb, der gesch¨atzte Fehlervektor ist ˆǫ = Der Vorhersagewert von y ist y ˆ . Die Quadratsumme ˆǫ′ ˆǫ des gesch¨ y−y atzten Fehlervektors ˆǫ bietet sich als Grundlage f¨ ur eine Sch¨ atzung von σ 2 in nat¨ urlicher Weise an. Es gilt E(ˆǫ′ ˆǫ) = σ 2 (n − K)

200

9. Lineare Regression

(f¨ ur eine ausf¨ uhrliche Herleitung verweisen wir auf Toutenburg, 1992a), so dass wir die erwartungstreue Sch¨ atzung f¨ ur σ 2 s2 =

ˆǫ′ ˆ (y − Xb)′ (y − Xb) ǫ = (n − K) (n − K)

(9.11)

und damit als erwartungstreue Sch¨ atzung f¨ ur Vb Vˆb = s2 (X′ X)−1

(9.12)

erhalten. 9.3.3 Klassische Normalregression Die bisher abgeleiteten Ergebnisse im klassischen linearen Regressionsmodell haben G¨ ultigkeit f¨ ur alle Wahrscheinlichkeitsverteilungen der Fehlervariablen ǫ, f¨ ur die E(ǫ) = 0 und E(ǫǫ′ ) = σ 2 I gilt. Wir spezifizieren nun auch den Typ der Verteilung von ǫ, indem wir zus¨ atzlich zu den Modellannahmen (9.8) die folgende Annahme treffen. Der Vektor ǫ der zuf¨ alligen Fehler ǫi besitzt eine n-dimensionale Normalverteilung Nn (0, σ 2 I), d.h., es ist ǫ ∼ Nn (0, σ 2 I), so dass die Komponenten ǫi i = 1, . . . , n unabh¨ angig und identisch N (0, σ 2 )-verteilt sind. Damit besitzt ǫ die Dichtefunktion   n & 1 (2πσ 2 )−1/2 exp − 2 ǫ2i f (ǫ; 0, σ 2 I) = 2σ i=1  ! n 1  2 2 −n/2 exp − 2 ǫ = (2πσ ) . 2σ i=1 i Das klassische lineare Regressionsmodell mit normalverteilten Fehlern – kurz das klassische Modell der Normalregression – hat dann die Gestalt ⎫ y = Xβ + ǫ, ⎬ ǫ ∼ Nn (0, σ 2 I), (9.13) ⎭ X nichtstochastisch, Rang(X) = K .

9.3.4 Maximum-Likelihood-Sch¨ atzung

Durch die Festlegung der Verteilung ist es nun m¨oglich, die ML-Sch¨atzungen der Parameter herzuleiten. Mit (9.13) erhalten wir f¨ ur y y = Xβ + ǫ ∼ Nn (Xβ, σ 2 I) , so dass die Likelihood-Funktion von y die folgende Gestalt hat:  " 1 2 2 −n/2 ′ L(β, σ ) = (2πσ ) exp − 2 (y − Xβ) (y − Xβ) . 2σ

9.3 Induktive multiple Regression

201

Wegen der strengen Monotonie der logarithmischen Transformation kann man statt L(β, σ 2 ) auch die Loglikelihood l(β, σ 2 ) = ln L(β, σ 2 ) maximieren, ohne dass sich das Maximum ¨ andert: l(β, σ 2 ) = −

1 n ln(2πσ 2 ) − 2 (y − Xβ)′ (y − Xβ) . 2 2σ

Wir erhalten die ML-Sch¨ atzungen von β und σ 2 durch Nullsetzen der ersten (vektoriellen) Ableitungen 1 ∂l = 2X′ (y − Xβ) = 0 , ∂β 2σ 2 ∂l n 1 =− 2 + (y − Xβ)′ (y − Xβ) = 0 ∂σ 2 2σ 2(σ 2 )2 also ˆ = X′ y , X′ Xβ 1 ˆ ′ (y − Xβ) ˆ . σ ˆ 2 = (y − Xβ) n

(9.14) (9.15)

Gleichung (9.14) ist die Normalgleichung, aus der wir auf Grund der Voraussetzung Rang(X) = K die eindeutig bestimmte L¨osung (ML-Sch¨atzung) ˆ = b = (X′ X)−1 X′ y β

(9.16)

erhalten. Ein Vergleich von (9.15) mit der erwartungstreuen Sch¨atzung s2 (9.11) ergibt die Relation n−K 2 σ ˆ2 = s , (9.17) n so dass σ ˆ 2 nicht erwartungstreu ist. F¨ ur den asymptotischen Erwartungswert erhalten wir lim E(ˆ σ 2 ) = E(s2 ) = σ 2 . n→∞

Damit gilt Theorem 9.3.3. Im Modell (9.13) der klassischen Normalregression stimmen die ML- und die KQ-Sch¨atzung von β u ˆ2 ¨berein. Die ML-Sch¨atzung σ 2 (9.17) von σ ist verzerrt, jedoch asymptotisch erwartungstreu. In der Praxis wird man s2 aus (9.11) als erwartungstreue Sch¨atzung von σ verwenden. 2

9.3.5 Pr¨ ufen von linearen Hypothesen Wir entwickeln in diesem Abschnitt Testverfahren zum Pr¨ ufen von linearen Hypothesen im Modell (9.13) der klassischen Normalregression. Bei der statistischen Untersuchung eines Regressionsmodells (mit Intercept) y = β0 +X1 β1 +. . .+XK βK +ǫ sind folgende Hypothesen von Interesse.

202

9. Lineare Regression

(i) Globale Hypothese H0 : β1 = . . . = βK = 0

gegen

H1 : β1 = 0, . . . , βK = 0. Dies bedeutet den Vergleich der Modelle (unterH0 ) y = β0 + ǫ und (unterH1 ) y = β0 + X1 β1 + . . . + XK βK + ǫ . Die Nullhypothese besagt, dass y durch kein Modell erkl¨art wird. (ii) Pr¨ ufen des Einflusses einer Variablen Xi Die Hypothesen lauten Ho : βi = 0 gegen H1 : βi = 0 . Falls H0 nicht abgelehnt wird, kommt die Variable Xi als Einflussgr¨oße (im Rahmen des linearen Modells) nicht in Betracht. Anderenfalls wird Xi in das Modell als Einflussgr¨ oße aufgenommen. (iii) Gleichzeitiges Pr¨ ufen des Einflusses mehrerer X-Variablen Die Hypothesen lauten z. B. H0 : β1 = β2 = β3 = 0 gegen H1 : βi = 0 (i = 1, 2, 3) Dabei werden die Modelle (unterH0 ) y = β0 + β4 X4 + . . . + βK XK + ǫ und (unterH1 ) y = β0 + β1 X1 + β2 X2 + β3 X3 + β4 X4 + . . . + βK XK + ǫ verglichen. Die Modelle unter H0 sind also stets Teilmodelle des vollen Modells, das alle Variablen Xi enth¨ alt. Diese Hypothesen lassen sich in folgenden Formalismus einbinden. Die allgemeine lineare Hypothese H0 : Rβ = r ,

σ 2 > 0 beliebig

(9.18)

wird gegen die Alternative H1 : Rβ = r , getestet, wobei wir voraussetzen:

σ 2 > 0 beliebig

(9.19)

9.3 Induktive multiple Regression

⎫ R eine (K − l) × K-Matrix, ⎪ ⎪ ⎪ ⎪ r ein (K − l)-Vektor, ⎬ Rang(R) = K − l, ⎪ ⎪ l ∈ {0, 1, . . . , K − 1}, ⎪ ⎪ ⎭ R, r nichtstochastisch und bekannt.

203

(9.20)

Die Hypothese H0 besagt, dass der Parametervektor β zus¨atzlich zu den Modellannahmen (K − l) exakten linearen Restriktionen gen¨ ugt, die wegen Rang(R) = K − l linear unabh¨ angig sind. Die Rangbedingung an R sichert, dass keine Scheinrestriktionen gepr¨ uft werden. Beispiel 9.3.1. Sei K = 3, so dass wir das Modell y = x1 β1 + x2 β2 + x3 β3 + ǫ ⎛ ⎞ β1 = (x1 , x2 , x3 ) ⎝ β2 ⎠ + ǫ β3 = Xβ + ǫ betrachten. ahlt, so l¨ asst sich dies als r = Rβ formulieren mit Sei H0 : β3 = 0 gew¨ r = 0,

R = (0, 0, 1),

Rang(R) = 1 .

Sei H0 : β2 = β3 = 0, so erhalten wir     0 010 r= , R= , 0 001

Rang(R) = 2 .

Die allgemeine lineare Hypothese (9.18) l¨asst sich auf zwei wesentliche Spezialf¨alle ausrichten. Fall 1, l = 0: Die Hypothese H0 aus (9.18) betrifft dann den gesamten Parametervektor. Nach Voraussetzung (9.20) ist dann die K × K-Matrix R regul¨ar, und wir k¨ onnen H0 und H1 wie folgt darstellen: H0 : β = R−1 r = β∗ , σ 2 > 0 beliebig , H1 : β = β∗ , σ 2 > 0 beliebig .

(9.21) (9.22)

Fall 2, l > 0: Die Hypothese H0 legt K − l Komponenten von β fest. Bei der Behandlung dieses Falles beschr¨ anken wir uns auf eine spezielle Matrix R, n¨amlich R = (0, IK−l ) .   β1 Wir unterteilen den Parametervektor β in β = und analog die Xβ2 Matrix in (X1 , X2 ). Dann bedeutet die Restriktion r = Rβ

204

9. Lineare Regression

r = (0, I)



β1 β2



= β2 .

Die Hypothesen H0 (9.18) und H1 (9.19) sind dann gleichwertig mit H0 : β 2 = r , H1 : β2 = r ,

β 1 und σ 2 > 0 beliebig, β 1 und σ 2 > 0 beliebig.

(9.23)

Diese Hypothesen werden bei der Modellwahl eingesetzt. Setzt man r = 0, so wird H0 : y = X1 β 1 + ǫ gegen H1 : y = X1 β 1 + X2 β2 + ǫ gepr¨ uft. Pr¨ ufen der Hypothesen Bezeichnen wir den vollen Parameterraum, d.h. den Raum, in dem entweder H0 oder H1 gilt, mit Ω und den durch H0 eingeschr¨ankten Parameterraum mit Ω ′ , so gilt Ω ′ ⊂ Ω mit Ω = {β, σ 2 : β ∈ RK , σ 2 > 0} ,

Ω ′ = {β, σ 2 : β ∈ RK und Rβ = r, σ 2 > 0} . Zur Konstruktion der Teststatistik verwenden wir den Likelihood-Quotienten maxH0 L(Θ) maxΩ ′ L(Θ) = , (9.24) λ(y) = maxΩ L(Θ) maxH0 ∪H1 L(Θ) der f¨ ur das Modell (9.13) der klassischen Normalregression folgende Gestalt ˆ an, es gilt also mit hat. L(Θ) nimmt sein Maximum f¨ ur die ML-Sch¨atzung Θ 2 Θ = (β, σ ) ˆ σ max L(β, σ 2 ) = L(β, ˆ2) 2 β,σ

und damit

 " 1 ˆ ′ (y − Xβ) ˆ = (2πˆ σ 2 )−n/2 exp − 2 (y − Xβ) 2ˆ σ 2 n3 σ 2 )−n/2 exp − = (2πˆ 2 λ(y) =



2 σ ˆΩ ′ 2 σ ˆΩ

−n/2

,

2 2 wobei σ ˆΩ ˆΩ die ML-Sch¨ atzungen von σ 2 unter H0 bzw. im vollen ′ bzw. σ Parameterraum Ω sind. Wie aus (9.24) ersichtlich ist, liegt λ(y) zwischen 0 und 1. λ(y) ist selbst ußte der Z¨ahler von λ(y) bei uneine Zufallsvariable. Ist H0 richtig, so m¨ abh¨angigen Stichproben in der Mehrzahl der F¨alle einen im Vergleich zum Nenner hinreichend großen Wert ergeben, so dass λ(y) unter H0 einen Wert nahe 1 annehmen m¨ ußte. Umgekehrt m¨ ußte λ(y) bei G¨ ultigkeit von H1 vorwiegend Werte nahe 0 annehmen.

9.3 Induktive multiple Regression

205

Wir f¨ uhren folgende streng monotone Transformation durch, um zu einer Teststatistik zu kommen, die unter H0 eine bekannte Verteilung besitzt. −2/n

F = {(λ(y)) − 1}(n − K)(K − l)−1 σ ˆ2 ′ − σ ˆ2 n − K . = Ω 2 Ω · σ ˆΩ K−l

(9.25)

F¨ ur λ(y) → 0 gilt F → ∞ und f¨ ur λ(y) → 1 gilt F → 0, so dass eine Stichprobe im Bereich F nahe 0“ nicht gegen H0 und im Bereich F hinreichend ” ” ur die groß“ gegen H0 spricht. Wir bestimmen nun F und seine Verteilung f¨ beiden Spezialf¨alle der allgemeinen linearen Hypothese. Fall 1, l = 0: Die ML-Sch¨ atzungen unter H0 (9.21) sind ˆ = β∗ β

2 und σ ˆΩ ′ =

1 (y − Xβ ∗ )′ (y − Xβ ∗ ) . n

Die ML-Sch¨atzungen u ¨ ber dem vollen Parameterraum Ω sind nach (9.16) und (9.15) 1 2 ˆ = b und σ β ˆΩ = (y − Xb)′ (y − Xb) . n Nach einer Reihe von Umformungen erhalten wir (vgl. Toutenburg, 1992a) als Teststatistik F =

(b − β ∗ )′ X′ X(b − β ∗ ) n − K · , (y − Xb)′ (y − Xb) K

(9.26)

die unter H0 : β = β ∗ eine FK,n−K -Verteilung besitzt. Bezeichnung: der Nenner von F wird als SQResidual bezeichnet (Restvarianz), der Ausdruck im Z¨ ahler von F (9.26) heißt SQRegression : SQResidual = (y − Xb)′ (y − Xb) SQRegression = (b − β∗ )′ X′ X(b − β∗ ) SQRegression mißt den durch das Regressionsmodell erkl¨arten Anteil an der Gesamtvariabilit¨ at. Es gilt die fundamentale Formel der Streuungszerlegung SQT otal = SQRegression + SQResidual n mit SQT otal = ¯)2 . SQT otal ist -bis auf die Freiheitsgrade- die i=1 (yi − y Stichprobenvarianz in der y-Stichprobe. Mit diesen Bezeichnungen l¨ asst sich F schreiben als F =

SQRegression n − K · . SQResidual K

Bezeichnen wir mit fK,n−K,1−α das (1−α)-Quantil der FK,n−K -Verteilung, ¨ so erhalten wir auf Grund unserer soeben gef¨ uhrten Uberlegungen bei einer vorgegebenen Irrtumswahrscheinlichkeit α folgende Entscheidungsregel:

206

9. Lineare Regression

H0 nicht ablehnen, falls 0 ≤ F ≤ fK,n−K,1−α , H0 ablehnen, falls F > fK,n−K,1−α .

"

Eine Auswahl kritischer Werte der F -Verteilung ist im Anhang (Tabellen B5-B8) enthalten. Fall 2, l > 0: Die ML-Sch¨ atzungen unter H0 : β 2 = r (9.23) sind ˆ = (X′ X1 )−1 X′ (y − X2 r) , β 1 1 1 ˆ β2 = r , ′   1 2 ˆ ˆ . y − X1 β y − X1 β σ ˆΩ ′ = 1 1 n

Hier erhalten wir als Teststatistik (vgl. Toutenburg, 1992a) (b2 − r)′ D(b2 − r) n − K (y − Xb)′ (y − Xb) K − l SQRegression n − K = · SQResidual K −l

F =

mit

⎫ b2 = D−1 X′2 M1 y , ⎬ D = X′2 M1 X2 , ⎭ M1 = I − X1 (X′1 X1 )−1 X′1

(9.27)

(9.28)

(b2 ist die β 2 entsprechende Komponente in b). Dann besitzt die Teststatistik F unter H0 eine FK−l,n−K -Verteilung. H0 wird abgelehnt, falls F > fK−l,n−K,1−α ist. 9.3.6 Pr¨ ufen der univariaten Regression Diese Sektion liefert als Erg¨ anzung zu 9.2 den F-Test im univariaten Fall und die Konfidenzintervalle der Parametersch¨ atzungen. Zus¨atzlich zeigt sie auf, das sich durch die Matrixschreibweise viele Formalismen einfacher darstellen lassen. Gegeben sei das univariate lineare Modell yi = β0 + β1 xi + ǫi

(i = 1, . . . , n)

mit ǫi ∼ N (0, σ 2 ). Das Modell (9.29) hat in Matrixschreibweise die Gestalt y = (1x)β + ǫ mit

(9.29)

9.3 Induktive multiple Regression

β=



β0 β1



207

.

Die Kleinste-Quadrat-Sch¨ atzung b = (X′ X)−1 X′ y (vgl. (9.10)) von β lautet in diesem speziellen Modell mit der Matrix X = (1x)   b0 b= b1 mit den Komponenten ¯ und b0 = y¯ − b1 x

b1 =

Sxy . Sxx

Die G¨ ultigkeit des Modells (9.29) bedeutet insbesondere, dass der Parame¨ ufung dieser Annahme bedeutet ter β1 von Null verschieden ist. Die Uberpr¨ formal den Vergleich der Modelle unter den Hypothesen H0 : y t = β0 + ǫ t H1 : yt = β0 + β1 xt + ǫt , d.h. die Pr¨ ufung von H0 : β1 = 0 gegen H1 : β1 = 0. Die zugeh¨orige Teststatistik (9.27) wird mit D aus (9.28), d.h. mit D = x′ x − x′ 1(1′ 1)−1 1′ x    ( xi )2 2 = xi − = (xi − x ¯)2 = Sxx n

und K = 2, l = 1 zu

b21 Sxx s2 SQRegression = · (n − 2) . SQResidual

F =

Mit den Bezeichnungen M QRegression = und M QResidual =

SQRegression K −l

SQResidual = s2 n−K

l¨asst sich die Teststatistik (9.27) schreiben als (beachte K = 2, l = 1) F =

M QRegression . M QResidual

Sie besitzt unter H0 : β1 = 0 eine F1,n−2 -Verteilung.

208

9. Lineare Regression Tabelle 9.1. Arbeitstabelle zur Berechnung der Sch¨ atzungen i 1 2 3 4 5 6 7 8 9 10 P

yi 2.0 3.0 6.0 5.0 1.0 6.0 5.0 11.0 14.0 17.0 70 y¯ = 7

xi 1.5 2.0 3.5 2.5 0.5 4.5 4.0 5.5 7.5 8.5 40 x ¯=4

Syy

yi − y¯ −5.0 −4.0 −1.0 −2.0 −6.0 −1.0 −2.0 4.0 7.0 10.0 0.0 = 252

xi − x ¯ −2.5 −2.0 −0.5 −1.5 −3.5 0.5 0.0 1.5 3.5 4.5 0.0 Sxx = 60

(xi − x ¯)(yi − y¯) 12.5 8.0 0.5 3.0 21.0 −0.5 0.0 6.0 24.5 45.0 Sxy = 120

Beispiel 9.3.2. In einem Kaufhauskonzern mit n = 10 Filialen sollen die Auswirkungen von Werbeausgaben xi auf die Umsatzsteigerung yi untersucht werden (Werbung: 1000 DM als Einheit, Umsatzsteigerung: 10000 DM als Einheit). Wir verwenden die Daten aus Tabelle 9.1 und wollen die Hypothese H0 : β1 = 0 gegen H1 : β1 = 0 f¨ ur das univariate lineare Regressionsmodell yi = β0 + β1 xi + ǫi u ufen. Es ist n = 10, K = 2, l = 1, ¨ berpr¨ SQResidual = 12 SQRegression = 240 und damit 12 SQResidual = = 1.5 n−K 10 − 2 SQRegression 240 = = = 240 . K −s 1

M QResidual = M QRegression

Die Teststatistik hat den Wert F = 240 1.5 = 160. Sie ist unter H0 : β1 = 0 mit F1,8 -verteilt. Der Wert F = 160 ist gr¨ oßer als der kritische Wert f1,8,0.05 = 5.32 (p-value von 0.000, vgl. SPSS Listing), so dass H0 : β1 = 0 zugunsten von aquivalent zur Ablehnung des Modells H1 : β1 = 0 abgelehnt wird. Dies ist ¨ yi = β0 + ǫi zugunsten des Modells yi = β0 + β1 xi + ǫi . In Abbildung 9.3 ist die Regressionsgerade dargestellt, das Listing in Abbildung 9.2 zeigt die Berechnungen der Sch¨ atzungen mit SPSS. 9.3.7 Konfidenzbereiche Neben der Punktsch¨ atzung b f¨ ur β wollen wir nun auch Konfidenzsch¨atzungen f¨ ur β herleiten. Falls β ein Vektor ist, ergeben sich Konfidenzellipsoide statt der Konfidenzintervalle im univariaten Fall.

9.3 Induktive multiple Regression

209

Model Summary

Model 1

Std. Error of the Estimate 1,2247

Adjusted R Square ,946

R R Square ,976a ,952

a. Predictors: (Constant), X ANOVAb

Model 1

Regression Residual Total

Sum of Squares 240,000 12,000 252,000

df 1 8 9

Mean Square 240,000 1,500

F 160,000

Sig. ,000a

a. Predictors: (Constant), X b. Dependent Variable: Y

Abb. 9.1. SPSS-Output zu Beispiel 9.3.2 Coefficientsa

Model 1

(Constant) X

Unstandardized Coefficients B Std. Error -1,000 ,742 2,000 ,158

Standardi zed Coefficien ts Beta ,976

t -1,348 12,649

Sig. ,214 ,000

95% Confidence Interval for B Lower Bound Upper Bound -2,710 ,710 1,635 2,365

a. Dependent Variable: Y

Abb. 9.2. SPSS-Output zu Beispiel 9.3.2 (Fortsetzung)

Konfidenzintervalle im univariaten Fall: β0 und β1 Die Kovarianzmatrix der KQ-Sch¨ atzung hat die Gestalt Vb = σ 2 (X′ X)−1 (vgl. (9.12)). F¨ ur das Modell (9.29) erhalten wir mit X = (1, x)  ′    1 1 1′ x n  n¯ x X′ X = = , 1′ x x′ x n¯ x x2i 1 2  σ2 xi −¯ x n σ 2 (X′ X)−1 = −¯ x 1 Sxx mit Sxx =

 (xi − x ¯)2 und daraus

1 Sxx  2  2 xi σ2 xi − n¯ x2 + n¯ x2 σ2 Var(b0 ) = · = n Sxx n Sxx Var(b1 ) = σ 2

9. Lineare Regression

Y

210

20

10

0

-10 0

2

4

6

8

10

X Abb. 9.3. Regressionsgerade im Beispiel 9.3.2



2



1 x¯2 + n Sxx



.

Die gesch¨atzten Varianzen sind also 2 1 ) = s Var(b Sxx

und 0 ) = s2 Var(b mit s2 aus (9.11) (K = 2 gesetzt). iid. Da ǫi ∼ N (0, σ 2 ) gilt, ist b1 ∼ N also gilt

Analog erhalten wir

1 x¯2 + n Sxx



(9.31)

  σ2 , β1 , Sxx

b 1 − β1 # 1 ) Var(b b0 ∼ N



(9.30)





β0 , σ 2

b 0 − β0 # ∼ tn−2 . 0 ) Var(b

tn−2 .



1 x¯2 + n Sxx



,

9.3 Induktive multiple Regression

211

Wir berechnen die Konfidenzintervalle f¨ ur β0 und β1 zum Niveau 1 − α   # #   b0 − tn−2,1−α/2 · Var(b0 ) , b0 + tn−2,1−α/2 · Var(b0 ) (9.32) bzw.



 # #   b1 − tn−2,1−α/2 · Var(b1 ) , b1 + tn−2,1−α/2 · Var(b1 ) .

(9.33)

Beispiel 9.3.3 (Fortsetzung von Beispiel 9.3.2). Das SPSS Listing in Abbildung 9.2 zeigt zus¨ atzlich zu den Sch¨ atzungen b0 und b1 (Spalte B) auch die Konfidenzintervalle f¨ ur β0 (Zeile (Constant)) und β1 (Zeile X). Die in (9.32) und (9.33) verwendeten Sch¨ atzungen der Quadratwurzeln der Varianzen ((9.30) und (9.31)) sind in der Spalte Std.Error gegeben. Direkte Berechnung liefert mit s2 = M QResidual = 1.5 (Abbildung 9.1), x¯ = 4 (Tabelle 9.1), Sxx = 60 (Tabelle 9.1) 1.5 = 0.025 = 0.1582 [(9.30)], V ar(b1 ) = 60   1 42  V ar(b0 ) = 1.5 + = 0.55 = 0.7422 [(9.31)]. 10 60 Mit t8,0.975 = 2.3060 (Tabelle B.4) erhalten wir gem¨aß (9.32) [−1 − 2.3060 ∗ 0.742, −1 + 2.3060 ∗ 0.742] = [−2.711, 0.711] und analog gen¨aß (9.33) [2 − 2.3060 ∗ 0.158, 2 + 2.3060 ∗ 0.158] = [1.636, 2.364] . Konfidenzellipsoid f¨ ur den vollen Parametervektor β Wie im univariaten Fall gibt es auch im multiplen Modell einen engen Zu¯ der F -Tests und Konfidenzbereichen sammenhang zwischen den Bereichen K f¨ ur β oder Subvektoren von β. Aus (9.26) erhalten wir f¨ ur β∗ = β das Konfidenzellipsoid zum Niveau 1 − α aus der Ungleichung (b − β)′ X′ X(b − β) n − K · ≤ fK,n−K,1−α . (y − Xb)′ (y − Xb) K

(9.34)

Das Konfidenzellipsoid ist die Menge aller Punkte β ∈ RK , f¨ ur die (9.34) erf¨ ullt ist. Konfidenzellipsoid f¨ ur einen Teilvektor β2 von β = (β 1 , β 2 ) Setzen wir β 2 f¨ ur r in (9.27) ein, so folgt, dass alle β 2 ∈ RK−l , die die folgende Ungleichung erf¨ ullen, ein (1 − α)-Konfidenzelipsiod f¨ ur β 2 bilden: (b2 − β 2 )′ D(b2 − β2 ) n − K · ≤ fK−l,n−K,1−α . (y − Xb)′ (y − Xb) K−l

212

9. Lineare Regression

9.3.8 Vergleich von Modellen In der multiplen Regression steht man vor dem Problem des Vergleichs von Modellen mit hierarchisch angeordneten Variablenmengen. Sei das folgende lineare Modell mit einer Konstanten 1 und K − 1 echten Regressoren X1 , . . . , XK−1 gegeben: y = 1β0 + x1 β1 + . . . + xK−1 βK−1 + ǫ ˜ = 1β0 + Xβ +ǫ  ∗ β 0 ˜ = (1 X) +ǫ β∗ = Xβ + ǫ. ˜ Man vergleicht zun¨ achst das volle Modell y = 1β0 + Xβ ∗ + ǫ = Xβ + ǫ mit dem Modell y = 1β0 + ǫ ohne echte Regressoren. In diesem Modell ist ¯ , und die zugeh¨ βˆ0 = y orige Residual-Quadratsumme ist   (yt − y¯)2 = Syy . (yt − yˆt )2 =

Damit ist SQResidual im Modell y = 1β0 + ǫ gleich SQT otal im vollen Modell. F¨ ur das volle Modell wird β = (β0 , β∗ )′ durch die KQ-Sch¨atzung ′ b = (X X)−1 X′ y gesch¨ atzt. Nehmen wir die Unterteilung von β in den zur Konstanten 1 geh¨orenden Parameter β0 und den zu den echten Regressoren geh¨orenden Subvektor β ∗ ¯ = (¯ in die Sch¨atzung b hinein, so erhalten wir mit x x1 , . . . , x ¯K−1 )′   βˆ ˆ = (X ˆ′ x ˜ ′ X) ˜ −1 X ˜ ′ y, βˆ0 = y¯ − β b = ˆ0 , β ∗ ∗ ¯. β∗ Damit gilt im vollen Modell (vgl. Weisberg, 1980) SQResidual = (y − Xb)′ (y − Xb) = y′ y − b′ X′ Xb

ˆ + n¯ ˆ ′ (X ˜ ′ X) ˜ β = (y − 1¯ y)′ (y − 1¯ y) − β y2 . ∗ ∗

Der durch die Regression – also die Hereinnahme der Regressormatrix X – erkl¨arte Variabilit¨ atsanteil wird ′

ˆ − n¯ ˆ (X ˜ ′ X) ˜ β SQRegression = SQT otal − SQResidual = β y2 . ∗ ∗ Das multiple Bestimmtheitsmaß 2 RK =

SQRegression SQT otal

mißt den relativen Anteil der durch Regression auf X1 , . . . , XK−1 erkl¨arten Variabilit¨at im Verh¨ altnis zur Gesamtvariabilit¨at SQT otal .

9.3 Induktive multiple Regression

213

Der F -Test zum Pr¨ ufen von H0 : β∗ = 0 gegen H1 : β ∗ = 0 (also H0 : ˜ y = 1β0 + ǫ gegen H1 : y = 1β0 + Xβ ∗ + ǫ) basiert auf der Teststatistik F =

SQRegression /(K − 1) , s2

(9.35)

die unter H0 eine FK−1,n−K -Verteilung besitzt. Falls H0 : β∗ = 0 abgelehnt wird, folgt die Pr¨ ufung von Hypothesen bez¨ uglich einzelner Komponenten von β. Dieses Problem tritt auf, wenn man aus einer m¨oglichen Menge X1 , . . . , XK−1 von Regressoren ein z.B. bez¨ uglich des Bestimmtheitsmaßes bestes Modell finden will. 9.3.9 Kriterien zur Modellwahl Draper und Smith (1966) und Weisberg (1980) geben eine Reihe von Kriterien zur Modellwahl an. Wir beschr¨ anken uns im Folgenden auf das Ad-hocKriterium und das Bestimmtheitsmaß. Ad-hoc-Kriterium Sei {X1 , . . . , XK } die volle Regressormenge (unter Einschluss der Konstanten) und {Xi1 , . . . , Xip } eine Auswahl von p Regressoren (Untermenge). Wir p bezeichnen die Residual-Quadratsummen mit SQK Residual bzw. SQResidual . Die Parametervektoren seien β f¨ ur X = {X1 , · · · , XK }, β 1 f¨ ur X1 = {Xi1 , · · · , Xip } und β 2 f¨ ur X2 = {X1 , · · · , XK }\{Xi1 , · · · , Xip }. Dann bedeutet die Wahl zwischen dem Modell mit der vollen Regressormenge und dem Modell mit der Untermenge von Regressoren die Pr¨ ufung von H0 : β 2 = 0. Wir wenden den F -Test (vgl. (9.25)) an: F =

(SQpResidual − SQK Residual )/(K − p) . SQK Residual /(n − K)

(9.36)

Diese Teststatistik hat unter H0 eine FK−p,n−K -Verteilung. Das volle Modell ist gegen¨ uber dem Submodell zu bevorzugen, falls H0 : β 2 = 0 abgelehnt wird, d.h., falls F > fK−p,n−K;1−α gilt. Anmerkung. Will man die jeweils einbezogene Matrix der Regressoren deutlich machen, so verwendet man sie als Index bei R2 und SQResidual , also z.B. 1 ,X2 2 RX oder SQ1,X Residual . Ist klar, um welche Variablen es sich handelt, und ist 1 nur die Anzahl p interessant, so verwendet man die Kennzeichnung Rp2 oder SQpResidual .

214

9. Lineare Regression

Die F -Statistik von (9.36) kann mit dieser Nomenklatur auch in folgender Gestalt geschrieben werden: F -Change =

X 1 (SQX Residual − SQResidual )/(K − p) . SQX Residual /(n − K)

(9.37)

Sie wird mit F -Change bezeichnet, da sie bei Modellwahlverfahren die Signifikanz in der Ver¨anderung von Rp2 durch Hinzunahme weiterer K − p Variablen uft. zum kleineren Modell (X1 -Matrix) pr¨ Modellwahl auf der Basis des adjustierten Bestimmtheitsmaßes Das multiple Bestimmtheitsmaß Rp2 = 1 −

SQpResidual SQT otal

f¨ ur ein Modell mit p Regressoren w¨ achst f¨ ur hierarchische Regressorenmengen 2 monoton in p im Sinne von Rp+1 ≥ Rp2 gem¨ aß dem folgenden Satz: Theorem 9.3.4. Sei y = X1 β 1 + X2 β 2 + ǫ = Xβ + ǫ ein volles Modell mit K Regressoren und y = X1 β 1 + ǫ ein Submodell mit p Regressoren. Dann gilt 2 2 RX − RX ≥ 0. (9.38) 1 Damit ist R2 als Vergleichskriterium ungeeignet, da das volle Modell stets den gr¨oßten R2 -Wert h¨ atte. Die Monotonieeigenschaft von Rp2 in der Parameter- oder Regressorenanzahl erfordert also eine Korrektur, die zum sogenannten adjustierten Bestimmtheitsmaß f¨ uhrt:   ¯ p2 = 1 − n − 1 (1 − Rp2 ). R n−p Anmerkung. Falls keine Konstante β0 im Modell enthalten ist, steht im ¯ p2 kann – im Gegensatz zu Rp2 – negativ werden. In der Z¨ahler n statt n − 1. R Praxis hat es sich durchgesetzt, eine Konstante im Modell mitzuf¨ uhren, die als Skalierungsgr¨ oße (wie auch in den Modellen der Varianzanalyse u ¨ blich, vgl. Kapitel 10) dient. Deshalb wird bei der Modellwahl die Signifikanz der Konstanten nicht u uft. ¨berpr¨ Falls f¨ ur zwei Modelle, von denen das kleinere vollst¨andig im gr¨oßeren Modell enthalten ist, ¯2 ¯2 < R R p+q

p

gilt, so signalisiert dies eine bessere Anpassung durch das Submodell.

9.4 Ein komplexes Beispiel

215

9.3.10 Die bedingte KQ-Sch¨ atzung Die Normalgleichung (9.14) ist nur eindeutig l¨ osbar, wenn die n×K-Matrix X von vollem Spaltenrang K ist, so dass (X′ X)−1 existiert. Im Fall Rang(X) = p < K, der in der Varianzanalyse auftritt, geht man wie folgt vor: Man bestimmt eine (K − p)× K-Matrix R mit Rang(R) = K − p so, dass  X die zusammengesetzte Matrix den Rang K besitzt. Ist dies erf¨ ullt, so R heißt R eine zu X komplement¨ are Matrix. Wir f¨ uhren u atzliche lineare Restriktion ¨ber R die zus¨ r = Rβ in das Modell y = Xβ + ǫ ein und ber¨ ucksichtigen diese Restriktion in der Zielfunktion: Q(β, λ) = (y − Xβ)′ (y − Xβ) + 2λ′ (Rβ − r) , λ ist ein (K − p)-Vektor aus Lagrange-Multiplikatoren. Aus dem Gleichungssystem 1 ∂Q(β, λ) = X′ Xβ − X′ y + R′ λ = 0 2 ∂β 1 ∂Q(β, λ) = Rβ − r = 0 2 ∂λ osung erhalten wir die eindeutig bestimmte L¨ b(R, r) = (X′ X + R′ R)−1 (X′ y + R′ r) ,

(9.39)

die wir als bedingte KQ-Sch¨ atzung von β bezeichnen. Es gilt E(b(R, r)) = β

(9.40)

und V(b(R, r)) = σ 2 (X′ X + R′ R)−1 X′ X(X′ X + R′ R)−1 . Die bedingte KQ-Sch¨ atzung wird in Kapitel 10 zur Sch¨atzung im Modell der Varianzanalyse eingesetzt.

9.4 Ein komplexes Beispiel Wir wollen die Modellwahl anhand der eingef¨ uhrten Kriterien ausf¨ uhrlich an einem Datensatz erl¨ autern. Es sei folgendes Modell mit K = 5 echten Regressoren und n = 10 Beobachtungen gegeben: y = 1β0 + x1 β1 + x2 β2 + x3 β3 + x4 β4 + ǫ.

216

9. Lineare Regression

Die Datenmatrix (y, X) ist ⎛

⎞ Y X1 X 2 X 3 X 4 ⎜ 18 3 7 20 −10 ⎟ ⎜ ⎟ ⎜ 47 7 13 5 19 ⎟ ⎜ ⎟ ⎜ 125 10 19 −10 100 ⎟ ⎜ ⎟ ⎜ 40 8 17 4 17 ⎟ ⎜ ⎟ ⎜ 37 5 11 3 13 ⎟ ⎜ ⎟ ⎜ 20 4 7 3 10 ⎟ ⎜ ⎟ ⎜ 24 3 6 10 5⎟ ⎜ ⎟ ⎜ 35 3 7 0 22 ⎟ ⎜ ⎟ ⎝ 59 9 21 −2 35 ⎠ 50 10 24 0 20

Zur Auswertung verwenden wir SPSS. 9.4.1 Normalverteilungsannahme

Die Voraussetzung f¨ ur die G¨ ultigkeit der im folgenden angewendeten Tests – die Normalverteilungsannahme f¨ ur y – u ufen wir mit dem Kolmogorov¨berpr¨ Smirnov-Test:

One-Sample Kolmogorov-Smirnov Test Y N Normal Parametersa,b Most Extreme Differences

Mean Std. Deviation Absolute Positive Negative

10 45,5000 30,9237 ,242 ,242 -,187

Kolmogorov-Smirnov Z Asymp. Sig. (2-tailed)

,766 ,601

a. Test distribution is Normal. b. Calculated from data. Abb. 9.4. SPSS-Output zum komplexen Beispiel

Die Annahme einer Normalverteilung f¨ ur die Zufallsvariable Y wird nicht abgelehnt (p-value 0.601). Die f¨ ur die Tests n¨otigen Modellannahmen sind damit nicht widerlegt und k¨ onnen beibehalten werden.

9.4 Ein komplexes Beispiel

217

9.4.2 Schrittweise Einbeziehung von Variablen Die Modellwahl kann nach verschiedenen Strategien erfolgen. Entweder man nimmt die X-Variablen schrittweise in das Modell hinein, bis ein Endmodell erreicht ist (forward selection), oder die X-Variablen des vollen Modells werden schrittweise aus dem Modell entfernt, bis ein Endmodell erreicht ist (backward selection). Eine dritte M¨ oglichkeit der Modellwahl besteht aus der Kombination der ersten beiden Verfahren. Man nimmt schrittweise XVariablen ins Modell hinein, pr¨ uft aber zugleich in jedem Schritt ab, ob eine im Modell vorhandene X-Variable wieder entfernt werden muß (stepwise selection). Als Kriteriun f¨ ur die Hereinnahme bzw. Entfernung von X-Variablen dient dabei die F -Change-Statistik. Da in jedem Schritt nur eine X-Variable ins Modell aufgenommen oder aus dem Modell entfernt wird, hat die F Change-Statistik im Z¨ ahler nur einen Freiheitsgrad und ist damit das Quadrat einer t-Statistik. Diese findet man in den SPSS-Listings unter T. F¨ ur die Modellwahl muß das Signifikanzniveau f¨ ur F -Change vorher festgelegt werden. Dies geschieht in SPSS durch die Wahl von PIN (probability of F-to-enter) und POUT (probability of F-to-remove). Um zu vermeiden, dass Variablen zu schnell aus dem Modell entfernt werden oder erst gar nicht aufgenommen werden, sollte man PIN und POUT im Gegensatz zum sonstigen Vorgehen bei Tests gr¨oßer, also z.B. als 0.1, w¨ ahlen. Wir betrachten im Folgenden nur die Modellwahl mit der stepwise-Prozedur. Anmerkung. In den folgenden SPSS Listings bedeuten B die Sch¨atzung eines Parameters, SE B die gesch¨atzte Standardabweichung der Parametersch¨atzung, Beta den Beta-Koeffizienten Betak =

s2yk s2yy s2kk

mit s2yk = Stichprobenkovarianz zwischen Y und Xk , s2yy = Stichprobenvarianz von Y und s2kk = Stichprobenvarianz von Xk , T den Wert der Teststatistik (t-Test) B/SE B, Sig T den p-value von T beim Testen von H0 : B = 0, Multiple R Wurzel aus dem multiplen Bestimmtheitsmaß R2 . Schritt 1 der Prozedur Die schrittweise Prozedur zum Auffinden des besten Modells w¨ahlt als erste Variable X4 aus, da X4 die h¨ ochste Korrelation zu Y aufweist. Dies ist oßten F -Change-Wert. ¨aquivalent zum gr¨

218

9. Lineare Regression * * * *

M U L T I P L E

R E G R E S S I O N

* * * *

Listwise Deletion of Missing Data Equation Number 1

Dependent Variable..

Block Number 1. Method: Criteria FIN 3.840 X1 X2 X3

Y

Stepwise FOUT 3.839 X4

Variable(s) Entered on Step Number 1.. X4 Multiple R .97760 R Square Square .95017 Standard Error 6.90290

.95571 Adjusted R

Analysis of Variance Regression 8 F =

DF 1 381.20068

172.61878

Sum of Squares 8225.29932 47.65009 Signif F =

Mean Square 8225.29932 Residual

.0000

------------------ Variables in the Equation -----------------Variable X4 (Constant)

B

SE B

Beta

T

Sig T

1.025790 21.804245

.078075 2.831568

.977603

13.138 7.700

.0000 .0001

------------- Variables not in the Equation ------------Variable X1 .155826 .369763

Beta In

Partial

Min Toler

T

.179010 .644927 .574902 2.233 .629328 .722436 2.143 .0694 X3 .292702 1.053 .3274

Sig T .0607 X2 .143838

Das Bestimmtheitsmaß f¨ ur das Modell y = 1βˆ0 + x4 βˆ4 + ǫ wird R22 =

8225.29932 SQRegression = = 0.95571 SQT otal 8225.29932 + 381.20068

und das adjustierte Bestimmtheitsmaß   10 − 1 2 ¯ R2 = 1 − (1 − 0.95571) = 0.95017. 10 − 2 Die Tabelle der Sch¨ atzungen ergibt βˆ0 = 21.804 und βˆ4 = 1.026.

9.4 Ein komplexes Beispiel

219

Schritt 2 der Prozedur: Hier wird die Variable X1 hinzugenommen, da X1 im ersten Schritt unter den Variablen die nicht im Modell sind, den gr¨ oßten T-Wert hat. Das adjustierte ¯ 2 = 0.96674. Bestimmtheitsmaß w¨ achst auf R 3 * * * *

M U L T I P L E

Equation Number 1

R E G R E S S I O N

Dependent Variable..

* * * *

Y

Variable(s) Entered on Step Number 2.. X1 Multiple R .98698 R Square Square .96674 Standard Error 5.63975

.97413 Adjusted R

Analysis of Variance Regression 7 F =

DF 2 222.64760

131.79340

Sum of Squares 8383.85240 31.80680 Signif F =

Mean Square 4191.92620 Residual

.0000

------------------ Variables in the Equation -----------------Variable X1 .903324 12.944925

B

SE B

Beta

T

Sig T

1.885209 .844369 .179010 2.233 .0607 X4 .084129 .860889 10.737 .0000 (Constant) 4.593152 2.818 .0258

------------- Variables not in the Equation ------------Variable X2 .237627

Beta In

Partial

.005496 .006574 .764301 .267626

Min Toler

T

.029451 2.903 .0272

.016

Sig T .9877 X3

Die Sch¨atzungen a ¨ndern sich durch die Hinzunahme von X1 zu βˆ0 = 12.945, βˆ1 = 1.885 und βˆ4 = 0.903. Schritt 3 der Prozedur: Hier wird X3 hinzugenommen, das adjustierte Bestimmtheitsmaß w¨achst wei¯ 2 = 0.98386 . ter auf R 4 * * * *

M U L T I P L E

Equation Number 1

R E G R E S S I O N

Dependent Variable..

Y

* * * *

220

9. Lineare Regression Variable(s) Entered on Step Number 3.. X3 Multiple R .99461 R Square Square .98386 Standard Error 3.92825

.98924 Adjusted R

Analysis of Variance Regression 6 F =

DF 3 92.58670

Sum of Squares 8513.91330 15.43112

183.91223

Signif F =

Mean Square 2837.97110 Residual

.0000

------------------ Variables in the Equation -----------------Variable X1 .936516 1.079069 2.554272

B

SE B

Beta

T

Sig T

2.407861 .615063 .228638 3.915 .0078 X3 .322582 .237627 2.903 .0272 X4 .084251 1.028379 12.808 .0000 (Constant) 4.800509 .532 .6138

------------- Variables not in the Equation ------------Variable

Beta In

Partial

Min Toler

T

Sig T

X2

.166664

.300278

.028653

.704

.5129

Die Sch¨atzungen ¨ andern sich durch die Hinzunahme von X3 erneut, und zwar zu βˆ0 = 2.554, βˆ1 = 2.408, βˆ3 = 0.937 und βˆ4 = 1.079. Die Pr¨ ufgr¨oße F -Change wird wie folgt berechnet: (X ,X ,1)

F -Change =

(X ,X ,X3 ,1)

4 1 4 1 − SQResidual SQResidual

(X ,X ,X ,1)

4 1 3 SQResidual /6 222.64760 − 92.58670 = 15.4311 = 8.42848.

Das 95%-Quantil der F1,6 -Verteilung ist 5.99 < F -Change. Der Zuwachs an Bestimmtheit ist also auf dem 5%-Niveau signifikant (der p-value von F Change liegt mit 0.0272 unter 0.05). Schritt 4 der Prozedur: SPSS bricht nun die Modellwahl ab, da der Zuwachs (F -Change) im n¨achsten Schritt nicht mehr signifikant ist. Die Variable X2 wird damit nicht ber¨ ucksichtigt (vgl. Sig T .5129 im oberen Listing). Damit lautet das gew¨ ahlte Modell Y = β0 + β1 X1 + β3 X3 + β4 X4 + ǫ mit den statistischen Kenngr¨ oßen

9.4 Ein komplexes Beispiel

221

------------------ Variables in the Equation -----------------Variable X1 .936516 1.079069 2.554272

B

SE B

Beta

T

Sig T

2.407861 .615063 .228638 3.915 .0078 X3 .322582 .237627 2.903 .0272 X4 .084251 1.028379 12.808 .0000 (Constant) 4.800509 .532 .6138

9.4.3 Grafische Darstellung Die folgenden Grafiken geben einen Eindruck vom korrelativen Zusammenhang zwischen y und den X-Variablen. Die Korrelationskoeffizienten und die zugeh¨origen p-values sind in Tabelle 9.2 angegeben. Tabelle 9.2. Bivariate Korrelationen

Y

Vergleich y, X1 y, X2 y, X3 y, X4

r 0.7403 0.6276 −0.7801 0.9776

p-value 0.014 0.052 0.008 0.000

140 120 100 80 60 40 20 0 2

4

6

8

10

12

X1 Abb. 9.5. Regression von y auf X1

9. Lineare Regression

Y

222

140 120 100 80 60 40 20 0 0

10

20

30

X2

Y

Abb. 9.6. Regression von y auf X2 140 120 100 80 60 40 20 0 -20 -20

-10

0

10

20

30

X3 Abb. 9.7. Regression von y auf X3

9.5 Kategoriale Einflussgr¨ oßen In den bisherigen Ausf¨ uhrungen haben wir Y und X1 , . . . , XK als stetig vorausgesetzt. Wir wollen nun den in Anwendungen ebenfalls wichtigen Fall behandeln, dass die Einflussgr¨ oßen (Regressoren) X1 , . . . , XK kategoriales Skalenniveau besitzen. Wir betrachten hierf¨ ur nun einige Beispiele f¨ ur kategoriale Einflussgr¨ oßen:

Y

9.5 Kategoriale Einflussgr¨ oßen

223

140 120 100 80 60 40 20 0 -20

0

20

40

60

80

100

120

X4 Abb. 9.8. Regression von y auf X4

Beispiele. • • • •

Unternehmensstandort: Ost, West, S¨ ud, Nord Geschlecht: m¨annlich, weiblich Familienstand: ledig, verheiratet, geschieden, verwitwet Bewertung einer Kundenbefragung: sehr zufrieden, zufrieden, unzufrieden

Regressoren mit kategorialem Skalenniveau erfordern eine spezifische Behandlung. Die kodierten Merkmalsauspr¨ agungen wie z. B. ‘ledig’=1, ‘verheiratet’=2, ‘geschieden’=3, ‘verwitwet’=4 k¨ onnen wir nicht wie reelle Zahlen in die Berechnung der Parametersch¨ atzungen a und b einbeziehen, da den Kodierungen wie z. B. beim nominalen Merkmal ‘Familienstand’ nicht notwendig eine Ordnung zugrundeliegt und Abst¨ ande bei ordinalen Merkmalen nicht definiert sind. Um diesem Problem zu begegnen, m¨ ussen kategoriale Regressoren umkodiert werden. Hierf¨ ur m¨ ochten wir nun die zwei g¨angigsten M¨oglichkeiten vorstellen: Dummy- und Effektkodierung. Dabei wird ein kategorialer Regressor mit k m¨ oglichen Merkmalsauspr¨agungen in k − 1 neue Regressoren (Dummys) umgewandelt. Eine der Originalkategorien (Merkmalsauspr¨agungen) wird dabei als sogenannte Referenzkategorie ausgew¨ahlt. Dummykodierung. Ein kategoriales Merkmal X mit k m¨oglichen Merkmalsauspr¨agungen wird durch k − 1 Dummys Xi kodiert. Nach Wahl einer Referenzkategorie j ∈ {1, . . . , k} ergeben sich die Dummys Xi , i = 1, . . . , k, i = j wie folgt:  1 falls Kategorie i vorliegt, xi = (9.41) 0 sonst.

224

9. Lineare Regression

Effektkodierung. Ein kategoriales Merkmal X mit k m¨oglichen Merkmalsauspr¨agungen wird durch k − 1 Dummys Xi kodiert. Nach Wahl einer Referenzkategorie j ∈ {1, . . . , k} ergeben sich die Dummys Xi , i = 1, . . . , k, i = j wie folgt: ⎧ ⎨ 1 falls Kategorie i vorliegt, xi = −1 falls Kategorie j vorliegt, (9.42) ⎩ 0 sonst.

Beispiel. Betrachten wir das Merkmal X ‘Herstellungsort’ einer Studie u ¨ ber Eigenschaften und Verbrauch von Autos. Die Zielgr¨oße Y sei in diesem Fall der Hubraum (in ccm). Das Merkmal X hat in unserem Fall drei Merkmalsauspr¨agungen (‘USA’, ‘Europa’ und ‘Asien’), die mit 1, 2 und 3 kodiert sind. Wir verwenden die letzte Kategorie, d. h. die Kategorie 3 ‘Asien’, als Referenzkategorie. Damit erhalten wir die Dummys X1 (USA, LAND1), X2 (Europa, LAND2) wie in folgender Tabelle angegeben. Merkmalsauspr¨ agung von X 1 USA 2 Europa 3 Asien

Wert X1 1 0 0

von X2 0 1 0

Wert X1 1 0 -1

von X2 0 1 -1

F¨ ur die Effektkodierung erhalten wir Merkmalsauspr¨ agung von X 1 USA 2 Europa 3 Asien

F¨ ur eine Dummycodierung mit ‘Asien’ als Referenz ist in folgender Tabelle ein Auszug aus dem Datensatz gegeben: ID

Hubraum

Land

.. . 6 7 8 9 10 .. .

.. . 429 454 455 440 390 .. .

.. . 1 1 2 1 3 .. .

Dummy1 (USA) .. . 1 1 0 1 0 .. .

Dummy2 (Europa) .. . 0 0 1 0 0 .. .

Beispiel 9.5.1. Wir betrachten nun den Output von SPSS (Abbildung 9.9) zur linearen Regression mit den beiden Dummies ‘Land1 (USA)’ und ‘LAND2 (Europa)’ als Einflussgr¨ oßen und dem Hubraum (in ccm) als Zielgr¨oße Y .

9.5 Kategoriale Einflussgr¨ oßen

225

Abb. 9.9. SPSS Output zur linearen Regression mit der kategorialen Einflussgr¨ oße ‘Herstellungsort’

Zuerst entnehmen wir die Parametersch¨ atzungen f¨ ur β0 , β1 und β2 und betrachten die gesch¨ atzte Regressionsgerade: Hubraum = 102.709 + 145.005 · Land1 + 6.757 · Land2 Setzen wir nun die Dummywerte f¨ ur ‘USA’, ‘Europa’ und ‘Asien’ ein, Hubraum USA = 102.709 + 145.005 · 1 + 6.757 · 0 = 247.714 Hubraum Europa = 102.709 + 145.005 · 0 + 6.757 · 1 = 109.466 Hubraum Asien = 102.709 + 145.005 · 0 + 6.757 · 0 = 102.709

so f¨allt eine Interpretation leicht: Unser Modell erwartet ein im Mittel um 145.005 ccm h¨oheren Hubraum f¨ ur Autos, welche in den USA produziert werden im Vergleich zu Autos die aus der Referenz Asien kommen. F¨ ur Autos aus Europa wird dagegen ein im Mittel 6.757 ccm h¨oherer Hubraum im Vergleich zur Referenz Asien vorhergesagt. Neben den Parametersch¨ atzungen gibt uns SPSS noch die Standardabweichung, standardisierte Koeffizienten, sowie die T-Statistik bzw. den p-Wert f¨ ur die Tests β0 = 0, β1 = 0 und β2 = 0 aus. Wir sehen, dass zum Niveau α = 0.05 die Parametersch¨ atzungen des Intercepts und des ersten Dummies signifikant von Null verschieden sind. Auch wenn der p-Wert des zweiten Dummies gr¨oßer als unser vorgegebenes Signifikanzniveau ist, behalten wir ihn trotzdem im Modell, da die Signifikanz eines Dummies ausreicht um den ganzen Regressor im Modell zu behalten. Wir behalten also (auf Grund der Werte der t-Statistik, siehe auch Kapitel 9.3.7) unser Modell mit der Regressionsgleichung Hubraum = 102.709 + 145.005 · Land1 + 6.757 · Land2 bei und halten fest, dass das Herstellungsland einen Einfluss auf den Hubraum besitzt.

226

9. Lineare Regression

Anmerkung: Bei der Durchf¨ uhrung einer Regression mit Effektcodierung w¨ urden wir dasselbe Ergebnis erhalten. Einzig die Interpretation der Parametersch¨atzungen w¨ urde sich nun auf den globalen Mittelwert beziehen, und nicht auf die Referenzkategorie. Weitere ausf¨ uhrliche Beispiel zur Regression, Modellwahl, kategorialen Einflussgr¨oßen und weiteren Aspekten der multiplen linearen Regression finden Sie in Kapitel 14.2.3.

9.6 Aufgaben und Kontrollfragen

227

9.6 Aufgaben und Kontrollfragen Aufgabe 9.1: In einer Schulklasse wurden bei n = 10 Sch¨ ulern die K¨orpergr¨oße und das Gewicht gemessen. Die nachfolgende Tabelle enth¨alt die gemessenen Werte. Gr¨ oße in cm yi 188 160 172 198 189 177 175 188 165 183

i 1 2 3 4 5 6 7 8 9 10

Gewicht in kg xi 80 50 58 100 85 78 88 90 76 73

Bestimmen Sie βˆ0 , βˆ1 und s2 der Regression y = β0 + β1 x + ǫ. Aufgabe 9.2: Interpretieren Sie das folgende SPSS-Listing. Model Summary

Model 1

R R Square ,065a ,004

Adjusted R Square -,017

Std. Error of the Estimate 2,9390

a. Predictors: (Constant), X

ANOVAb

Model 1

Regression Residual Total

Sum of Squares 1,754 414,600 416,354

Mean Square 1,754 8,638

df 1 48 49

F ,203

Sig. ,654a

a. Predictors: (Constant), X b. Dependent Variable: Y

Coefficientsa

Model 1

(Constant) X

Unstandardized Coefficients B Std. Error ,323 ,421 17,407 38,624

Standardi zed Coefficien ts Beta ,065

t ,768 ,451

Sig. ,446 ,654

a. Dependent Variable: Y

Aufgabe 9.3: Sei Y (CURRENT SALARY) das aktuelle Gehalt eines Arbeitnehmers. In einem linearen Regressionsmodell soll der Einfluss der XVariablen X1 (WORK EXPERIENCE): Berufserfahrung, X2 (JOB SENIORITY): Dienstalter, X3 (BEGINNING SALARY): Anfangsgehalt und X4 (AGE

228

9. Lineare Regression

OF EMPLOYEE): Alter auf Y untersucht werden. Interpretieren Sie das folgende SPSS–Listing. Welches weitere Vorgehen w¨ urden Sie vorschlagen? Model Summary

Model 1

R R Square ,898a ,807

Std. Error of the Estimate 3017,00

Adjusted R Square ,805

a. Predictors: (Constant), WORK EXPERIENCE, JOB SENIORITY, BEGINNING SALARY, AGE OF EMPLOYEE ANOVAb

Model 1

Regression Residual Total

Sum of Squares 1,8E+10 4,3E+09 2,2E+10

df 4 469 473

Mean Square 4,4E+09 9102284

F 488,824

Sig. ,000a

a. Predictors: (Constant), WORK EXPERIENCE, JOB SENIORITY, BEGINNING SALARY, AGE OF EMPLOYEE b. Dependent Variable: CURRENT SALARY

Coefficientsa

Model 1

Unstandardized Coefficients B Std. Error (Constant) -2835,937 1278,840 BEGINNING SALARY 1,919 ,044 JOB SENIORITY 72,149 13,837 AGE OF EMPLOYEE -50,688 19,940 WORK EXPERIENCE -52,766 26,958

Standardi zed Coefficien ts Beta ,884 ,106 -,087 -,067

t -2,218 43,353 5,214 -2,542 -1,957

Sig. ,027 ,000 ,000 ,011 ,051

a. Dependent Variable: CURRENT SALARY

Aufgabe 9.4: In einem Restaurant wurden n = 10 Rechnungsbetr¨age (x) und die dazugeh¨origen Trinkgelder (y) in Euro erhoben. i 1 2 3 4 5 6 7 8 9 10

xi 10 30 25 7.5 42.5 35 40 25 12.5 60

yi 2 3 2 2.5 6 5 4 6 1 7

Tabelle 9.3. Quelle: Auer (2005)

a) Sch¨atzen und interpretieren Sie die Parameter des linearen Regressionsmodells. b) Bestimmen Sie die Varianz der Sch¨ atzung b.

9.6 Aufgaben und Kontrollfragen

229

c) Hat der Rechnungsbetrag einen signifikanten Einfluss auf die Trinkgeldh¨ohe? F¨ uhren Sie den Test zum Niveau α = 0.05 durch . d) Testen Sie die Hypothesen b ≥ 0.15 und b ≤ 0.1.

10. Varianzanalyse

10.1 Einleitung Die Modelle der Varianzanalyse sind spezielle lineare Regressionsmodelle, die den Einfluss (Effekt) der Faktoren (Kovariablen) auf eine stetige Responsevariable untersuchen. Im Gegensatz zur linearen Regression m¨ ussen die Kovariablen jedoch diskret vorliegen. Die Varianzanalyse unterscheidet zwei grunds¨atzliche Problemstellungen, je nachdem, ob die Effekte als fest oder als zuf¨allig angesehen werden. Beim Modell mit festen Effekten werden die Faktoren und ihre Faktorstufen (Kategorien der Kovariablen) durch den Experimentator (Versuchsleiter) festgelegt. Damit k¨ onnen nur Vergleiche zwischen den festgelegten Faktorstufen vorgenommen werden, weitere m¨ogliche, im Experiment nicht ber¨ ucksichtigte Faktorstufen sind nicht von Interesse. Das Modell mit festen Effekten dient dem mehrfachen Mittelwertsvergleich noruft die malverteilter Zufallsvariablen Y1 , . . . , Ya , Yi ∼ N (μi , σ 2 ). Man pr¨ Nullhypothese H0 : μ1 = μ2 = . . . = μa gegen die Alternative H1 : mindestens zwei Mittelwerte sind verschieden“. Diese Hypothese wird mit ” Hilfe des F -Tests gepr¨ uft, der eine Verallgemeinerung des t-Tests ist, der dem Mittelwertsvergleich zweier normalverteilter Zufallsvariablen dient. Der mehrfache Mittelwertsvergleich wird auch als Vergleich der Wirkungen von Behandlungen bezeichnet, wobei Behandlungen im weitesten Sinne des Wortes als gezielte Beeinflussung einer Responsevariablen zu verstehen sind. Verschiedene Behandlungen, die man miteinander vergleichen will, wird man sicher nicht zuf¨allig ausw¨ ahlen, sondern fest vorgeben. Daher ist in diesem Fall das Modell mit festen Effekten zu w¨ ahlen. Die festgelegten Faktorstufen m¨ ussen den vorliegenden Objekten (Beobachtungseinheiten) nach einem bestimmten Schema zugeordnet werden. Diese Zuordnung bezeichnet man als Versuchsplan. Anmerkung. Das Modell mit festen Effekten kann auch f¨ ur Vergleiche von nicht normalverteilten Responsevariablen durch nichtparametrische Verfahren herangezogen werden. Dies wird in Abschnitt 10.4 besprochen. Beispiel 10.1.1. Ein Kaufhauskonzern will feststellen, ob verschiedene Werbemaßnahmen den Umsatz beeinflussen. Hierf¨ ur werden die Werbemaßnahmen I (Inserate), II (Sonderangebote) und III (Radiowerbung) ausgew¨ahlt

232

10. Varianzanalyse

und auf 33 Filialen aufgeteilt. Die Umsatzsteigerung der Filialen nach der Werbekampagne wurde in Tabelle 10.1 festgehalten. Tabelle 10.1. Umsatzsteigerung (in 1000 DM) bei drei Werbemaßnahmen Werbung I 55.5 40.0 38.5 31.5 45.5 70.0 78.0 80.0 74.5 57.5 72.0 70.0 48.0 59.0

Werbung II 67.0 57.0 33.5 37.0 75.0 60.0 43.5 56.0 65.5 54.0 59.5

Werbung III 62.5 31.5 31.5 53.0 50.5 62.5 40.0 19.5

Beim Modell mit zuf¨ alligen Effekten sind die Faktorstufen eine Zufallsauswahl aus einer Grundmenge von Faktorstufen. Dadurch ist man weniger am Vergleich der beobachteten Faktorstufen interessiert, sondern m¨ochte vielmehr den Einfluss aller m¨ oglichen Faktorstufen beurteilen. Das Modell mit zuf¨alligen Effekten zerlegt deshalb die Gesamtvariabilit¨at (Varianz) in Komponenten, die den Einfluss jedes Faktors widerspiegeln und in eine Komponente, die nicht durch die Faktoren erkl¨ art wird (Residualvarianz). Beispiel. Aus der Gesamtpopulation Belegschaft“ werden die Arbeitszeit” werte von (z.B. drei) zuf¨ allig ausgew¨ ahlten Arbeitern bez¨ uglich ihres Anteils an der Gesamtvariabilit¨ at der Fertigungszeiten analysiert. Anmerkung. Wir beschr¨ anken uns im Folgenden auf das Modell mit festen Effekten und verweisen f¨ ur Verfahren beim Modell mit zuf¨alligen Effekten z.B. auf Toutenburg (1994) und Toutenburg (1995).

10.2 Einfaktorielle Varianzanalyse Gegeben seien a Stichproben von a normalverteilten Zufallsvariablen Yi ∼ N (μi , σ 2 ). Die Varianzen σ 2 seien unbekannt, aber in allen Grundgesamtheiten gleich. Die Stichprobenumf¨ ange seien ni , der Gesamtstichprobenumfang sei n a  ni = n . i=1

10.2 Einfaktorielle Varianzanalyse

233

Definition 10.2.1. Sind alle ni gleich, so heißt der Versuchsplan balanziert, anderenfalls heißt er unbalanziert. Jede der a Stichproben der Zufallsvariablen Y1 , . . . , Ya stellt eine Stufe des Faktors A dar. Man sagt deshalb, der Faktor A wirkt in a Stufen, und zu vergleichen sind die a Effekte, die sich in den Stichprobenmittelwerten niederschlagen. Die Meßwerte sind also nach einem Faktor klassifiziert (einfache Klassifikation). Beispiele. • Faktor A: Gasgemisch beim Lasertrennschneiden 3 Stufen: 3 verschiedene Konzentrationen von Sauerstoff 3 Effekte: Schneidegeschwindigkeit des Lasers bei den 3 verschiedenen Sauerstoffkonzentrationen • Faktor A: D¨ ungung 5 Stufen: 5 verschiedene D¨ ungemittel (oder ein D¨ ungemittel mit 5 verschiedenen Konzentrationen von Phosphat) 5 Effekte: Ertrag (je ha) bei den 5 D¨ ungemitteln Die beschriebene Datensituation ist in Tabelle 10.2 dargestellt. Ein ‘+’ als Index deutet darauf hin, dass u ¨ber diesen Index summiert wurde. So ist ur zum Beispiel y1+ der Mittelwert der 1. Zeile, y++ das Gesamtmittel. F¨ ur Mittelsummierten Response verwendet man große Buchstaben (Yi+ ), f¨ werte kleine Buchstaben (yi+ ). Wir halten uns somit im Folgenden an die in der Varianzanalyse u ¨bliche Nomenklatur und verzichten – wie bereits in Kapitel 9 – auf die gesonderte Unterscheidung von Zufallsvariablen und ihren Realisierungen. Tabelle 10.2. Datensituation (einfache Klassifikation) Einzelversuche je Stufe von A 1 2 ... ni 1 2 .. . a

y11 y21

y12 y22

yl1

yl2

... ... . . .P n= ni

y1n1 y2n2 ylnl

Summe der Beobachtungen je Stichprobe (Totaler P Response) P y1j = Y1+ y2j = Y2+ P P ylj = Yl+ Yi+ = Y++

Stichprobenmittel Y1+ /n1 = y1+ Y2+ /n2 = y2+ Yl+ /nl = yl+ Y++ /n = y++

F¨ ur die Beobachtungen yij wird das folgende lineare Modell angenommen: yij = μ + αi + ǫij wobei • μ das Gesamtmittel,

(i = 1, . . . , a; j = 1, . . . , ni ) ,

(10.1)

234

10. Varianzanalyse

• αi den Effekt der i-ten Stufe des Faktors A, d.h. die durch die i-te Stufe verursachte Abweichung vom Gesamtmittel μ, und • ǫij einen zuf¨alligen Fehler (d.h. Zufallsabweichung von μ und αi ) darstellen. μ und αi sind unbekannte Parameter, die ǫij sind zuf¨allige Variablen. Folgende Voraussetzungen sind zu sichern: angig und identisch normalverteilt mit Erwar• Die Fehler ǫij sind unabh¨ tungswert 0 und Varianz σ 2 , d.h., es gilt iid.

ǫij ∼ N (0, σ 2 ) , • es gilt die sogenannte Reparametrisierungsbedingung a 

αi ni = 0 .

(10.2)

i=1

Mit der gew¨ahlten Parametrisierung des Modells (10.1) ist μi = μ+αi , so dass die Nullhypothese H0 : μ1 = · · · = μa ¨ aquivalent ist zu H0 : α1 = · · · αa = 0. Im Gegensatz zum linearen Regressionsmodell y = Xβ + ǫ mit quantitativen stetigen X-Variablen sind im linearen Modell der Varianzanalyse die X-Variablen quantitativ diskret oder qualitativ. Sie gehen in das Modell nur mit ihrer Faktorstufe ein. Daher ist es notwendig, die X-Variable entsprechend zu kodieren. Betrachten wir beispielsweise die Einflussgr¨oße Werbung im Beispiel 10.1.1, so sind die nachfolgenden Situationen denkbar. Die Einflussgr¨oße sei qualitativ Kodierung Stufe 1: Inserate i=1 (a) Stufe 2: Sonderangebote i=2 Stufe 3: Radiowerbung i=3 quantitativ diskret Kodierung Stufe 1: x1 = 10000 EUR i = 1 (b) Stufe 2: x2 = 20000 EUR i = 2 Stufe 3: x3 = 70000 EUR i = 3 Die Kodierung ist von i = 1 bis a durchg¨angig zu w¨ahlen. Die Varianzanalyse kann pr¨ ufen, ob Werbung mit ihren a Stufen Einfluss auf den Umsatz hat, eine quantitative Aussage wie im Regressionsmodell Umsatz (in EUR) = 500 EUR + 100 · Werbung (in EUR) ist nicht m¨oglich. Vollst¨ andig randomisierter Versuchsplan Der einfachste und am wenigsten restriktive Versuchsplan besteht darin, die a Faktorstufen den n Versuchseinheiten in folgender Weise zuzuordnen. Wir

10.2 Einfaktorielle Varianzanalyse

235

w¨ahlen n1 Versuchseinheiten zuf¨ allig aus und ordnen sie der Faktorstufe i = 1 zu. Danach werden n2 Versuchseinheiten wiederum zuf¨allig aus den n − n1 verbleibenden Einheiten  ausgew¨ ahlt und der Faktorstufe i = 2 zugeordnet a−1 usw. Die restlichen n − i=1 ni = na Einheiten erhalten die a-te Faktorstufe. Wir beschr¨ anken uns im Folgenden auf diesen Versuchsplan. Weitere Versuchspl¨ane findet man in der speziellen Literatur zur Versuchsplanung (vgl. z.B. Petersen, 1985; Toutenburg, 2002b). Bei der Versuchsplanung sollte man m¨oglichst gleiche Stichprobenumf¨ ange ni in den Gruppen anstreben (balancierter Fall), weil dann die Varianzanalyse robust gegen Abweichungen von den Voraussetzungen (Normalverteilung, gleiche Varianz) ist. 10.2.1 Darstellung als restriktives Modell Das lineare Modell (10.1) l¨ asst sich in Matrixschreibweise formulieren gem¨aß ⎞ ⎛ ⎞ ⎛ ⎛ ⎞ ǫ11 y11 1 1 0 ... 0 ⎜ . ⎟ ⎜ .. ⎟ ⎜ .. .. .. .. ⎟ ⎜ . ⎟ ⎜. . . ⎛ ⎞ ⎜ .. ⎟ .⎟ ⎟ ⎜ ⎟ ⎜ ⎜ ⎟ μ ⎟ ⎜ ⎜ y1n1 ⎟ ⎜ 1 1 0 . . . 0 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ α1 ⎟ ⎜ ǫ1n1 ⎟ ⎜ .. ⎟ ⎜ .. . . ⎟ ⎜ ⎟ ⎜ .. ⎟ ⎜ . ⎟=⎜. ⎟ ⎜ .. ⎟ + ⎜ . ⎟ , . ⎟ ⎜ ⎟ ⎜ ⎟⎝ . ⎠ ⎜ ⎜ ǫa1 ⎟ ⎜ ya1 ⎟ ⎜ 1 0 · · · 0 1 ⎟ ⎟ ⎜ ⎟ ⎜ ⎜ ⎟ αa ⎜ . ⎟ ⎜ . ⎟ ⎜. . .. .. ⎟ . ⎝ ⎝ .. ⎠ ⎝ .. .. ⎠ . ⎠ . . ǫana yana 1 0 ··· 0 1

d.h. als

y = Xβ + ǫ ,

ǫ ∼ N (0, σ 2 I)

(10.3) ′

mit X vom Typ n × (a + 1) und Rang(X) = a. Damit ist X X singul¨ar, so dass zur Sch¨atzung des (a + 1)-Vektors β′ = (μ, α1 , . . . , αa ) eine lineare Restriktion r = R′ β mit   X Rang(R) = J = 1 und Rang =a+1 R′ hinzugef¨ ugt werden muss (vgl. Abschnitt 9.3.10). Wir w¨ahlen r = 0,

R′ = (0, n1 , . . . , na ) ,

(10.4)



also ist r = R β ¨aquivalent zu a  i=1

(vgl. (10.2)).

αi ni = 0

(10.5)

236

10. Varianzanalyse

Anmerkung. Die gew¨ ahlte Restriktion (10.5) bietet den Vorteil einer sachlogisch gerechtfertigten Interpretation. Die Parameter αi sind danach die Abweichungen vom Gesamtmittel μ und somit de facto auf μ standardisiert. Die αi bestimmen also mit ihrer Gr¨ oße und ihrem Vorzeichen die relativen (positiven oder negativen) Kr¨ afte, mit denen die i-te Behandlung zu Abweichungen von μ f¨ uhrt.   X hat vollen Spaltenrang a+1, so dass die Inverse (X′ X+ Die Matrix R′ RR′ )−1 existiert. Damit erhalten wir die bedingte KQ-Sch¨atzung von β ′ = (μ, α1 , . . . , αa ) b(R′ , 0) = (X′ X + RR′ )−1 X′ y ⎞ ⎛ ⎞ y++ μ ˆ ⎜ y1+ − y++ ⎟ ⎜ αˆ1 ⎟ ⎜ ⎟ ⎜ ⎟ ⎟ ⎜ ⎟ ⎜ = ⎜ y2+ − y++ ⎟ = ⎜ αˆ2 ⎟ . ⎜ ⎟ ⎜ .. ⎟ .. ⎝ ⎠ ⎝ . ⎠ . αˆa ya+ − y++

(10.6)



Beispiel 10.2.1. Wir demonstrieren die Berechnung der Sch¨atzung b(R′ , 0) ur f¨ ur den Fall a = 2. Wir erhalten mit der Bezeichnung 1′ni = (1, . . . , 1) f¨ den ni -Vektor aus Einsen folgende Darstellungen:   1n1 1n1 0 X = , 1n2 0 1n2 n,3 ⎞ ⎛ ′  1n1 1′n2  1n1 1n1 0 ′ ′ ⎠ ′ ⎝ X X = 1n1 0 1n2 0 1n2 0′ 1′n2 ⎛ ⎞ n1 + n2 n1 n2 = ⎝ n1 n1 0 ⎠ , n2 0 n2 ⎛ ⎞ 0 RR′ = ⎝ n1 ⎠ (0 n1 n2 ) (10.7) n2 ⎞ ⎛ 0 0 0 = ⎝ 0 n21 n1 n2 ⎠ . 0 n1 n2 n22 Mit n = n1 + n2 folgt ⎞ ⎛ n2 n n1 (X′ X + RR′ ) = ⎝ n1 n1 + n21 n1 n2 ⎠ , n2 n1 n2 n2 + n22

10.2 Einfaktorielle Varianzanalyse

|X′ X + RR′ | = n1 n2 n2 , ⎛

(X′ X + RR′ )−1 =

X′ y = Dabei sind

Y1+

1

n1 n2 n2



1′n1 ⎝ 1′n 1 ′

237

n1 n2 (1+n)

−n1 n2

−n1 n2

n2 (n(1+n2 )−n2 )

−n1 n2 (n−1)

−n1 n2

−n1 n2 (n−1)

n1 (n(1+n1 )−n1 )



1′n2 ′



0 ⎠ 0 1′n2



y1 y2





−n1 n2



Y++ = ⎝ Y1+ ⎠ . Y2+



⎠,

(10.8) (10.9)

⎞ ⎞ ⎛ y21 y11 ⎟ ⎟ ⎜ ⎜ y1 = ⎝ ... ⎠ , y2 = ⎝ ... ⎠ , y2n2 y1n1 n1 n2 = i=1 y1i , Y2+ = i=1 y2i , Y++ = Y1+ + Y2+ . ⎛

Die zeilenweise Multiplikation von (10.8) mit (10.9) ergibt

n1 n2 (1 + n)Y++ − n1 n2 Y1+ − n1 n2 Y2+ n1 n2 n2 nY++ Y++ = = = y++ , n2 n −n1 n2 Y++ + n2 (n(1 + n2 ) − n2 )Y1+ − n1 n2 (n − 1)Y2+ α ˆ1 = n1 n2 n2 Y++ n + nn2 − n2 n−1 =− 2 + Y1+ − (Y++ − Y1+ ) n n1 n2 n2     n + nn2 − n2 + nn1 − n1 1−1+n = Y1+ − Y++ n1 n2 n2 Y++ Y1+ = − = y1+ − y++ n1 n μ ˆ=

und analog α ˆ 2 = y2+ − y++ . Damit erhalten wir schließlich die bedingte KQ-Sch¨atzung (10.6) b ((0, n1 , n2 ), 0) = (X′ X + RR′ )−1 X′ y ⎛ ⎞ ⎛ ⎞ μ ˆ y++ = ⎝α ˆ 1 ⎠ = ⎝ y1+ − y++ ⎠ . α ˆ2 y2+ − y++

(10.10)

10.2.2 Zerlegung der Fehlerquadratsumme Zur Herleitung der Teststatistik zum Pr¨ ufen von H0 : α1 = · · · = αa = 0 gehen wir analog zum linearen Regressionsmodell vor und zerlegen die

238

10. Varianzanalyse

Fehlerquadratsumme (vgl. Abschnitt 9.3.5). Dazu bestimmen wir zun¨achst die gesch¨atzten Responsewerte yˆij in unserem speziellen Modell. Mit b(R′ , 0) aus (10.10) und X aus (10.7) erhalten wir im Fall a = 2   y1+ 1n1 ′ ˆ y = Xb(R , 0) = . y2+ 1n2 Allgemein gilt analog f¨ ur beliebiges a ⎛ ⎞ y1+ 1n1 ⎜ ⎟ .. ˆ=⎝ y ⎠. .

(10.11)

ya+ 1na

Die Zerlegung der Fehlerquadratsumme (vgl. Abschnitt 9.3.5) n  t=1

(yt − y¯)2 =

n  t=1

(yt − yˆt )2 +

n  t=1

(ˆ yt − y¯)2

hat im Modell (10.3) mit den neuen Bezeichnungen und mit yˆij = yi+ gem¨aß (10.11) die Gestalt ni a   i=1 j=1

(yij − y++ )2 =

ni a   i=1 j=1

(yij − yi+ )2 +

a  i=1

ni (yi+ − y++ )2

bzw. in der Nomenklatur der Varianzanalyse (SQRegression = SQA gesetzt) SQT otal = SQResidual + SQA . Die Quadratsumme SQResidual =

ni a   i=1 j=1

(yij − yi+ )2

mißt die Variabilit¨ at innerhalb jeder Behandlung, w¨ahrend die Quadratsumme a  SQA = ni (yi+ − y++ )2 i=1

die Variabilit¨atsunterschiede der Responsevariablen zwischen den Stufen des Faktors A, also den eigentlichen Behandlungseffekt mißt. Alternativ lassen sich die Quadratsummen wie folgt darstellen: SQT otal = SQA = SQResidual =

ni a  

i=1 j=1 ni a  

i=1 j=1 ni a   i=1 j=1

ni a  

(yij − y++ )2 = (yi+ − y++ )2 = (yij − yi+ )2 =

2 2 yij − ny++ ,

(10.12)

2 2 ni yi+ − ny++ ,

(10.13)

i=1 j=1 a 

i=1 ni a   i=1 j=1

2 yij −

a  i=1

2 ni yi+ . (10.14)

10.2 Einfaktorielle Varianzanalyse

239

Wegen der vorausgesetzten Normalverteilung sind die Quadratsummen jeweils χ2 -verteilt mit den zugeh¨ origen Freiheitsgraden df . Die Quotienten SQ/df bezeichnet man als M Q. 10.2.3 Sch¨ atzung von σ 2 In (9.11) haben wir f¨ ur das lineare Regressionsmodell y = Xβ + ǫ als erwartungstreue Sch¨atzung f¨ ur σ 2 die Statistik s2 =

1 (y − Xb)′ (y − Xb) n−K

(10.15)

hergeleitet. In unserem Spezialfall des Modells (10.3) und unter Verwendung von ⎞ ⎛ y1+ 1n1 ⎜ y2+ 1n2 ⎟ ⎟ ⎜ ˆ = Xb(R′ , 0) = ⎜ y ⎟ .. ⎠ ⎝ . ya+ 1na

erhalten wir analog zu (10.15) mit K = a:



⎞ y1 − y1+ 1n1 1 ⎟ ⎜ .. s2 = ((y1 − y1+ 1n1 )′ , . . . , (ya − ya+ 1na )′ ) ⎝ ⎠ . n−a ya − ya+ 1na ni a   1 = (yij − yi+ )2 n − a i=1 j=1 = M QResidual .

Aus dem Modell (10.1) folgt ǫi+ ∼ N

yi+ = μ + αi + ǫi+ ,

  σ2 0, ni

und damit erhalten wir E(M QResidual ) =

=

=

1 n−a 1 n−a 1 n−a 2

=σ .

⎡ ⎤ ni a   E⎣ (yij − yi+ )2 ⎦ i=1 j=1

⎡ ⎤ ni a   E⎣ (ǫ2ij + ǫ2i+ − 2ǫij ǫi+ )⎦ i=1 j=1

ni a  

(σ 2 +

i=1 j=1

σ2 σ2 −2 ) ni ni

(10.16)

240

10. Varianzanalyse

M QResidual ist also eine erwartungstreue Sch¨atzung von σ 2 . Wir bestimmen nun den Erwartungswert von M QA . Aus (10.16) folgt mit (10.5) a

y++ = μ +

1 ni αi + ǫ++ n i=1

  σ2 = μ + ǫ++ , ǫ++ ∼ N 0, , n ⎡ ⎤ ni ni a    1 E⎣ ǫij ǫij ⎦ E(ǫi+ ǫ++ ) = ni n j=1 i=1 j=1 =

(10.17)

σ2 . n

Also gilt yi+ − y++ = αi + ǫi+ − ǫ++ , σ2 σ2 E(yi+ − y++ )2 = α2i + − ni n und damit a

n

i 1  E(yi+ − y++ )2 a − 1 i=1 j=1 a ni α2i = σ 2 + i=1 . a−1

E(M QA ) =

(10.18)

Falls alle αi = 0 sind, gilt E(M QA ) = σ 2 , anderenfalls ist E(M QA ) > σ 2 . 10.2.4 Pr¨ ufen des Modells Wir betrachten das lineare Modell (10.1) yij = μ + αi + ǫij mit der Nebenbedingung

(i = 1, . . . , a , j = 1, . . . , ni ) a 

ni αi = 0 .

i=1

Die Pr¨ ufung der Hypothese

H0 : α1 = · · · = αa = 0 bedeutet den Vergleich der Modelle H0 :

yij = μ + ǫij

10.2 Einfaktorielle Varianzanalyse

und H1 : yij = μ + αi + ǫij

mit

a 

ni αi = 0 ,

241

(10.19)

i=1

d.h. die Pr¨ ufung von

H0 : α1 = · · · = αa = 0 (Parameterraum Ω ′ )

(10.20)

gegen H1 : αi = 0

f¨ ur mindestens zwei i (Parameterraum Ω).

Die zugeh¨orige Likelihood-Quotienten-Teststatistik (vgl. (9.25)) F =

2 2 n−K σ ˆΩ ˆΩ ′ − σ 2 σ ˆΩ K−l

wird damit zu (vgl. auch (9.35)) SQT otal − SQResidual n − a SQResidual a−1 n−a SQA . = SQResidual a − 1

F =

(10.21)

Wie wir in Abschnitt 10.2.3 gezeigt haben, ist M QResidual =

SQResidual n−a

eine erwartungstreue Sch¨ atzung von σ 2 . Unter H0 : α1 = · · · = αa = 0 ist M QA ebenfalls ein erwartungstreuer Sch¨ atzer von σ 2 (vgl. (10.18)). Zum Pr¨ ufen von H0 verwendet man also die Testgr¨oße F =

M QA , M QResidual

(10.22)

die unter H0 eine Fa−1,n−a -Verteilung besitzt. F¨ ur F > fa−1,n−a;1−α wird H0 abgelehnt. F¨ ur die Durchf¨ uhrung der Varianzanalyse wird das Schema der Tabelle 10.3 verwendet. Anmerkung. Wir haben uns bei der Herleitung der Teststatistik (10.22) auf die Ergebnisse aus Kapitel 9 gest¨ utzt und den Nachweis der Unabh¨angigkeit ahler und Nenner von F (10.22) nicht durchgef¨ uhrt. der χ2 -Verteilungen im Z¨ Eine M¨oglichkeit zum Nachweis, dass SQA und SQResidual stochastisch unabh¨angig sind, basiert auf dem Theorem von Cochran (vgl. Kapitel 11).

242

10. Varianzanalyse Tabelle 10.3. Tafel der Varianzanalyse – einfache Klassifikation

Variationsursache

SQ

Freiheitsgrade

Zwischen den Stufen des Faktors (Faktor A)

a−1

Innerhalb der Stufen des Faktors (Residual)

n−a

Gesamt (Total)

n−1

a P i=1

2 2 ni yi+ −ny++

a n P Pi i=1 j=1

2 yij −

a n P Pi i=1 j=1

a P i=1

2 ni yi+

MQ

Pr¨ ufwert F

SQA a−1

M QA M QResidual

SQResidual n−a

2 2 yij −ny++

Beispiel 10.2.2 (Fortsetzung von Beispiel 10.1.1). Die ermittelten Umsatzsteigerungen stellen ein einfach klassifiziertes Datenmaterial dar, wobei der Faktor A den Einfluss der Werbung ausdr¨ uckt; er wirkt hier in a = 3 Stufen (Werbung I, II, III). Die Zusammenstellung der Meßwerte erfolgt gem¨aß Tabelle 10.4 in der Nomenklatur der Varianzanalyse. Die Anwendung der Formeln (10.12) bis (10.14) ergibt SQT otal = (55.52 + 40.02 + · · · + 19.52 ) − 33 · 53.912 = 103700 − 95907.51

= 7792.49 , SQA = 14 · 58.572 + 11 · 55.272 + 8 · 43.882 − 33 · 53.912 = 97032.37 − 95907.51 = 1124.86 ,

SQResidual = SQT otal − SQA = 6667.63 . Damit erh¨alt man die Tafel der Varianzanalyse (Tabelle 10.5). Der Testwert F = 2.53 < 3.32 = f2,30;0.95 ist kleiner als der kritische Wert, so dass die Nullhypothese H0 : αi = α2 = α3 = 0 bzw. H0 : μ1 = μ2 = μ3 nicht abgelehnt wird. Ein Effekt des Faktors Werbung ist nicht nachweisbar. Mit SPSS erhalten wir die Ausgabe in Abbildung 10.1. Wir erhalten die Teststatistik F mit einem p-value von 0.0954 > 0.05, so dass wir H0 nicht ablehnen. Anmerkung. Vergleichen wir die Ergebnisse im SPSS-Ausdruck mit unseren eigenen Berechnungen, so stellen wir relativ große Abweichungen fest. Diese Abweichungen entstehen dadurch, dass wir bei der Demonstration des Rechenwegs mit den gerundeten Teilergebnissen gerechnet haben. Diese Rundungsfehler ziehen sich bis zum Endergebnis durch und erkl¨aren die Abweichungen.

10.3 Multiple Vergleiche von einzelnen Mittelwerten

243

Tabelle 10.4. Umsatzwerte aus Tabelle 10.1

(I) (II) (III)

j i 1 2 3

(I) (II) (III)

j i 1 2 3

1

2

3

4

5

6

7

8

9

10

55.5 67.0 62.5

40.0 57.0 31.5

38.5 33.5 31.5

31.5 37.0 53.0

45.5 75.0 50.5

70.0 60.0 62.5

78.0 43.5 40.0

80.0 56.0 19.5

74.5 65.5

57.5 54.0

11

12

13

14

Yi+

72.0 59.5

70.0

48.0

59.0

820 608 351 1779

n=33

yi+ = = = =

Y1+ Y2+ Y3+ Y++

58.57 55.27 43.88 53.91

= = = =

y1+ y2+ y3+ y++

Tabelle 10.5. Tafel der Varianzanalyse zum Beispiel 10.2.2 Faktor A Residual Total

df 2 30 32

SQ 1124.86 6667.63 7792.49

MQ 562.43 222.25

F 2.53

ANOVA Sum of Squares Y

Between Groups Within Groups Total

df

Mean Square

F 2,543

1130,242

2

565,121

6665,485

30

222,183

7795,727

32

Sig. ,095

Abb. 10.1. SPSS-Output zu Beispiel 10.2.2

10.3 Multiple Vergleiche von einzelnen Mittelwerten Die bisher durchgef¨ uhrte Varianzanalyse pr¨ uft H0 : α1 = . . . = αa = 0 bzw. H0 : μ1 = . . . = μa . Falls H0 nicht abgelehnt wird, ist man mit der Analyse fertig – ein Effekt des Faktors A ist nicht nachweisbar. Im Fall, dass H0 abgelehnt wird, ist ein signifikanter Einfluss des Faktors A nachgewiesen. Im n¨ achsten Schritt interessiert man sich nun daf¨ ur, ob und zwischen welchen der a Faktorstufen signifikante Unterschiede bestehen. Ein signifikanter Unterschied zwischen zwei Faktorstufen i und j bedeutet, dass der doppelte t-Test die Nullhypothese H0 : μi = μj zugunsten von H1 : μi = μj zum Niveau α ablehnt. Werden nun zwei oder mehr Hypothesen, z.B. H0 : μ1 = μ2 , H0 : μ2 = uft, so kann man nicht jeden Test einzeln zum Niveau μ3 , . . . gleichzeitig gepr¨ α durchf¨ uhren, sondern muß das Testniveau jedes Tests so festlegen, dass f¨ ur

244

10. Varianzanalyse

alle Tests insgesamt das Testniveau α eingehalten wird. Dies liegt daran, dass die einzelnen Tests nicht unabh¨ angig voneinander sind. Eine Testprozedur, die z.B. paarweise Mittelwertsvergleiche simultan so durchf¨ uhrt, dass der Fehler 1. Art f¨ ur alle paarweisen Tests insgesamt ein vorgegebenes α nicht u ¨berschreitet, heißt multipler Test zum Niveau α. Es existiert eine Vielzahl von statistischen Verfahren zum Vergleich von einzelnen Mittelwerten oder Gruppen von Mittelwerten. Diese Verfahren haben folgende unterschiedliche Ziele: • Vergleich aller m¨ oglichen Paare von Mittelwerten (bei a Stufen von A also a(a − 1)/2 verschiedene Paare), • Vergleich aller anderen (a − 1) Mittelwerte mit einer vorher festgelegten Kontrollgruppe, • Vergleich aller Paare von Behandlungen, die vorher ausgew¨ahlt wurden, • Vergleich von beliebigen Linearkombinationen der Mittelwerte. Sie unterscheiden sich – neben ihrer Zielsetzung – vor allem in der Art und Weise, wie sie den Fehler 1. Art kontrollieren (vgl. z.B. Toutenburg, 1994). Wir beschr¨anken uns hier auf die simultane Testprozedur nach Bonferroni. Angenommen, wir wollen k ≤ a Vergleiche mit einem multiplen Testniveau von h¨ochstens α durchf¨ uhren, so splittet die Bonferroni-Methode den Fehler 1. Art α zu gleichen Teilen α/k auf die k Vergleiche auf. Grundlage hierf¨ ur ist die Bonferroni-Ungleichung. Theorem 10.3.1 (Ungleichung von Bonferroni). Seien A1 , . . . , Ak beliebige zuf¨allige Ereignisse. Dann gilt P (A1 ∪ · · · ∪ Ak ) ≤

k 

P (Ai ) .

(10.23)

i=1

Wir beschr¨anken uns auf den folgenden Fall. Wir betrachten die k Testprobleme H01 gegen H11 , H02 gegen H12 , . . ., H0k gegen H1k mit H0i : μji = μj ′ i ,

H1i : μji = μj ′ i

(i = 1, . . . , k) .

Wir w¨ahlen die Teststatistiken der doppelten t-Tests (vgl. (7.13)) Ti = T (Yji , Yj ′ i ) und f¨ uhren zu jedem Vergleich einen Niveau-α/k-Test durch. Der zugeh¨orige kritische Bereich sei Ki . Sei Ai das zuf¨ allige Ereignis Ti ∈ Ki“, so gilt ” P (Ti ∈ Ki |H0i ) = α/k. Dann gilt nach der Bonferroni-Ungleichung P {(T1 ∈ K1 |H01 )∪· · · ∪(Tk ∈ Kk |H0k )} ≤

k  i=1

P (Ti ∈ Ki |H0i ) =

k  α i=1

k

= α.

10.3 Multiple Vergleiche von einzelnen Mittelwerten

245

Dieser multiple Test, der k paarweise Mittelwertsvergleiche mit den zugeh¨origen paarweisen t-Tests zum Niveau α/k durchf¨ uhrt, heißt auch (α)Bonferroni-t-Test. Anmerkung. Ausgew¨ ahlte multiple Tests und ihre Realisierung an Beispielen (mit SPSS) sind in Toutenburg (1994) dargestellt. Beispiel 10.3.1. Wir nehmen an, dass wir den Einfluss von verschiedenen Arten des Trainings (Faktor A, a = 4 Stufen) auf die Leistung von Leichtathleten untersuchen. Wir f¨ uhren jeweils r = 6 Wiederholungen in einem randomisierten Versuch durch und erhalten Tabelle 10.6. Tabelle 10.6. Leistungen von Leichtathleten bei verschiedenen Trainingsmethoden Faktorstufe i 1 2 3 4

1 6.5 3.8 3.5 3.0

2 8.0 4.0 4.5 2.8

Wiederholungen j 3 4 5 9.5 12.7 14.8 3.9 4.2 3.6 3.2 2.1 3.5 2.2 3.4 4.0

6 14.0 4.4 4.0 3.9

Die Tafel der Varianzanalyse ist in Tabelle 10.7 angegeben. H0 : μ1 = · · · = μ4 wird abgelehnt, da F = 25.6475 > 3.10 = f3,20;095 ist. Tabelle 10.7. Tafel der Varianzanalyse zum Beispiel 10.3.1 Faktor A Residual Total

df 3 20 23

SQ 245.6713 63.8583 309.5296

MQ 81.8904 3.1929

F 25.6475

Wir f¨ uhren nun z.B. die folgenden k = 3 paarweisen Vergleiche durch, um herauszufinden, ob je zwei Trainingsmethoden zu signifikanten Mittelwertsunterschieden f¨ uhren. H1i i Vergleich H0i 1 1/2 μ1 = μ2 μ1 = μ2 2 2/3 μ2 = μ3 μ2 = μ3 3 3/4 μ3 = μ4 μ3 = μ4

Wir w¨ahlen α = 0.05, so dass f¨ ur jeden Einzelvergleich ein Signifikanzniveau von α/3 = 0.0166 gilt. F¨ ur die Teststatistik gilt mit n1 = n2 = 6 und s = 1.7869 * yi+ − yj+ 1 1 T (y) = + ∼ t10 . 1.7869 6 6 Eine Nullhypothese wird abgelehnt, falls T (y) > t10;0.9834 = 2.47 ist. Wir erhalten folgendes Ergebnis f¨ ur die multiplen Vergleiche nach Bonferroni:

246

10. Varianzanalyse

Vergleich 1/2 2/3 3/4

Testgr¨ oße 4.98 1.47 0.58



Der Vergleich der Gruppen 1/2 ist signifikant, die beiden anderen Vergleiche nicht. Ein Unterschied zwischen den Trainingsmethoden 1 und 2 ist also nachgewiesen. Mit SPSS erhalten wir die Ausgabe in Abbildung 10.2 und 10.3 (S.241).

ANOVA Sum of Squares LEISTUNG

Between Groups Within Groups Total

Mean Square

df

245,671

3

81,890

63,858

20

3,193

309,530

23

F

Sig.

25,648

,000

Group Statistics

LEISTUNG

TRAINING 1 2

N 6 6

Mean 10,9167 3,9833

Std. Deviation 3,3997 ,2858

Std. Error Mean 1,3879 ,1167

Independent Samples Test Levene’s Test for Equality of Variances F LEISTUNG

Equal variances assumed Equal variances not assumed

31,819

Sig. ,000

t

t-test for Equality of Means Sig. Mean (2-tailed) Difference df

Std. Error Difference

4,978

10

,001

6,9333

1,3928

4,978

5,071

,004

6,9333

1,3928

Abb. 10.2. SPSS-Output zu Beispiel 10.3.1

10.4 Rangvarianzanalyse – Kruskal-Wallis-Test Das bisherige Modell aus Abschnitt 10.2 war auf den Fall zugeschnitten, dass die Responsevariable normalverteilt ist. Wir betrachten nun die Situation, dass der Response entweder stetig, aber nicht normalverteilt ist oder dass ein ordinaler Response vorliegt. F¨ ur diese in den Anwendungen h¨aufig auftretende Datenlage wollen wir den einfaktoriellen Vergleich von Behandlungen mit einem nichtparametrischen Verfahren durchf¨ uhren. Dabei gehen wir wieder vom vollst¨andig randomisierten Versuchsplan aus.

10.4 Rangvarianzanalyse – Kruskal-Wallis-Test

247

Group Statistics

LEISTUNG

TRAINING 2 3

N 6 6

Mean 3,9833 3,4667

Std. Deviation ,2858 ,8116

Std. Error Mean ,1167 ,3313

Independent Samples Test Levene’s Test for Equality of Variances F LEISTUNG

Equal variances assumed Equal variances not assumed

Sig.

1,964

,191

t-test for Equality of Means Sig. Mean (2-tailed) Difference df

t

Std. Error Difference

1,471

10

,172

,5167

,3513

1,471

6,221

,190

,5167

,3513

Std. Deviation ,8116 ,6882

Std. Error Mean ,3313 ,2810

t-test for Equality of Means Sig. Mean (2-tailed) Difference df

Std. Error Difference

Group Statistics

LEISTUNG

TRAINING 3 4

N 6 6

Mean 3,4667 3,2167

Independent Samples Test Levene’s Test for Equality of Variances F LEISTUNG

Equal variances assumed Equal variances not assumed

,000

Sig. ,984

t ,575

10

,578

,2500

,4344

,575

9,740

,578

,2500

,4344

Abb. 10.3. SPSS-Output zu Beispiel 10.3.1 (Fortsetzung)

Die Responsewerte seien zweifach indiziert als yij mit i = 1, . . . , a (Faktorstufen) und j = 1, . . . , ni (Wiederholungen je Faktorstufe). Die Datenstruktur ist in Tabelle 10.8 gegeben. Tabelle 10.8. Datenmatrix im vollst¨ andig randomisierten Versuchsplan

P

Mittelwert

1 y11 .. . y1n1 Y1+ y1+

Faktorstufe 2 ··· a y21 ya1 .. .. . . y2n2 yana Y2+ · · · Ya+ y2+ ··· ya+

Y++ y++

248

10. Varianzanalyse

Wir w¨ahlen das folgende lineare Modell yij = μi + ǫij

(10.24)

E(ǫij ) = 0

(10.25)

und nehmen an, dass gilt. Ferner setzen wir voraus, dass die Beobachtungen innerhalb jeder Faktorstufe und zwischen den Faktorstufen unabh¨angig sind. Der Test baut – analog zum U -Test von Mann und Whitney im Zweistichprobenfall (vgl. (8.5)) – auf dem Vergleich der Rangsummen der Gruppen auf. Die Rang-Prozedur ordnet dem kleinsten Wert aller a Faktorstufen  den Rang 1, . . ., dem gr¨oßten Wert aller a Faktorstufen den Rang n = ni zu. Diese R¨ ange Rij ersetzen die Originalwerte yij des Response in Tabelle 10.8 gem¨aß Tabelle 10.9. Tabelle 10.9. Rangwerte zu Tabelle 10.8 1 R11 .. . R1n1 R1+ r1+

P

Mittelwert

Faktorstufe 2 ··· R21 .. . R2n2 R2+ ··· r2+ ···

a Ra1 .. . Rana Ra+ ra+

R++ r++

Die Rangsummen und Rangmittelwerte sind Ri+ =

ni 

Rij ,

R++ =

j=1

a  i=1

n(n + 1) , 2

R++ n+1 = . n 2 a In Analogie zur Fehlerquadratsumme SQA = i=1 ni (yi+ − y++ )2 (vgl. (10.13)) haben Kruskal und Wallis folgende Teststatistik konstruiert (Kruskal und Wallis, 1952), ri+ =

Ri+ , ni

Ri+ =

r++ =

a

H=

 12 ni (ri+ − r++ )2 n(n + 1) i=1 a

2  Ri+ 12 = − 3(n + 1) . n(n + 1) i=1 ni

(10.26)

Die Testgr¨oße H ist ein Maß f¨ ur die Varianz der Rangmittelwerte zwischen den Faktorstufen. F¨ ur den Fall ni ≤ 5 existieren Tabellen f¨ ur die exakten kritischen Werte (vgl. z.B. Sachs, 1978; Hollander und Wolfe, 1973). F¨ ur ni > 5 (i = 1, . . . , a) ist H approximativ χ2a−1 -verteilt. F¨ ur H > ca−1;1−α wird die Hypothese H0 : μ1 = · · · = μa zugunsten von H1 abgelehnt.

10.4 Rangvarianzanalyse – Kruskal-Wallis-Test

249

Korrektur bei Bindungen: Treten gleiche Responsewerte yij auf, denen dann mittlere R¨ange zugewiesen werden, so wird folgende korrigierte Teststatistik benutzt: r −1  3 k=1 (tk − tk ) . (10.27) HKorr = H 1 − n3 − n Dabei ist r die Anzahl von Gruppen mit gleichen Responsewerten (und damit gleichen R¨angen) und tk die Anzahl der jeweils gleich großen Responsewerte innerhalb einer Gruppe. Anmerkung. Liegen Bindungen vor und gilt bereits H > ca−1;1−α , so muß wegen HKorr > H der korrigierte Wert nicht mehr berechnet werden. Beispiel 10.4.1. Wir vergleichen die Umsatzsteigerung aus Tabelle 10.1 nun nach dem Kruskal-Wallis-Test. Wir ordnen die Werte in Tabelle 10.1 spaltenweise der Gr¨oße nach und vergeben die R¨ ange (Tabelle 10.10). Tabelle 10.10. Berechnung der R¨ ange und Rangsummen zu Tabelle 10.1 Werbung I Meßwert Rang 31.5 3 38.5 7 40.0 8.5 45.5 11 48.0 12 55.5 16 57.5 19 59.0 20 70.0 27.5 70.0 27.5 72.0 29 74.5 30 78.0 32 80.0 33 n1 = 14 R1+ = 275.5 r1+ = 19.68

Werbung II Meßwert Rang 33.5 5 37.0 6 43.5 10 54.0 15 56.0 17 57.0 18 59.5 21 60.0 22 65.5 25 67.0 26 75.0 31

Werbung III Meßwert Rang 19.5 1 31.5 3 31.5 3 40.0 8.5 50.5 13 53.0 14 62.5 23.5 62.5 23.5

n2 = 11 R2+ = 196.0 r2+ = 17.82

n3 = 8 R3+ = 89.5 r3+ = 11.19

Die Pr¨ ufgr¨oße auf der Basis von Tabelle 10.10 wird   12 275.52 196.02 89.52 H= + + − 3 · 34 33 · 34 14 11 8 = 4.044 < 5.99 = c2;0.95 . Da Bindungen vorliegen und H nicht signifikant ist, muß HKorr berechnet werden. Aus Tabelle 10.10 entnehmen wir

250

10. Varianzanalyse

r = 4,

t1 = 3 (3 R¨ ange von 3) t2 = 2 (2 R¨ ange von 8.5) t3 = 2 (2 R¨ ange von 23.5) t4 = 2 (2 R¨ ange von 27.5) 3 3 −3) −1 ] = [1 − Korrekturglied: [1 − 3·(2 −2)+(3 333 −33

42 −1 35904 ]

= [0.9988]−1 ,

HKorr = 4.049 < 5.99 = c2;0.95 . Die Entscheidung lautet: die Nullhypothese H0 : μ1 = μ2 = μ3 wird nicht abgelehnt, ein Effekt des Faktors Werbung“ ist nicht nachweisbar. ” Mit SPSS erhalten wir die Ausgabe in Abbildung 10.4.

Ranks

WERBUNG 1,00 2,00 3,00 Total

Y

N 14 11 8 33

Mean Rank 19,68 17,82 11,19

Test Statisticsa,b

Chi-Square df Asymp. Sig.

Y 4,048 2 ,132

a. Kruskal Wallis Test b. Grouping Variable: WERBUNG

Abb. 10.4. SPSS-Output zu Beispiel 10.4.1

10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung 10.5.1 Definitionen und Grundprinzipien In der Praxis der geplanten Studien kann man h¨aufig davon ausgehen, daß ein Response Y nicht nur von einer Variablen, sondern von einer Gruppe von Einflussgr¨oßen (Faktoren) abh¨ angt. Versuchspl¨ane, die den Response f¨ ur alle m¨oglichen Kombinationen von zwei oder mehr Faktoren auswerten, heißen faktorielle Experimente oder Kreuzklassifikation. Seien l Faktoren

10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung

251

A1 , . . . , Al mit ra1 , . . . , ral Faktorstufen (Auspr¨agungen) gegeben, so erfordert der vollst¨andige Faktorplan r = Πri Versuchseinheiten f¨ ur einen Durchlauf. Damit ist klar, daß man sich sowohl bei der Anzahl der Faktoren als auch bei der Anzahl ihrer Stufen beschr¨ anken muß. Bei faktoriellen Experimenten sind zwei Grundmodelle zu unterscheiden – Modelle mit und ohne Wechselwirkungen. Betrachten wir den Fall zweier Faktoren A und B mit jeweils zwei Faktorstufen A1 , A2 bzw. B1 , B2 . Als Haupteffekte eines Faktors bezeichnet man die Ver¨anderung des Response bei Wechsel der Faktorstufe. Betrachten wir Tabelle 10.11, so kann der Haupteffekt des Faktors A als Differenz zwischen den mittleren Responsewerten beider Faktorstufen A1 und A2 interpretiert werden: λA =

60 40 − = 10 . 2 2

Analog ist der Haupteffekt B λB =

70 30 − = 20 . 2 2

Tabelle 10.11. Zweifaktorielles Experiment ohne Wechselwirkung

Faktor A

A1 A P2

Faktor B B1 B2 10 30 20 40 30 70

P

40 60 100

Die Effekte von A auf den beiden Stufen von B sind f¨ ur B1 : 20 − 10 = 10 ,

f¨ ur B2 : 40 − 30 = 10 ,

also auf beiden Stufen identisch. Analog gilt f¨ ur Effekt B f¨ ur A1 : 30 − 10 = 20 ,

f¨ ur A2 : 40 − 20 = 20 ,

so dass auch hier kein von A abh¨ angender Effekt sichtbar ist. Die Responsekurven verlaufen parallel (Abbildung 10.5). Die Auswertung der Tabelle 10.12 dagegen ergibt folgende Effekte: 80 − 40 = 20 , 2 90 − 30 = 30 , Haupteffekt λB = 2 Haupteffekt λA =

Effekte von A f¨ ur B1 : 20 − 10 = 10 ,

f¨ ur B2 : 60 − 30 = 30 ,

252

10. Varianzanalyse

B2 •

40 30

B2 •

• B1

20 10

• B1

0 A1

A2

Abb. 10.5. Zweifaktorielles Experiment ohne Wechselwirkung Tabelle 10.12. Zweifaktorielles Experiment mit Wechselwirkung

Faktor A

A1 A P2

Faktor B B1 B2 10 30 20 60 30 90

P

40 80 120

Effekte von B f¨ ur A1 : 30 − 10 = 20 ,

f¨ ur A2 : 60 − 20 = 40 .

Hier h¨angen die Effekte wechselseitig von der Stufe des anderen Faktors ab, der Wechselwirkungseffekt betr¨ agt 20. Die Responsekurven verlaufen nicht mehr parallel (Abbildung 10.6).

60 50 40 30 20 10 0

B2 • B2 • • B1 A1

• B1 A2

Abb. 10.6. Zweifaktorielles Experiment mit Wechselwirkung

Anmerkung. Der Begriff faktorielles Experiment beschreibt nicht die Art des Versuchsplans, sondern die vollst¨ andig gekreuzte Kombination der Faktoren (Behandlungen). Faktorielle Experimente k¨onnen als vollst¨andig randomisierter Versuchsplan, als Randomisierter Blockplan, als Lateinisches Quadrat usw. angelegt werden.

10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung

253

Das faktorielle Experiment sollte angewandt werden • bei Vorstudien, in denen m¨ ogliche Kovariablen auf ihre statistische Relevanz gepr¨ uft werden, • zur Bestimmung von bivariaten Wechselwirkungen, • zur Bestimmung von m¨ oglichen Rangordnungen der Faktoren bez¨ uglich ihrer Bedeutung f¨ ur den Response. Gegen¨ uber dem Einfaktorplan bietet das faktorielle Experiment den Vorteil, Haupteffekte mit der gleichen Pr¨ azision, aber mit einem geringeren Stichprobenumfang zu sch¨ atzen. Angenommen, wir wollen – wie eben in den Beispielen – die Haupteffekte A und B sch¨atzen. Dann w¨ are folgender Einfaktorplan mit zwei Wiederholungen m¨oglich (vgl. z.B. Montgomery, 1976): (1)

A1 B1 (1) A2 B1

(1)

(2)

A1 B2

A1 B1 (2) A2 B1

(2)

A1 B2

n = 3 + 3 = 6 Beobachtungen ; 1: (1) (1) (2) (2) (A2 B1 − A1 B1 ) + (A2 B1 − A1 B1 ) , 2 ; 1: (1) (1) (2) (2) Sch¨atzung von λB : (A1 B1 − A1 B2 ) + (A1 B1 − A1 B2 ) . 2 Sch¨atzungen derselben Pr¨ azision erh¨ alt man im zweifaktoriellen Experiment Sch¨atzung von λA :

A1 B1 A2 B1

A1 B2 A2 B2

mit bereits n = 4 Beobachtungen gem¨ aß λA = und

1 [(A2 B1 − A1 B1 ) + (A2 B2 − A1 B2 )] 2

1 [(A1 B2 − A1 B1 ) + (A2 B2 − A1 B1 )] . 2 Daneben kann das faktorielle Experiment bei r ≥ 2 Wiederholungen Wechselwirkungen aufdecken und damit ein ad¨aquates Modell liefern. Die Vernachl¨assigung oder das Nichterkennen von Wechselwirkungen kann erhebliche Fehlinterpretationen der Haupteffekte zur Folge haben. Im Prinzip sind bei signifikanter Wechselwirkung die Haupteffekte von untergeordneter Bedeutung, da die Wirkung des einen Faktors auf den Response nicht mehr separat, sondern stets unter Einbeziehung des anderen Faktors zu interpretieren ist. λB =

254

10. Varianzanalyse

10.5.2 Modellannahmen Wir nehmen an, dass der Faktor A in a Stufen (i = 1, . . . , a) und der Faktor B in b Stufen (j = 1, . . . , b) vorliegt. F¨ ur jede Kombination (i, j) werden r Wiederholungen durchgef¨ uhrt, wobei die Versuchsanlage des vollst¨andig randomisierten Versuchsplans angewandt wird. Die Datenlage ist in Tabelle 10.13 dargestellt. Tabelle 10.13. Datensituation im A × B-Versuchsplan B A 1 2 .. . a P

Mittelwerte

1

2

Y11+ Y21+ .. . Ya1+ Y+1+ y+1+

Y12+ Y22+ .. . Ya2+ Y+2+ y+2+

··· ··· ··· ··· ··· ···

b Y1b+ Y2b+ .. . Yab+ Y+b+ y+b+

P

Y1++ Y2++ .. . Ya++ Y+++

Mittelwerte y1++ y2++ .. . ya++ y+++

Insgesamt sind also N = rab Versuchseinheiten beteiligt. Der Response folge dem linearen Modell yijk = μ + αi + βj + (αβ)ij + ǫijk , (i = 1, . . . , a; j = 1, . . . , b; k = 1, . . . , r) ,

(10.28)

das auch als A × B-Versuchsplan oder als Modell der zweifaktoriellen Varianzanalyse mit Wechselwirkung bezeichnet wird. Dabei ist • yijk der Response zur i-ten Stufe von A und j-ten Stufe von B in der k-ten Wiederholung, • μ das Gesamtmittel, • αi der Effekt der i-ten A-Stufe, • βj der Effekt der j-ten B-Stufe, • (αβ)ij der Wechselwirkungseffekt der Kombination (i, j), • ǫijk der zuf¨allige Fehler.

Wir treffen folgende Voraussetzung u ¨ber die zuf¨allige Variable ǫ′ = (ǫ111 , . . . , ǫabr ): ǫ ∼ N (0, σ 2 I) . (10.29)

F¨ ur die festen Effekte gelten folgende Reparametrisierungsbedingungen: a 

αi = 0 ,

(10.30)

βj = 0 ,

(10.31)

i=1

b  j=1

10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung a 

(αβ)ij =

i=1

b 

(αβ)ij = 0 .

255

(10.32)

j=1

Kleinste-Quadrat-Sch¨ atzung der Parameter Ziel des A × B-Versuchsplans ist die Pr¨ ufung der Haupteffekte beider Faktoren A und B und des Wechselwirkungseffekts. Das Modell (10.28) ist ein spezielles lineares Regressionsmodell. Zur Herleitung der Teststatistiken gehen wir also nach der Strategie des linearen Modells wie in Kapitel 9 vor, d.h., zun¨achst werden die bedingten Kleinste-Quadrat-Sch¨atzungen der Parameter bestimmt. Mit ihnen werden die yˆijk berechnet und danach wird die Zerlegung der Fehlerquadratsumme in die A, B und A × B zuzuordnenden Anteile SQA , SQB und SQA×B durchgef¨ uhrt. Die Zielfunktion zur Bestimmung der KQ-Sch¨atzungen lautet im Modell (10.28) S(θ) =

a  b  r 

i=1 j=1 k=1

(yijk − μ − αi − βj − (αβ)ij )2

(10.33)

unter den Nebenbedingungen (10.30) – (10.32). Dabei ist θ′ = (μ, α1 , . . . , αa , β1 , . . . , βb , (αβ)11 , . . . , (αβ)ab )

(10.34)

der Vektor der unbekannten Parameter. Die Normalgleichungen unter Ber¨ ucksichtigung der Restriktionen (10.30) – (10.32) lassen sich leicht herleiten: −

a  b  r  1 ∂S(θ) = (yijk − μ − αi − βj − (αβ)ij ) 2 ∂μ i=1 j=1 k=1

= Y+++ − N μ = 0 , (10.35) 1 ∂S(θ) − = Yi++ − brαi − brμ = 0 (i fest) , (10.36) 2 ∂αi 1 ∂S(θ) − = Y+j+ − arβj − arμ = 0 (j fest) , (10.37) 2 ∂βj 1 ∂S(θ) − = Yij+ − rμ − rαi − rβj − (αβ)ij = 0 (i, j fest) .(10.38) 2 ∂(αβ)ij Daraus erhalten wir die KQ-Sch¨ atzungen unter den Reparametrisierungsbedingungen (10.30) – (10.32), also die bedingten KQ-Sch¨atzungen μ ˆ = Y+++ /N = y+++ , Yi++ −μ ˆ = yi++ − y+++ , α ˆi = br Y+j+ βˆj = −μ ˆ = y+j+ − y+++ , ar  = Yij+ − μ ˆ−α ˆ i − βˆj = yij+ − yi++ − y+j+ + y+++ . (αβ) ij r

(10.39) (10.40) (10.41) (10.42)

256

10. Varianzanalyse

Sei das sogenannte Korrekturglied definiert als C = Y+2 /N

(10.43)

mit N = a · b · r . Dann erhalten wir folgende Zerlegung: SQT otal =

a  b  r 

i=1 j=1 k=1

= SQA = SQB =

a  b  r 

(yijk − y+++ )2 2 yijk −C,

i=1 j=1 k=1 a 1  2 Y br i=1 i++

(10.44)

−C,

(10.45)

b 1  2 Y −C, ar j=1 +j+

(10.46)

a b a b 1  2 1  2 1  2 Yij+ − Yi++ − Y +C r i=1 j=1 br i=1 ar j=1 +j+ ⎤ ⎡ a  b  1 Y 2 − C ⎦ − SQA − SQB , (10.47) =⎣ r i=1 j=1 ij+

SQA×B =

SQResidual = SQT otal − SQA − SQB − SQA×B ⎡ ⎤ a  b  1 = SQT otal − ⎣ Y 2 − C⎦ . r i=1 j=1 ij+

(10.48)

Anmerkung. Die Quadratsumme zwischen den a · b Responsesummen Yij+ heißt auch SQSubtotal , d.h. a

SQSubtotal =

b

1  2 −C. Y r i=1 j=1 ij+

(10.49)

Damit Wechselwirkungseffekte nachweisbar sind bzw. damit (αβ)ij sch¨atzbar ist, m¨ ussen mindestens r = 2 Wiederholungen je Kombination (i, j) durchgef¨ uhrt werden. Sonst gehen die Wechselwirkungseffekte in den Fehler mit ein und sind nicht separierbar. Testprozedur Das Modell (10.28) mit Wechselwirkungen wird als saturiertes Modell bezeichnet. Das Modell ohne Wechselwirkungen lautet yijk = μ + αi + βj + ǫijk

(10.50)

10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung

257

und heißt Unabh¨ angigkeitsmodell. Man pr¨ uft zun¨ achst H0 : (αβ)ij = 0 (alle (i, j)) gegen H1 : (αβ)ij = 0 (mindestens ein Paar (i, j)). Dies entspricht der Modellwahl Submodell (10.50) ” gegen volles Modell (10.28)“ gem¨ aß unserer Teststrategie aus Kapitel 9. Die Interpretation des zweifaktoriellen Experiments h¨angt vom Ausgang dieses Tests ab. H0 wird abgelehnt, falls FA×B =

M QA×B > f(a−1)(b−1),ab(r−1);1−α M QResidual

(10.51)

ist. Bei Ablehnung von H0 sind also Wechselwirkungseffekte signifikant; die Haupteffekte sind ohne interpretierbare Bedeutung, egal ob sie signifikant sind oder nicht. Tabelle 10.14. Tafel der Varianzanalyse im A × B-Versuchsplan mit Wechselwirkungen Ursache Faktor A Faktor B Wechselwirkung A×B Residual Total

df a−1 b−1

SQ SQA SQB

MQ M QA M QB

F FA FB

(a − 1)(b − 1)

SQA×B

M QA×B

FA×B

N − ab = ab(r − 1) N −1

SQResidual SQT otal

M QResidual

Wird H0 dagegen nicht abgelehnt, so haben die Testergebnisse f¨ ur H0 : A αi = 0 gegen H1 : αi = 0 (mindestens zwei i) mit FA = MQMQ und f¨ ur Residual

B H0 : βj = 0 gegen H1 : βj = 0 (mindestens zwei j) mit FB = MQMQ eine Residual interpretierbare Bedeutung im Modell (10.50). Falls nur ein Faktor signifikant ist (z.B. A), reduziert sich das Modell weiter auf ein balanziertes einfaktorielles Modell mit a Faktorstufen mit jeweils br Wiederholungen: (10.52) yijk = μ + αi + ǫijk .

Beispiel 10.5.1. Es soll der Einfluss zweier Faktoren A (Werbung) und B (Management, hier: Stammkundenkartei nein/ja) auf den Umsatz eines Kaufhauskonzerns gekl¨ art werden. Dazu werden A (niedrig, hoch) und B (nein, ja) in jeweils zwei Stufen angewandt und je r = 2 Wiederholungen (in verschiedenen Filialen) durchgef¨ uhrt. Damit sind a = b = r = 2 und N = abr = 8. Die Versuchseinheiten (Filialen) werden den Behandlungen randomisiert zugewiesen. Wir berechnen aus Tabelle 10.15: C = 77.62/8 = 752.72 , SQT otal = 866.92 − C = 114.20 ,

258

10. Varianzanalyse

SQA = = SQB = = SQSubtotal = =

1 (39.62 + 38.02) − C 4 753.04 − 752.72 = 0.32 , 1 (26.42 + 51.22) − C 4 829.60 − 752.72 = 76.88 , 1 (17.82 + 21.82 + 8.62 + 29.42 ) − C 2 865.20 − 752.72 = 112.48 ,

SQA×B = SQSubtotal − SQA − SQB = 35.28 , SQResidual = 114.20 − 35.28 − 0.32 − 76.88 = 1.72 .

Tabelle 10.15. Einzelne Responsewerte und totaler Response im Beispiel 10.5.1 B

B A 1 2

1 8.6 4.7

2 9.2 3.9

10.4 14.1

11.4 15.3

A 1 2 P

1 17.8 8.6 26.4

2 21.8 29.4 51.2

P

39.6 38.0 77.6

Tabelle 10.16. Tafel der Varianzanalyse im Beispiel 10.5.1 Ursache Faktor A Faktor B Wechselwirkung A × B Residual Total

df 1 1 1 4 7

SQ 0.32 76.88 35.28 1.72 114.20

MQ 0.32 76.88 35.28 0.43

F 0.74 178.79 82.05

∗ ∗

Ergebnis: Der Test auf Wechselwirkung gem¨aß Tabelle 10.16 ergibt mit FA×B = 82.05 > 7.71 = f1,4;0.95 eine Ablehnung von H0 : Keine Wechsel” wirkung“, so dass das saturierte Modell (10.28) (mit Wechselwirkung) g¨ ultig ist (vgl. auch Abbildung 10.7). Eine Reduzierung auf ein Einfaktormodell ist damit trotz des nichtsignifikanten Haupteffekts A nicht m¨oglich. Mit SPSS erhalten wir die Ausgabe in Abbildung 10.8. Beispiel 10.5.2. In einem anderen Kaufhauskonzern seien in einem vergleichbaren Experiment folgende Ergebnisse erzielt worden (vgl. Tabelle 10.17 f¨ ur die Originalwerte und f¨ ur den totalen Response): Wir berechnen

10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung

B2 •

30 B2 • • B1

20

259

10

• B1

0 A1

A2

Abb. 10.7. Signifikante Wechselwirkung (Beispiel 10.5.1) ANOVAa,b

Y_IJK

Main Effects

(Combined) MANAGE WERBUNG MANAGE * WERBUNG

2-Way Interactions

Sum of Squares 77,200 76,880 ,320

Model Residual Total

df

Unique Method Mean Square F 2 38,600 89,767 1 76,880 178,791 1 ,320 ,744

Sig. ,000 ,000 ,437

35,280

1

35,280

82,047

,001

112,480 1,720 114,200

3 4 7

37,493 ,430 16,314

87,194

,000

a. Y_IJK by MANAGE, WERBUNG b. All effects entered simultaneously

Abb. 10.8. SPSS-Output zu Beispiel 10.5.1 Tabelle 10.17. Einzelne Responsewerte und totaler Response im Beispiel 10.5.2 B

B A 1 2

1 4 8

2 6 12

12 24

8 16

N = 2· 2· 2 = 8,

A 1 2 P

1 10 20 30

2 20 40 60

C = 902 /8 = 1012.50 , SQT otal = 1300 − C = 287.50 , 1 SQA = (302 + 602 ) − C 4 = 1125 − C = 112.50 , 1 SQB = (302 + 602 ) − C = 112.50 , 4 1 SQSubtotal = (102 + 202 + 202 + 402 ) − C 2 = 1250 − C = 237.50 ,

P 30 60 90

260

10. Varianzanalyse

SQA×B = SQSubtotal − SQA − SQB = 12.50 , SQResidual = SQT otal − SQA − SQB − SQA×B = 50 . Tabelle 10.18. Tafel der Varianzanalyse im saturierten Modell (Beispiel 10.5.2) Ursache Faktor A Faktor B Wechselwirkung A × B Residual Total

df 1 1 1 4 7

SQ 112.50 112.50 12.50 50.00 287.50

MQ 112.50 112.50 12.50 12.50

F 9.00 9.00 1.00

∗ ∗

Mit SPSS erhalten wir die Ausgabe in Abbildung 10.9. ANOVAa,b

Z_IJK

Main Effects

2-Way Interactions

(Combined) MANAGE WERBUNG MANAGE * WERBUNG

Model Residual Total

Unique Method Mean Square 2 112,500 1 112,500 1 112,500

F 9,000 9,000 9,000

Sig. ,033 ,040 ,040

12,500

1

12,500

1,000

,374

237,500 50,000 287,500

3 4 7

79,167 12,500 41,071

6,333

,053

Sum of Squares 225,000 112,500 112,500

df

a. Z_IJK by MANAGE, WERBUNG b. All effects entered simultaneously

Abb. 10.9. SPSS-Output zu Beispiel 10.5.2

Ergebnis: Zun¨achst pr¨ ufen wir auf Wechselwirkung (Tabelle 10.18). Die Hypothese H0 : (αβ)ij = 0 wird wegen FA×B = 1 < 7.71 = f1,4;0.95 nicht abgelehnt. Damit gehen wir vom Modell (10.28) zum Modell (10.50) mit den beiden Haupteffekten A und B (Modell ohne Wechselwirkung, Unabh¨angigkeitsmodell) u ¨ber. SQA×B wird zu SQResidual addiert. Wir erhalten die Tabelle 10.19. Wegen FA = FB = 9 > 6.61 = f1,5;0.95 werden H0 : α1 = . . . = αa = 0 und H0 : β1 = . . . = βb = 0 abgelehnt. Mit SPSS erhalten wir hier die Werte wie in Abbildung 10.10. Interpretation: Die beiden Faktoren A (Werbung) und B (Management) haben beide einen signifikanten Einfluss auf den Umsatz, sie wirken beide unabh¨angig. Aus Tabelle 10.17 und Abbildung 10.11 entnehmen wir, dass der Umsatz maximal wird f¨ ur die Wahl der Faktorstufen A2 (Werbung hoch) und B2 (Stammkundenkartei ja).

10.5 Zweifaktorielle Varianzanalyse mit Wechselwirkung

261

Tabelle 10.19. Tafel der Varianzanalyse im Unabh¨ angigkeitsmodell (Beispiel 10.5.2) Ursache A B Residual Total

df 1 1 5 287.50

SQ 112.50 112.50 62.50 7

MQ 112.50 112.50 12.50

F 9.00 9.00

∗ ∗

ANOVAa,b

Z_IJK

Main Effects

(Combined) MANAGE WERBUNG

Model Residual Total

Sum of Squares 225,000 112,500 112,500 225,000 62,500 287,500

df

Unique Method Mean Square 2 112,500 1 112,500 1 112,500 2 112,500 5 12,500 7 41,071

F 9,000 9,000 9,000 9,000

Sig. ,022 ,030 ,030 ,022

a. Z_IJK by MANAGE, WERBUNG b. All effects entered simultaneously

Abb. 10.10. Fortsetzung: SPSS-Output zu Beispiel 10.5.2

B2 •

40 30 20

B2 •

10

• B1

• B1

0 A1

A2

Abb. 10.11. Nichtsignifikante Wechselwirkung im Beispiel 10.5.2

262

10. Varianzanalyse

10.6 Aufgaben und Kontrollfragen Aufgabe 10.1: In einem Feldversuch werden drei D¨ unger eingesetzt. Die Tafel der Varianzanalyse lautet Faktor A Residual Total

df

SQ 50

32

350

MQ

F

Wie lautet die zu pr¨ ufende Hypothese? Wie lautet die Testentscheidung? ¨ Aufgabe 10.2: Drei Studentengruppen erreichten in den Ubungsbl¨ attern zur Vorlesung Statistik I nachfolgende Punktwerte: Gruppe 1 32 39 45 47 53 59 71 85

Gruppe 2 34 37 42 54 60 75

Gruppe 3 38 40 43 48 52 61 80 95

Vergleichen Sie diese Ergebnisse mit einem geeigneten Verfahren unter der Annahme einer Normalverteilung. Aufgabe 10.3: Wie sind folgende Testergebnisse zu interpretieren? Formulieren Sie die entsprechenden zweifaktoriellen Modelle. FA ∗ FA ∗ FA ∗ ∗ b) FB c) FB a) FB FA×B ∗ FA×B FA×B ∗ FA ∗ FA ∗ d) FB e) FB FA×B ∗ FA×B Aufgabe 10.4: F¨ uhren Sie folgenden Test im zweifaktoriellen Modell mit festen Effekten durch und geben Sie das endg¨ ultige Modell an. Faktor A Faktor B Wechselwirkung A × B Residual Total

df 1 2 2 18 23

SQ 130 630 40 150

MQ

F

10.6 Aufgaben und Kontrollfragen

263

Aufgabe 10.5: Interpretieren Sie das nachfolgende SPSS-Listing. Wie gehen Sie weiter vor? Tests of Between-Subjects Effects Dependent Variable: CURRENT SALARY

Source Model JOBCAT MINORITY JOBCAT * MINORITY Error Total

Type III Sum of Squares 1,1E+11a 6,2E+09 5,5E+07 1,7E+08 6,7E+09 1,1E+11

df 13 6 1 5 461 474

Mean Square 8,1E+09 1,0E+09 5,5E+07 3,5E+07 1,5E+07

a. R Squared = ,940 (Adjusted R Squared = ,938)

F 556,162 70,545 3,753 2,377

Sig. ,0000 ,0000 ,0533 ,0380

11. Analyse von Kontingenztafeln

11.1 Zweidimensionale kategoriale Zufallsvariablen Im Kapitel 9 u ¨ ber Regressionsmodelle haben wir den Zusammenhang zwischen zwei metrischen Zufallsvariablen X und Y untersucht und modelliert. In diesem Kapitel betrachten wir ebenfalls zwei Variablen X und Y , setzen jedoch voraus, dass X und Y entweder kategoriale Zufallsvariablen (ordinal oder nominal) oder kategorisierte stetige Zufallsvariablen sind. Die vorgestellten Methoden sind f¨ ur nominale und ordinale Variablen anwendbar, nutzen jedoch im Fall ordinaler Variablen den damit verbundenen Informationsgewinn nicht aus. Beispiele. • X: Raucher/Nichtraucher Y : Krankheit ja/nein • X: Schulbildung (niedrig, mittel, hoch) Y : Verdienstklasse (< 5000, 5000 – 10000, > 10000 EUR/Monat) • X: Werbemittel (Zeitung, TV, Sonderangebote) Y : Umsatz (fallend, gleichbleibend, steigend) • X: Studienfach (BWL, VWL) Y : Leistungen in Statistik (schlecht, gut, sehr gut) • X: Behandlung (A, B, C) Y : Therapieerfolg (ja, nein) Die beiden Zufallsvariablen X und Y bilden den zweidimensionalen Zufallsvektor (X, Y ), dessen gemeinsame Verteilung untersucht wird. Von Interesse ist die Hypothese H0 : X und Y sind unabh¨angig“. Bei Ablehnung der ” Hypothese wird man – wie im Regressionsmodell – versuchen, den Zusammenhang n¨aher zu untersuchen (z.B. auf Trends) bzw. durch ein geeignetes Modell zu erfassen. Die Zufallsvariable X habe I Auspr¨agungen x1 , . . . , xI , die durch die Kodierung i = 1, . . . , I dargestellt werden. Analog habe Y J Auspr¨agungen y1 , . . . , yJ mit der Kodierung j = 1, . . . , J. Werden an Objekten jeweils beide Zufallsvariablen beobachtet, so ergeben sich I × J m¨ogliche (Kreuz-) Klassifikationen. Die gemeinsame Verteilung von (X, Y ) wird durch die Wahrscheinlichkeiten

266

11. Analyse von Kontingenztafeln

P (X = i, Y = j) = πij definiert, wobei

I

i=1

J

j=1

πij = 1 gilt.

Anmerkung. Wir verwenden hier die im Zusammenhang mit Kontingenztaur die Wahrscheinlichkeiten pij . feln allgemein u ¨bliche Schreibweise πij f¨ Die Randwahrscheinlichkeiten erh¨ alt man durch zeilen- bzw. spaltenweises Aufsummieren: J 

P (X = i) = πi+ =

πij

,

i = 1, . . . , I ,

πij

,

j = 1, . . . , J .

j=1

P (Y = j) = π+j =

I  i=1

Es gilt I 

πi+ =

i=1

J 

π+j = 1 .

j=1

Tabelle 11.1. Gemeinsame Verteilung und Randverteilungen von X und Y Y

X

1 2 .. . I

1 π11 π21 .. . πI1 π+1

2 π12 π22 .. . πI2 π+2

... ... ... ... ...

J π1J π2J .. . πIJ π+J

π1+ π2+ .. . πI+

Die Wahrscheinlichkeiten {π1+ , . . . , πI+ } und {π+1 , . . . , π+J } definieren dann die Randverteilungen von X und Y . Sind X und Y Zufallsvariablen, dann ist die bedingte Verteilung von Y gegeben X = i definiert durch die Wahrscheinlichkeiten P (Y = j|X = i) = πj|i =

πij πi+

∀j .

(11.1)

Die Wahrscheinlichkeiten {π1|i , . . . , πJ|i } bilden also die bedingte Verteilung von Y auf der Stufe i von X. Analog wird die bedingte Verteilung von X gegeben Y = j definiert durch die Wahrscheinlichkeiten {π1|j , . . . , πI|j } mit P (X = i|Y = j) = πi|j =

πij π+j

∀i .

(11.2)

11.2 Unabh¨ angigkeit

267

Anmerkung. Wir m¨ ussen in (11.1) und (11.2) πi+ > 0 und π+j > 0 f¨ ur alle i, j voraussetzen, damit die bedingten Wahrscheinlichkeiten eindeutig definiert sind. Beispiel 11.1.1. Sei I = J = 2. Die gemeinsame Verteilung von X und Y (ohne Klammern) und die bedingte Verteilung von X gegeben Y (mit Klammern) sind in der nachfolgenden 2 × 2-Tafel dargestellt: Y 1 X 2

1 π11 (π1|1 ) π21 (π2|1 ) π+1 (1)

2 π12 (π1|2 ) π22 (π2|2 ) π+2 (1)

π11 + π12 = π1+ (π1|1 + π1|2 = 1) π21 + π22 = π2+ (π2|1 + π2|2 = 1) 1

11.2 Unabh¨ angigkeit Wir haben bereits in (3.13) die Bedingung f¨ ur die Unabh¨angigkeit zweier diskreter Zufallsvariablen angegeben. Wir wiederholen diese Bedingung in der aktuellen Schreibweise der Kontingenztafel. Die Variablen X und Y der Kontingenztafel heißen unabh¨angig, falls alle gemeinsamen Wahrscheinlichkeiten gleich dem Produkt der Randwahrscheinlichkeiten sind: (11.3) πij = πi+ π+j ∀i, j . Sind X und Y unabh¨ angig gem¨ aß Definition (11.3), dann gilt: P (Y = j|X = i) = πj|i =

πi+ π+j πij = = π+j πi+ πi+

∀i .

D.h., jede bedingte Verteilung von Y gegeben X ist gleich der Randverteilung von Y unabh¨angig von der Stufe i der Variablen X. Im Fall der Unabh¨angigkeit gilt genauso P (X = i|Y = j) = πi|j =

πi+ π+j πij = = πi+ π+j π+j

∀j .

Anmerkung. Oftmals ist es sinnvoll, Y als Responsevariable und X als nichtstochastische Variable aufzufassen. In diesem Fall ist man am Vergleich der bedingten Verteilungen von Y auf jeder Stufe i von X interessiert. Man sagt dann, X hat keinen Einfluss auf Y , wenn gilt: πj|1 = πj|2 = . . . = πj|I

∀j .

268

11. Analyse von Kontingenztafeln

11.3 Inferenz in Kontingenztafeln Wir setzen voraus, dass wir in einer zuf¨ alligen Stichprobe die H¨aufigkeiten nij (i = 1, . . . , I, j = 1, . . . , J) der (i, j)-ten Auspr¨agung der Zufallsvariablen (X, Y ) beobachtet haben. Die H¨ aufigkeiten werden in einer Kontingenztafel zusammengefaßt: Y

X

1 2 .. . I

1 n11 n21 .. .

2 n12 n22

··· ··· ··· .. .

J n1J n2J .. .

n1+ n2+ .. .

nI1 n+1

nI2 n+2

··· ···

nIJ n+J

nI+ n

Dabei ist ni+ n+j n

die i-te Zeilensumme, die j-te Spaltensumme, die Gesamtzahl der Beobachtungen.

Die statistischen Methoden f¨ ur Kontingenztafeln treffen bestimmte Annahmen u ¨ ber das Zustandekommen einer vorliegenden Kontingenztafel von beobachteten H¨aufigkeiten. Als g¨ angige Modelle werden das Poissonschema, das unabh¨angige Multinomialschema und das Produktmultinomialschema verwendet. Zur Vereinfachung der Notation nummerieren wir die I × J = N Zellen der Kontingenztafel (zeilenweise) durch und erhalten die beobachteN ten Zellh¨aufigkeiten {n1 , . . . , nN } mit n = i=1 ni . Die Erwartungswerte E(ni ) bezeichnen wir mit mi . Diese nennen wir die erwarteten Zellh¨aufigkeiten {m1 , . . . , mN }. 11.3.1 Stichprobenschemata f¨ ur Kontingenztafeln Poissonstichprobenschema Da die ni nichtnegative ganze Zahlen sind, sollte eine Stichprobenverteilung ihre Wahrscheinlichkeitsmasse auf diesen Bereich konzentrieren. Eine der einfachsten dieser Verteilungen ist die Poissonverteilung (vgl. Abschnitt 4.2.7). Sie ist durch einen Parameter, n¨ amlich λ charakterisiert. F¨ ur die Wahrscheinlichkeitsfunktion einer poissonverteilten Zufallsvariablen Zi gilt mit λ = mi P (Zi = ni ) =

mni i exp(−mi ), ni !

ni = 0, 1, 2, . . .

und Var(Zi ) = E(Zi ) = mi .

(11.4)

11.3 Inferenz in Kontingenztafeln

269

Das Poissonstichprobenschema geht also davon aus, dass die beobachteten H¨aufigkeiten {ni } Realisationen von N unabh¨ angigen Poisson-Zufallsvariablen Zi mit Parameter mi sind. Die Wahrscheinlichkeitsfunktion der gemeinsamen Verteilung der Zi , i = 1, . . . , N ist wegen der Unabh¨angigkeit damit das Produkt der N Wahrscheinlichkeitsfunktionen (11.4) P (Z1 = n1 , . . . , ZN = nN ) =

N &

P (Zi = ni ) .

i=1

 Der Stichprobenumfang n = ni ist damit selbst zuf¨allig und wegen des Additionssatzes der Poissonverteilung (Satz 4.2.2)  Realisation einer poissonverteilten Zufallsvariablen mit dem Parameter mi . Multinomialstichprobenschema

Die Tatsache des zuf¨ alligen Stichprobenumfangs n beim Poissonstichprobenschema mag ungew¨ ohnlich erscheinen. Wenn wir vom Poissonstichprobenschema ausgehen und anschließend auf den Stichprobenumfang n bedingen (d.h., n wird festgehalten), dann sind die ni keine Realisationen von poissonverteilten Zufallsvariablen mehr, da z.B. kein ni gr¨oßer als n sein kann. F¨ ur die bedingte Wahrscheinlichkeit einer Menge {ni } erhalten wir (vgl. Agresti, 1990) N P (ni Beobachtungen in Zelle i | i=1 ni = n) P (ni Beobachtungen in Zelle i) = N P ( i=1 ni = n) 1 ein positiver Zusammenhang. Positiv bedeutet, dass das Produkt der Wahrscheinlichkeiten der u ¨bereinstimmenden Auspr¨agungen (X = 1, Y = 1) und (X = 0, Y = 0) gr¨oßer ist als das Produkt der Wahrscheinlichkeiten f¨ ur die gegenl¨ aufigen Auspr¨agungen (X = 1, Y = 0) und (X = 0, Y = 1). Diese Situation f¨ ur die Stichprobe ist in Abbildung 11.1 dargestellt. Die Sch¨atzung des OR erfolgt durch den Stichproben Odds-Ratio = = n11 n22 . OR n12 n21

Basierend auf dem Odds-Ratio l¨ asst sich – alternativ zur χ2 -Statistik – eine Teststatistik f¨ ur H0 : X und Y unabh¨ angig“ durch folgende monotone ” Transformation gewinnen: Sei θ0 = ln OR = ln π11 + ln π22 − ln π12 − ln π21 und

= = ln n11 n22 , θˆ0 = ln OR n12 n21 so gilt asymptotisch (Agresti, 1990), dass θˆ0 normalverteilt ist mit Erwartungswert θ0 . Die Standardabweichung von θˆ0 wird gesch¨atzt durch

11.5 Die Vierfeldertafel

1

2

1

n11

n12

2

n21

n22

279

Abb. 11.1. Positiver Zusammenhang in einer 2 × 2-Tafel (symbolisch durch große Punkte (n11 bzw. n22 ) und kleine Punkte (n21 bzw. n12 ) dargestellt)

σ ˆθˆ0 =



1 1 1 1 + + + n11 n22 n12 n21

 21

.

Bei Unabh¨angigkeit von X und Y ist OR = 1 und damit θ0 = ln OR = 0. F¨ ur −∞ < θ0 < 0 liegt ein negativer und f¨ ur 0 < θ0 < ∞ ein positiver Zusammenhang vor. Wir k¨onnen also zus¨ atzlich zum Test mit der χ2 -Statistik folgenden Test f¨ ur H0 : X und Y unabh¨ angig“ gegen H1 : X und Y nicht unabh¨angig“ ” ” durchf¨ uhren. Wir bestimmen die Teststatistik Z, die unter H0 : θ = 0 standardnormalverteilt ist: θˆ0 ∼ N (0, 1) . Z= σ ˆθˆ0 Wir werden H0 ablehnen, falls |z| > z1− α2 gilt (zweiseitige Fragestellung). Wir bestimmen ein (1 − α)-Konfidenzintervall f¨ ur θ0 gem¨aß : ; ˆθˆ0 , θˆ0 + z1− α2 σ ˆθˆ0 = [Iu , Io ] θˆ0 − z1− α2 σ

und lehnen H0 ab, falls die Null nicht im Intervall enthalten ist. Durch R¨ ucktransformation erhalten wir ein Konfidenzintervall f¨ ur den Odds-Ratio selbst gem¨aß [exp(Iu ), exp(Io )] . (11.15) Auf der Basis von (11.15) w¨ urde man H0 ablehnen, falls die Eins nicht im Intervall enthalten ist. Alle diese Tests sind nat¨ urlich ¨aquivalent. Beispiel 11.5.1. In einer Studie wird der Einfluss von Strategietraining von n = 255 Managern auf den Erfolg der Firmen untersucht:

280

11. Analyse von Kontingenztafeln

Training (X)

nein ja

Erfolg nein 40 30 70

(Y ) ja 75 110 185

115 140 255

Wir pr¨ ufen H0 : X, Y unabh¨ angig“. ” (i) Chi-Quadrat-Statistik C=

255(40 · 110 − 30 · 75)2 = 5.65 > 3.84 = c1;0.95 , 70 · 185 · 115 · 140

d.h., H0 wird abgelehnt (p-value 0.0174). (ii) Odds-Ratio = = 40 · 110 = 1.96 , OR 75 · 30 d.h., es besteht ein positiver Zusammenhang (iii) ln(OR) = = θˆ0 = 0.673 ln OR 1 1 1 1 σ ˆθ2ˆ = + + + = 0.0808 = 0.2842 . 0 40 75 30 110 Damit erhalten wir z =

θˆ0 σ ˆθˆ

= 2.370 > 1.96 = z0.975 , weswegen wir H0

0

ablehnen. (iv) 95%-Konfidenzintervall f¨ ur θ0 [0.673 − 1.96 · 0.284, 0.673 + 1.96 · 0.284] = [0.116, 1.230] . Wir lehnen H0 ab (zweiseitiger Test), da die Null nicht im Intervall enthalten ist. Das 95%-Konfidenzintervall f¨ ur OR hat die Gestalt [exp(0.116), exp(1.230)] = [1.123, 3.421] . Wir lehnen H0 ab, da die Eins nicht im Konfidenzintervall enthalten ist.

11.6 Zweifache Klassifikation und loglineare Modelle Die Betrachtung von zwei kategorialen Variablen X und Y mit I bzw. J Kategorien in einer Realisierung (Stichprobe) vom Umfang n liefert Beobachtungen nij in N = I × J Zellen der Kontingenztafel.

11.6 Zweifache Klassifikation und loglineare Modelle

281

Setzen wir zun¨ achst das Multinomialschema voraus, so bilden die Wahrscheinlichkeiten πij der zugeh¨ origen Multinomialverteilung den Kern der gemeinsamen Verteilung, wobei Unabh¨ angigkeit der Variablen ¨aquivalent ist mit πij = πi+ π+j

(f¨ ur alle i, j).

Wir u origen erwarteten Zellh¨aufigkeiten ¨ bertragen dies auf die zugeh¨ mij = nπij , um mit den H¨ aufigkeiten in einer Kontingenztafel arbeiten zu k¨onnen. F¨ ur diese gilt unter Unabh¨ angigkeit von X und Y mij = nπi+ π+j .

(11.16)

Die Modellierung der I × J-Tafel erfolgt auf der Basis von (11.16) als Unabh¨angigkeitsmodell in der logarithmischen Skala: ln(mij ) = ln(n) + ln(πi+ ) + ln(π+j ) , so daß die Effekte der Zeilen und Spalten additiv auf ln(mij ) wirken. Eine alternative Darstellung in Anlehnung an die Modelle der Varianzanalyse der Gestalt ⎛ ⎞ I J   yij = μ + αi + βj + εij , ⎝ αi = βj = 0 ⎠ i=1

j=1

ist gegeben durch

Y ln(mij ) = μ + λX i + λj

(11.17)

mit λX i

1 = ln(πi+ ) − I

$

I 

%

ln(πk+ )

k=1

,

(11.18)

$ J %  1 λYj = ln(π+j ) − ln(π+k ) , J k=1 $ I $ J % % 1  1  ln(πk+ ) + ln(π+k ) , μ = ln n + I J k=1

(11.19)

(11.20)

k=1

wobei die Reparametrisierungsbedingungen I  i=1

λX i =

J 

λYj = 0

j=1

gelten, die erst die Sch¨ atzbarkeit der Parameter sichern.

(11.21)

282

11. Analyse von Kontingenztafeln

Anmerkung. Die λX die Abweichungen der ln(πi+ ) von ihrem Mittelwert i sind I 1 I X ln(π ), so daß i+ i=1 i=0 λi = 0 (vgl. (11.21)) folgt. I

Das Modell (11.17) heißt Loglineares Modell f¨ ur die Unabh¨ angigkeit in einer zweidimensionalen Kontingenztafel. Das zugeh¨orige saturierte Modell enth¨ alt zus¨atzlich die Wechselwirkungen λXY : ij Y XY ln(mij ) = μ + λX . i + λj + λij Es beschreibt die perfekte Anpassung. F¨ ur die Wechselwirkungen gilt die Reparametrisierungsbedingung I 

λXY = ij

i=1

J 

λXY =0. ij

j=1

Hat man die λij in den ersten (I − 1)(J − 1) Zellen gegeben, so sind durch diese Bedingung die anderen λij (in der letzten Zeile bzw. letzten Spalte) bestimmt. Damit hat das saturierte Modell insgesamt 1 + (I − 1) + (J − 1) + (I − 1)(J − 1) = I · J (μ) (λX (λYj ) (λXY i ) ij ) unabh¨angige Parameter (also 0 Freiheitsgrade). F¨ ur das Unabh¨ angigkeitsmodell haben wir entsprechend 1 + (I − 1) + (J − 1) = I + J − 1 unabh¨angige Parameter (also I ×J −I −J +1 = (I −1)(J −1) Freiheitsgrade). Interpretation der Parameter Die loglinearen Modelle sch¨ atzen die Abh¨ angigkeit von ln(mij ) von Zeilenund Spalteneffekten. Dabei wird nicht zwischen Einfluß- und Responsevariable unterschieden; die Information aus Zeilen oder Spalten geht symmetrisch in ln(mij ) ein. Betrachten wir den einfachsten Fall – die I ×2-Tafel (Unabh¨angigkeitsmodell). Y ist damit eine bin¨ are Variable mit den Auspr¨agungen y1 = 1 und y2 = 2 und den Wahrscheinlichkeiten (in Abh¨ angigkeit von der i-ten Kategorie von X) P (Y = 1|X = i) = π1|i und P (Y = 2|X = i) = π2|i = 1 − π1|i . Damit ist der Quotient π1|i /π2|i der Odds f¨ ur Response Y = 1. Den Logarithmus dieses Odds bezeichnet man als Logit von π1|i , d.h.     π1|i π1|i Logit(π1|i ) = ln = ln . π2|i 1 − π1|i

11.6 Zweifache Klassifikation und loglineare Modelle

283

Der Logit von π1|i ist unter (11.17) also   π1|i Logit(π1|i ) = ln π2|i   mi1 = ln mi2 = ln(mi1 ) − ln(mi2 ) Y X Y = (μ + λX i + λ1 ) − (μ + λi + λ2 ) = λY1 − λY2

und damit f¨ ur alle Zeilen gleich, also unabh¨ angig von X bzw. den Kategorien i = 1, . . . , I. Die Reparametrisierungsbedingung λY1 + λY2 = 0 ergibt λY1 = −λY2 , so dass   π1|i = 2λY1 (i = 1, . . . , I) ln π2|i und damit

π1|i = exp(2λY1 ) (i = 1, . . . , I) π2|i

gilt. D.h., in jeder X-Kategorie ist der Odds daf¨ ur, dass Y in Kategorie 1 statt in Kategorie 2 f¨ allt, gleich exp(2λY1 ), sofern das Unabh¨angigkeitsmodell gilt. 2 × 2-Tafel Der Odds-Ratio OR einer 2 × 2-Tafel und das saturierte loglineare Modell stehen in folgendem Zusammenhang:   m11 m22 ln(OR) = ln m12 m21 = ln(m11 ) + ln(m22 ) − ln(m12 ) − ln(m21 ) Y XY X Y XY = (μ + λX 1 + λ1 + λ11 ) + (μ + λ2 + λ2 + λ22 ) Y XY X Y XY − (μ + λX 1 + λ2 + λ12 ) − (μ + λ2 + λ1 + λ21 )

XY XY XY = λXY 11 + λ22 − λ12 − λ21 . 2 2 XY XY XY Wegen i=1 λXY = j=1 λXY = 0 folgt λXY 11 = λ22 = −λ12 = −λ21 ij ij und damit ln OR = 4λXY 11 . Der Odds-Ratio in einer 2 × 2-Tafel ist also

OR = exp(4λXY 11 ) ,

(11.22)

d.h., er ist direkt abh¨ angig vom Zusammenhangsmaß im saturierten loglinearen Modell. Besteht kein Zusammenhang, ist also λij = 0, so ergibt sich OR = 1.

284

11. Analyse von Kontingenztafeln

Beispiel 11.6.1. Wir demonstrieren die Analyse einer zweidimensionalen Kontingenztafel durch loglineare Modelle der verschiedenen Typen f¨ ur den Zusammenhang zwischen Werbung (X) und Umsatzsteigerung (Y ) aus Beispiel ¨ 11.4.1. Wir geben die Kontingenztafel zur besseren Ubersicht noch einmal an.

1 2 3

X

Y 2 300 1000 2000 3300

1 300 600 1100 2000

3 100 200 400 700

700 1800 3500 6000

Zur Analyse setzen wir SPSS ein. * * * * * * * *

H I E R A R C H I C A L

L O G

L I N E A R

* * * * *

Tests that K-way and higher order effects are zero. K

DF

L.R. Chisq

Prob

Pearson Chisq

Prob

Iteration

2 1

4 8

49.141 3952.769

.0000 .0000

49.408 4440.000

.0000 .0000

2 0

Estimates for Parameters. X*Y Parameter Coeff. 1 .1328526668 2 -.2367015413 3 -.0374225411 4 .1038488745

Std. Err. .03944 .03893 .03220 .03038

Z-Value Lower 95 CI Upper 95 CI 3.36884 .05556 .21015 -6.08060 -.31300 -.16040 -1.16229 -.10053 .02568 3.41870 .04431 .16339

Parameter Coeff. 1 -.7969960551 2 .0664263334

Std. Err. .03108 .02515

Z-Value Lower 95 CI Upper 95 CI -25.64351 -.85791 -.73608 2.64100 .01713 .11572

Parameter Coeff. 1 .2333514294 2 .6029056376

Std. Err. .02382 .02297

Z-Value Lower 95 CI Upper 95 CI 9.79529 .18666 .28004 26.24595 .55788 .64793

X

Y

Abb. 11.2. SPSS-Output zu Beispiel 11.6.1

Interpretation: Der Test auf H0 : λij = 0 ∀i, j ergibt einen Wert von Pearson’s χ2 -Statistik c = 49.408 (p-value 0.0000), so dass H0 abgelehnt wird, das saturierte Modell also gegen¨ uber dem Unabh¨angigkeitsmodell statistisch signifikant ist. Die Parametersch¨ atzungen (vgl. SPSS Listing) lauten λXY 11 = 0.1329

11.6 Zweifache Klassifikation und loglineare Modelle

285

λXY 12 = −0.2367 λXY 21 = −0.3742 λXY 22 = 0.1038 .

XY XY XY Daraus folgt z.B. wegen λXY 11 + λ12 + λ13 = 0 sofort λ13 = −0.1329 + 0.2367 = 0.1038. F¨ ur die Haupteffekte lesen wir aus dem SPSS Listing ab:

λX 1 = −0.7970 , λX 2 = 0.0664 .

Damit ist λX 3 = 0.7970 − 0.0664 = 0.7306. λY1 = 0.2334 und λY2 = 0.6029 ergibt λY3 = −0.2334 − 0.6029 = −0.8363.

286

11. Analyse von Kontingenztafeln

11.7 Aufgaben und Kontrollfragen Aufgabe 11.1: Gegeben sei folgende Kontingenztafel:

X

1 2

1 10 70

2 30 180

Y 3 40 200

4 50 250

5 50 200

Berechnen Sie Pearson’s Chi-Quadrat und f¨ uhren Sie den Test auf H0 : X ” und Y unabh¨angig“ durch. F¨ uhren Sie die spaltenweise G2 -Analyse durch. Kann man die Tafel durch Zusammenlegen von Y -Auspr¨ agungen aussagef¨ahiger gestalten? Aufgabe 11.2: Gegeben sei folgende 2 × 2-Tafel f¨ ur die Variablen X: gesunde ” Lebensweise“ und Y : Gesundheit“ mit den Auspr¨agungen X = 1: ‘Raucher’, ” X = 0: ‘Nichtraucher’, Y = 1: ‘krank’ und Y = 0: ‘gesund’. Pr¨ ufen Sie H0 : X und Y sind unabh¨ angig“ mit Pearson’s χ2 -Statistik, OR und ln OR. ” Y 1 0 1 40 60 X 0 20 80 Aufgabe 11.3: Die Einf¨ uhrung des EU-Standards ISO 9001 ergab in einem Werk folgende Ver¨ anderung des Ausschussanteils:

nachher vorher

Produkte mangelhaft einwandfrei 20 80 40 60

Pr¨ ufen Sie, ob die Einf¨ uhrung des EU-Standards ISO 9001 einen signifikanten Effekt ergab. Aufgabe 11.4: Eine Stichprobenuntersuchung der Variablen ‘Geschlecht’ und ‘Beteiligung am Erwerbsleben’ ergab die folgende Kontingenztafel: m¨annlich weiblich

Erwerbst¨ atig 16950 10800

Erwerbslos 1050 1100

Nichterwerbspersonen 11780 20200

Pr¨ ufen Sie, ob ein signifikanter Zusammenhang zwischen Beteiligung am Erwerbsleben und Geschlecht vorliegt. Unterscheiden Sie das Merkmal ‘Beteiligung am Erwerbsleben’ nur nach Erwerbspersonen (= Erwerbst¨ atig oder Erwerbslos) und Nichterwerbspersonen. Stellen Sie die entsprechende Vier-Felder-Tafel auf, und pr¨ ufen Sie den Zusammenhang erneut.

11.7 Aufgaben und Kontrollfragen

287

Aufgabe 11.5: In einem Krankenhaus wurden folgende Geburten registriert:  m¨ annlich weiblich 0 bis 12 Uhr 5 3 8 12 bis 24 Uhr 8 3 11 13 6 19

Pr¨ ufen Sie, ob ein signifikanter Zusammenhang zwischen Tageszeit und Geschlecht vorliegt. Aufgabe 11.6: Interpretieren Sie folgendes Listing. X * Y Crosstabulation Count Y 1,00 X

1,00 2,00

2,00 12 18 30

Total

Total 8 2 10

20 20 40

Chi-Square Tests

Pearson Chi-Square Continuity Correctiona Likelihood Ratio Fisher's Exact Test Linear-by-Linear Association N of Valid Cases

Value 4,800b 3,333 5,063

4,680

1 1 1

Asymp. Sig. (2-sided) ,028 ,068 ,024

1

,031

df

Exact Sig. (2-sided)

Exact Sig. (1-sided)

,065

,032

40

a. Computed only for a 2x2 table b. 0 cells (,0%) have expected count less than 5. The minimum expected count is 5,00.

Aufgabe 11.7: Um die Wirkung eines neuentwickelten blutdrucksenkenden Mittels zu untersuchen, wird damit ein Versuch mit 50 m¨annlichen und 50 weiblichen, zuf¨allig ausgew¨ ahlten Patienten durchgef¨ uhrt. Beweisen die in der nachfolgenden Tabelle aufgef¨ uhrten Ergebnisse, dass M¨anner und Frauen unterschiedlich auf das neue Medikament reagieren (α = 0.01)? M¨ anner Frauen

+ 11 22

− 17 17

0 22 11

Aufgabe 11.8: Es soll untersucht werden, ob zwischen der Wahl eines Studienfaches und den Hobbies der Studenten ein Zusammenhang besteht. Zu diesem Zweck werden 5000 Studenten aus 3 Fachrichtungen zuf¨allig ausgew¨ahlt und nach ihren Hobbies befragt. Hier die Ergebnisse der Befragung:

288

11. Analyse von Kontingenztafeln

Literatur Schach Musik Sport Tanz

BWL 400 50 250 1000 300

Physik 50 400 250 200 100

Anglistik 550 50 500 800 100

F¨ uhren Sie zum Niveau α = 0.01 den entsprechenden Test durch.

12. Lebensdaueranalyse

12.1 Problemstellung Die Lebensdaueranalyse (Survival analysis) wird – neben ihrem Hauptanwendungsgebiet Medizin – zunehmend in Technik, Soziologie und Betriebsund Volkswirtschaft eingesetzt. Bei der Lebensdaueranalyse werden Beobachtungseinheiten u ¨ber eine bestimmte Zeit hinweg auf ihren Zustand hin u uft. Insbesondere wird der Wechsel von einem Ausgangszustand in ¨berpr¨ einen Endzustand sowie der Zeitpunkt des Zustandswechsels registriert. Diese Zustandswechsel heißen auch Ereignisse, so dass man statt Lebensdaueranalyse auch den Begriff Ereignisanalyse verwendet. F¨ ur die Auswertung dieser L¨angsschnittdaten ist es notwendig, ein Studienende festzulegen. Deshalb gibt es Einheiten, die zum Studienende noch ohne Ereignis sind. Die Verweildauer dieser Einheiten heißt dann zensiert (genauer: rechtszensiert). Auch die Verweildauer von Objekten, die vor Studienende aus Gr¨ unden, die nicht notwendig mit der Untersuchung in Zusammenhang stehen, aus der Studie ausfallen, ist zensiert. Die verschiedenen M¨ oglichkeiten sind in Abbildung 12.1 dargestellt: Ausscheiden aus der Studie (I), zensiert durch Studienende (II) und Untersuchungseinheit mit Ereignis (III). •I •III Start

•II

? ? •

Zeit Studienende

Abb. 12.1. M¨ ogliche Zust¨ ande von Untersuchungseinheiten

Wir m¨ ussen also unterscheiden zwischen den Objekten, bei denen das Ereignis beobachtet wurde, das heißt deren tats¨ achliche Lebensdauer beobachtet wurde und den Objekten, bei denen die tats¨achliche Lebensdauer wegen Zensierung nicht beobachtet werden konnte. Im letzteren Fall ist die tats¨achliche Lebensdauer aber mindestens so groß wie die Verweildauer in der Studie. Folgende Grundbegriffe sind also f¨ ur die Datenstruktur von Bedeutung:

290

12. Lebensdaueranalyse

Ausgangszeitpunkt: Endzeitpunkt: Lebensdauer: Verweildauer:

Eintritt der Beobachtungseinheit in die Untersuchung Austritt der Beobachtungseinheit aus der Untersuchung Zeitintervall bis zum Zustandswechsel (Ereignis) Zeitintervall bis zum Zustandswechsel bzw. bis zur Zensierung

Beispiele. • Zuverl¨assigkeit von technischen Systemen (Lebensdauer von Gl¨ uhbirnen, Lebensdauer von LKW-Achsen bis zur ersten Reparatur) Zust¨ande: intakt/nicht intakt Ereignis: Ausfall der Gl¨ uhbirne (bzw. der Achse) ¨ • Abwehrstrategie von kleinen Regionalbanken gegen die Ubernahme durch eine Großbank Zust¨ande: Fortbestand einer kleinen Bank ja/nein ¨ Ereignis: Ubernahme durch die Großbank • Zuverl¨assigkeit von zahnmedizinischen Implantaten Zust¨ande: Funktionsf¨ ahigkeit ja/nein Ereignis: Extraktion • Wiedereingliederung von Arbeitslosen Zust¨ande: arbeitslos/nicht arbeitslos Ereignis: Vermittlung einer Arbeitsstelle Bei der Lebensdaueranalyse werden f¨ ur jede Beobachtungseinheit zwei Zufallsvariablen realisiert: das Zeitintervall von einem Ausgangszeitpunkt bis zum Eintreten des Endzustands bzw. bis zur Zensierung und der Zustandswechsel. Der Zustandswechsel ist eine diskrete Zufallsvariable mit den beiden Auspr¨agungen Ereignis ja/nein“. Die Verweildauer hingegen ist eine steti” ¨ ge Zufallsvariable. Ziel ist die Sch¨ atzung von Uberlebenswahrscheinlichkeiten und ihr Vergleich bez¨ uglich verschiedener Gruppen (Mehrstichprobenproblem). Beispiel 12.1.1 (Lebensdauer von Regionalbanken). In Tabelle 12.1 sind zur Demonstration der obigen Begriffe und der Datenstruktur die Daten von 26 US-amerikanischen Regionalbanken angegeben, die mit zwei Abwehrstrate¨ gien A bzw. B einer Ubernahme durch eine Großbank entgegenwirken wollen. Die Strategien lauten ¨ A: 90% der Aktion¨ are m¨ ussen f¨ ur eine Ubernahme stimmen B: Wechsel des Firmensitzes in einen anderen Eintragungsstaat (mit besserem gesetzlichen Schutz) Die Variable Ereignis“ in der Kodierung 1 (Ereignis) und 0 (zensiert) ist ” die realisierte Zufallsvariable Zustandswechsel“, die Variable Verweildauer“ ” ” ist die Realisierung der entsprechenden Zufallsvariable.

12.2 Survivorfunktion und Hazardrate

291

Tabelle 12.1. Datenstruktur der Regionalbanken i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Strategie A A B A B B A B A B A B A A A B B A A A B B A B B A

Verweildauer 1431 1456 1435 116 602 406 98 1260 1263 172 393 911 34 912 1167 1003 151 669 533 1044 1015 116 570 914 899 898

Ereignis 0 0 0 1 0 1 1 0 1 1 1 0 1 1 0 0 0 1 0 0 0 1 0 0 1 0

12.2 Survivorfunktion und Hazardrate Die Lebensdauer T ist eine stetige Zufallsvariable mit der Dichtefunktion f (t) und der Verteilungsfunktion F (t) = P (T ≤ t) . Die Survivorfunktion S(t) = P (T > t) gibt die Wahrscheinlichkeit daf¨ ur an, dass die Versuchseinheit eine Lebensdauer von mindestens t hat. Da die Lebensdauer T eine stetige Zufallsvariable ist, gilt S(t) = 1 − F (t) . (12.1) T wird diskret, sofern der Endzeitpunkt nicht exakt angegeben werden kann, sondern nur ein Intervall bekannt ist, in dem der Endzeitpunkt liegen wird. Wir behandeln hier den stetigen Fall. Da F (t) als Verteilungsfunktion monoton wachsend ist, ist gem¨ aß (12.1) die Survivorfunktion monoton fallend.

292

12. Lebensdaueranalyse

Das Risiko eines Ereignisses zum Zeitpunkt t wird als Hazardrate λ(t) bezeichnet. Hazardrate und Survivorfunktion stehen in folgender Relation zueinander: f (t) f (t) = , (12.2) λ(t) = S(t) 1 − F (t) woraus sich zwei weitere Beziehungen ergeben (vgl. z.B. Blossfeld, Hamerle und Mayer, 1986). Integriert man λ(t) und verwendet man die beiden Beziehungen in (12.2), so erh¨ alt man die Survivorfunktion als Funktion der Hazardrate:

t 0

λ(s)ds =

t 0

f (u) du 1 − F (u) t

= − ln (1 − F (u))]0 = − ln (1 − F (t)) = − ln S(t) . Durch Verwendung der Exponentialfunktion folgt daraus ⎛ ⎞

t S(t) = exp ⎝− λ(s) ds⎠ .

(12.3)

0

F¨ ur die Dichte erh¨ alt man aus (12.2) und (12.3) die Beziehung f (t) = λ(t) · S(t) ⎛

= λ(t) exp ⎝−

t 0



λ(s)ds⎠ .

(12.4)

Wenn die Hazardrate bekannt ist, kann man nach (12.3) S(t) und dann nach (12.4) f (t) bestimmen. Die Hazardrate definiert also den Typ der Lebensdauerverteilung. Ist z.B. λ(t) = λ eine zeitunabh¨angige Konstante f¨ ur den gesamten Prozeß, so liegt eine exponentiell verteilte Lebensdauer vor: S(t) = exp(−λt) , f (t) = λ exp(−λt) . Die wesentliche statistische Aufgabe ist die Sch¨atzung der Hazardrate λ(t) und der Survivorfunktion S(t), die wir im Folgenden vorf¨ uhren wollen.

12.3 Kaplan-Meier-Sch¨ atzung Wir haben im Buch Deskriptive Statistik“ die empirische Sterbetafelme” thode verwendet, deren G¨ ute durch die Breite und die Lage der Intervalle

12.3 Kaplan-Meier-Sch¨ atzung

293

bestimmt wird, in die man den Beobachtungszeitraum aufteilt. Je breiter die Intervalle sind, desto ungenauer k¨ onnen die Sch¨atzungen werden. Um die Willk¨ ur bei der Wahl der Intervalle auszuschließen, haben Kaplan und Meier (1958) den Kaplan-Meier-Sch¨ atzer f¨ ur die Survivorfunktion vorgeschlagen. Ausgangspunkt ist eine Zerlegung der Zeitachse in Intervalle, wobei die beobachteten Ereigniszeitpunkte (z.B. Tage der Ausf¨alle) als Intervallgrenzen gew¨ahlt werden. Wir bezeichnen die zeitlich aufsteigend geordneten Ereigniszeitpunkte mit t(1) < t(2) < . . . < t(m) , wobei m ≤ n (n: Gesamtzahl der Einheiten) ist und angenommen wird, dass Zensierungen und Ereignisse nicht gleichzeitig eintreten. Die KaplanMeier-Sch¨atzung ist nichtparametrisch, da sie keine spezifische Gestalt der zugrundeliegenden Survivorfunktion voraussetzt. Eine grundlegende Voraussetzung ist die Annahme, dass die Einheiten mit zensierten Verweildauern eine zuf¨allige Stichprobe derselben Population wie die nichtzensierten Einheiten sind. Die Wahrscheinlichkeit, eine Einheit mit zensierter Verweildauer zu erhalten, ist dann unabh¨ angig von der unbeobachteten tats¨achlichen Verweildauer dieser Einheit. Es sei dk die Anzahl der zum Zeitpunkt t(k) eingetretenen Ereignisse. R(k) bezeichne die Anzahl der unter Risiko stehenden Einheiten. Dies sind die Einheiten, die zu Beginn des k-ten Intervalls noch kein Ereignis hatten und auch nicht zensiert sind. Wir bilden die Intervalle [0, t(1) ), [t(1) , t(2) ), . . . , [t(m) , ∞) . Im k-ten Intervall finden dk Ereignisse und wk Zensierungen statt. Dann berechnet sich die Anzahl R(k) wie folgt (vgl. Blossfeld et al., 1986): R(1) = n

(Gesamtzahl der Einheiten in der Studie)

R(k) = R(k−1) − dk−1 − wk−1

(k = 2, 3, . . . , m + 1)

Wir definieren f¨ ur jede Beobachtungseinheit folgende Zufallsvariablen Xk : Xk = 0 Xk = 1

: :

kein Ereignis im k-ten Intervall Ereignis im k-ten Intervall eingetreten

Die Anzahl dk der Versuchseinheiten mit einem Ereignis innerhalb des kten Intervalls ist damit die Summe dieser unabh¨angigen Null-Eins-verteilten Zuffallsvariablen und somit eine binomialverteilte Zufallsvariable. Die Einheiten, die zu Beginn des k-ten Intervalls noch unter Beobachtung und damit unter Risiko stehen, sind unabh¨ angig. F¨ ur die bedingte Ereigniswahrscheinlichkeit (Hazardrate) gelte P (Xk = 1|X1 = . . . Xk−1 = 0) = λ(k) . ¨ Die bedingte Uberlebenswahrscheinlichkeit im k-ten Intervall ist dann

294

12. Lebensdaueranalyse

P (Xk = 0|X1 = . . . Xk−1 = 0) = 1 − λ(k) = p(k) . Bei der Binomialverteilung B(R(k) ; λ(k) ) ist die ML-Sch¨atzung der Wahrscheinlichkeit λ(k) durch ˆ(k) = dk λ R(k) ¨ gegeben. Damit ist die Sch¨ atzung der Wahrscheinlichkeit zum Uberleben des k-ten Intervalls unter der Bedingung, dass die Einheit zu Beginn noch ohne Ereignis ist, ˆ (k) = R(k) − dk (12.5) pˆ(k) = 1 − λ R(k) ebenfalls eine ML-Sch¨ atzung. Wir erhalten also die Sch¨atzungen • Risiko (Hazardrate) zum Zeitpunkt t(k) ˆ (k) = dk , λ R(k) ¨ • bedingte Uberlebenswahrscheinlichkeit zum Zeitpunkt t(k) ˆ (k) , pˆ(k) = 1 − λ • Survivorfunktion zum Zeitpunkt t (Kaplan-Meier-Sch¨atzung) ˆ = 1 f¨ S(t) ur t < t(1) ˆ = pˆ(k) · pˆ(k−1) · . . . · pˆ(1) f¨ S(t) ur t(k) ≤ t < t(k+1) . Beispiel 12.3.1 (Fortsetzung von Beispiel 12.1.1). F¨ ur die Berechnung der Kaplan-Meier-Sch¨ atzung werden zun¨ achst die Ereignis- und Zensierungszeiten aufsteigend sortiert. F¨ ur jeden Ereigniszeitpunkt ist festzustellen, wieviele Einheiten R(k) sich unter Risiko eines Ereignisses befinden. Das SPSS-Listing enth¨alt diese Werte und die auf ihnen aufbauenden Berechnungen. So ist z.B. (nach (12.5)) ˆ (3) = 1 − pˆ(3) = 1 − λ

d3 2 =1− = 0.91667 R(3) 24

und ˆ (3) ) = pˆ(3) · pˆ(2) · pˆ(1) = 0.91667 · 0.96000 · 0.96154 = 0.84615 . S(t Survival Analysis for DIFFER Time

34.00 98.00

Status

Ereignis Ereignis

Cumulative Survival .9615 .9231

Standard Error

Cumulative Events

Number Remaining

.0377 .0523

1 2

25 24

12.3 Kaplan-Meier-Sch¨ atzung

116.00 116.00 151.00 172.00 393.00 406.00 533.00 570.00 602.00 669.00 898.00 899.00 911.00 912.00 914.00 1003.00 1015.00 1044.00 1167.00 1260.00 1263.00 1431.00 1435.00 1456.00

Ereignis Ereignis zensiert Ereignis Ereignis Ereignis zensiert zensiert zensiert Ereignis zensiert Ereignis zensiert Ereignis zensiert zensiert zensiert zensiert zensiert zensiert Ereignis zensiert zensiert zensiert

Number of Cases:

26

.8462

.0708

.8059 .7656 .7253

.0780 .0839 .0886

.6769

.0950

.6249

.1010

.5680

.1066

.4260

.1467

Censored:

15

3 4 4 5 6 7 7 7 7 8 8 9 9 10 10 10 10 10 10 10 11 11 11 11

( 57.69%)

295

23 22 21 20 19 18 17 16 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 0

Events: 11

Die nach Kaplan-Meier gesch¨ atzte Survivorfunktion ist in Abbildung 12.2 dargestellt. Da es im Beispiel Zensierungszeiten gibt, die gr¨oßer sind als der Zeitpunkt des letzten Ereignisses, strebt die gesch¨atzte Funktion nicht nach 0. Um eine Fehleinsch¨ atzung zu vermeiden, sollte die Kurve nur bis zum letzten Ereigniszeitpunkt betrachtet werden.

Survival-Funktion 1.1 1.0 .9 .8

Kum Survival

.7 .6 .5

Survival-Funktion Zensiert

.4 0

200

400

600

800

1000

1200

1400

1600

DIFFER Abb. 12.2. Kaplan-Meier-Sch¨ atzung der Survivorfunktion (gesamt)

296

12. Lebensdaueranalyse

Beispiel 12.3.2 (Fortsetzung Beispiel 12.1.1). Wir demonstrieren die KaplanMeier-Sch¨atzung mit SPSS nun f¨ ur die Gruppen A und B getrennt. Mit SPSS erhalten wir f¨ ur Gruppe A Survival Analysis for DIFFER Factor STRAT = A Time

34.00 98.00 116.00 393.00 533.00 570.00 669.00 898.00 912.00 1044.00 1167.00 1263.00 1431.00 1456.00

Status

Ereignis Ereignis Ereignis Ereignis zensiert zensiert Ereignis zensiert Ereignis zensiert zensiert Ereignis zensiert zensiert

Number of Cases:

14

Cumulative Survival

Standard Error

Cumulative Events

Number Remaining

.9286 .8571 .7857 .7143

.0688 .0935 .1097 .1207

.6250

.1347

.5208

.1471

.3472

.1724

1 2 3 4 4 4 5 5 6 6 6 7 7 7

13 12 11 10 9 8 7 6 5 4 3 2 1 0

Censored:

7

( 50.00%)

Events: 7

und f¨ ur Gruppe B Survival Analysis for DIFFER Factor STRAT = B Time

116.00 151.00 172.00 406.00 602.00 899.00 911.00 914.00 1003.00 1015.00 1260.00 1435.00

Status

Ereignis zensiert Ereignis Ereignis zensiert Ereignis zensiert zensiert zensiert zensiert zensiert zensiert

Number of Cases:

12

Cumulative Survival

Standard Error

Cumulative Events

Number Remaining

.9167

.0798

.8250 .7333

.1128 .1324

.6286

.1493

1 1 2 3 3 4 4 4 4 4 4 4

11 10 9 8 7 6 5 4 3 2 1 0

Censored:

8

( 66.67%)

Events: 4

12.4 Log-Rank-Test zum Vergleich von Survivorfunktionen Bei der Analyse von Lebensdauerdaten ist der Zwei- und Mehrstichprobenfall von speziellem Interesse. Angenommen, wir haben zwei Gruppen (im Beispiel: Abwehrstrategien A und B der kleinen Banken, zwei Fertigungsst¨atten f¨ ur

12.4 Log-Rank-Test zum Vergleich von Survivorfunktionen

297

Survival-Funktionen 1.1 1.0 .9 .8

Kum Survival

.7

STRAT

.6

B

.5

B-zensiert

.4

A

.3

A-zensiert 0

200

400

600

800

1000

1200

1400

1600

DIFFER Abb. 12.3. Kaplan-Meier-Sch¨ atzungen der Survivorfunktion (Gruppen A und B)

Gl¨ uhbirnen, zwei Therapien zur Behandlung einer Krankheit usw.). Dann ist als statistisches Testproblem die Pr¨ ufung von H0 : SA (t) = SB (t) gegen z.B. H1 : SA (t) = SB (t) (f¨ ur t ≤ t∗ ) von Interesse. Dabei ist t∗ ein festzulegender Zeitpunkt, der h¨ochstens so groß wie der letzte beobachtete Ereigniszeitpunkt sein darf. Der Log-Rank-Test dient zur Feststellung signifikanter Unterschiede des ¨ Uberlebensverhaltens der Subgruppen (A bzw. B). Er kann angewandt werden, wenn sich die Survivorfunktionen nicht u ¨ berschneiden und wenn die Zensierungsf¨alle in den Subgruppen in etwa gleich verteilt sind. Der Log-Rank-Test summiert die Abweichungen der beobachteten Ereignisse von den unter H0 erwarteten (entsprechend dem Verh¨altnis der Anzahl der Versuchseinheiten unter Risiko) zu den einzelnen Ereigniszeitpunkten und kontrolliert dadurch die Abweichungen der beiden Funktionen SA (t) und SB (t) voneinander in allen Zeitpunkten. Wir bezeichnen mit u1 , . . . , un1 und v1 , . . . , vn2 die beobachteten Werte der Verweildauer T in den beiden Stichproben (in unserem Beispiel: die Gruppen A und B). Die beiden Stichproben werden zusammengelegt, und zwar mit den der Gr¨oße nach geordneten Ereigniszeitpunkten t(1) ≤ t(2) ≤ . . . ≤ t(m)

(m ≤ n1 + n2 ) .

Die Risikomenge R(k) ist diejenige Zahl von Einheiten, die unmittelbar vor dem Zeitpunkt t(k) noch kein Ereignis hatten und die im Zeitabschnitt von t(k−1) bis t(k) nicht zensiert wurden. Da wir die Nullhypothese H0 : SA (t) = SB (t)

f¨ ur t ≤ t∗ ,

(12.6)

298

12. Lebensdaueranalyse

d.h. die Gleichheit der Survivorfunktionen beider Subgruppen (Behandlung A bzw. B), u ufen wollen, notieren wir zu den Ereigniszeitpunkten t(k) ¨ berpr¨ die Risikomengen beider Subgruppen. Es sei also • • • •

R(k) die Anzahl aller zum Zeitpunkt t(k) unter Risiko stehenden Einheiten, nAk die unter Risiko stehenden Einheiten der Gruppe A, nBk die unter Risiko stehenden Einheiten der Gruppe B, dk die Anzahl der Ereignisse zum Zeitpunkt t(k) in beiden Gruppen insgesamt, • dAk bzw. dBk die Anzahl der Ereignisse zum Zeitpunkt t(k) in den Subgruppen A bzw. B.

Die Einheiten der beiden Gruppen bilden zum Zeitpunkt t(k) eine 2 × 2Kontingenztafel (Vierfeldertafel) aus dk Ereignissen und R(k) − dk Einheiten ohne Ereignis.

mit Ereignis ohne Ereignis

Gruppe A B dAk dBk nAk − dAk nBk − dBk nAk nBk

dk R(k) − dk R(k)

Die Ausdr¨ ucke dAk , nAk − dAk , dBk und nBk − dBk sind die beobachteten Zellh¨aufigkeiten. Unter der Bedingung, dass die Randh¨aufigkeiten nAk , nBk , dk und R(k) − dk gegeben sind, repr¨ asentiert nur eine Zelle – sagen wir die mit der Zellh¨aufigkeit dAk – eine Zufallsvariable. D.h., diese Zufallsvariable – sagen wir X – hat die beobachtete H¨ aufigkeit dAk , w¨ahrend die anderen H¨aufigkeiten durch die Randsummen bestimmt sind. Unter der Nullhypothese, dass der Status (mit Ereignis/ohne Ereignis) unabh¨angig von den Gruppen A bzw. B ist, besitzt X eine hypergeometrische Verteilung, d.h., es gilt  dAk  dBk  P (X = dAk ) =

nAk

nBk  dk R(k)



.

(12.7)

Interpretation: Die obige Kontingenztafel entspricht dem folgenden Urnenmodell. Seien R(k) Kugeln in der Urne, davon nAk weiße und nBk schwarze. Die Gleichung (12.7) definiert die Wahrscheinlichkeit, genau dAk weiße Kugeln bei dk Ziehungen ohne Zur¨ ucklegen zu erhalten. Die erwartete Anzahl von Ereignissen in der Gruppe A zum Zeitpunkt t(k) ist (vgl. (4.9)) nAk · dk . (12.8) E(X) = wAk = R(k) Die Varianz von X ist (vgl. (4.10))

12.4 Log-Rank-Test zum Vergleich von Survivorfunktionen

Var(X) = vAk = dk

299

   R(k) − dk nAk 1− R(k) R(k) − 1

nAk = dk R(k)

nAk (R(k) − nAk )(R(k) − dk ) . 2 (R R(k) (k) − 1)

Unter der Nullhypothese (12.6) ist die (auf der Gruppe A basierende) Log-Rank-Teststatistik von Mantel-Haenszel χ21 -verteilt:

S=

m 

k=1

(dAk − wAk )2 m 

.

vAk

k=1

Tabelle 12.2. Risikomengen der beiden Gruppen k 1 2 3 4 5 6 7 8 9 10

Ereigniszeitpkt. (t) 34 98 116 172 393 406 669 899 912 1263

Unter Risiko A∪B R(k) 26 25 24 21 20 19 15 13 11 4

Unter Risiko Gruppe A nAk 14 13 12 11 11 10 8 6 6 3

Unter Risiko Gruppe B nBk 12 12 12 10 9 9 7 7 5 1

Beispiel 12.4.1 (Fortsetzung von Beispiel 12.3.1). Zur Veranschaulichung des Rechengangs zum Erhalt der Teststatistik dienen die Tabellen 12.2 und 12.3. Als Beispiel sei der Rechengang in der dritten Zeile erl¨autert: wA3 =

12 ·2 =1 , 24

2 · 12 · (24 − 12) · (24 − 2) 6336 = = 0.47826 . 242 · 23 13248 Die erwarteten Ereignisse werden u ¨ ber alle Zeitpunkte summiert. Dies ergibt f¨ ur die Gruppe A die erwartete Gesamtzahl 5.94891 an Ereignissen. Es wird die Differenz zu der Gesamtzahl der tats¨ achlich beobachteten Ereignisse gebildet: 7 − 5.94891 = 1.05109 . vA3 =

Die Summe der Varianzen u ¨ber alle Zeitpunkte betr¨agt 2.65547.

300

12. Lebensdaueranalyse Tabelle 12.3. Berechnung der Log-Rank-Teststatistik Ereignis dk 1 1 2 1 1 1 1 1 1 P 1 11

Ereignis Gruppe A dAk 1 1 1

Ereignis Gruppe B dBk 1 1

1 1 1 1 1 1 7

4

erwartet Gruppe A wAk 0.53846 0.52000 1.00000 0.52381 0.55000 0.52632 0.53333 0.46154 0.54545 0.75000 5.94891

Varianz vAk 0.24852 0.24960 0.47826 0.24943 0.24750 0.24931 0.24889 0.24852 0.24793 0.18750 2.65547

Die Testgr¨oße S errechnet sich als S = 1.051092/2.65547 = 0.42 . Die Testgr¨oße wird mit dem kritischen Wert der χ2 -Verteilung mit einem Freiheitsgrad verglichen. Mit S = 0.42 < 3.84 = c1;0.95 kann die Nullhypothese der Gleichheit der Survivorfunktionen der Gruppen A und B nicht abgelehnt werden. Die beobachteten Unterschiede sind statistisch nicht signifikant. Die Berechnungen mit SPSS ergeben Test Statistics for Equality of Survival Distributions for STRAT Statistic Log Rank

.42

df

Significance

1

.5189

¨ F¨ ur die Uberpr¨ ufung von mehr als zwei Gruppen sollten statistische Programmpakete angewandt werden, da hierbei noch Kovarianzen ber¨ ucksichtigt werden m¨ ussen. Anmerkung. F¨ ur weitere Ausf¨ uhrungen, insbesondere zu Konfidenzb¨andern und zur Einbeziehung von Kovariablen, sei auf Harris und Albert (1991) und Toutenburg (1992b) verwiesen.

12.5 Einbeziehung von Kovariablen in die ¨ Uberlebensanalyse Die Hazardrate λ(t) war definiert als die Wahrscheinlichkeit f¨ ur das Eintreten eines Ereignisses zum Zeitpunkt t f¨ ur ein Individuum, das den Zeitpunkt t erlebt hat. Es galt mit (12.2)

¨ 12.5 Einbeziehung von Kovariablen in die Uberlebensanalyse

λ(t) =

f (t) . S(t)

301

(12.9)

Bezieht man einen (zeitunabh¨ angigen) Kovariablenvektor xi f¨ ur das i–te Individuum als einen die Lebenszeit beeinflussenden Faktor mit ein, so ergibt sich f¨ ur die Hazardrate λi (t) = f (xi , t) .

(12.10)

Glasser (1967) schlug den Ansatz vor λi = λ · exp(−x′i β) ,

(12.11)

der von einer konstanten Hazardrate λ in der Behandlungsgruppe ausgeht und den individuellen Effekt des Patienten im zweiten Term separiert. Dieser Ansatz heißt proportionaler Hazard. Unter diesem Ansatz ist das Verh¨altnis der Hazardraten zweier Patienten λ1 = exp(−(x1 − x2 )′ β) λ2

(12.12)

als eine Funktion der Differenzen der Komponenten der Kovariablenvektoren angig von einem festen Zeitpunkt, d.h. konstant u (x1j − x2j ) unabh¨ ¨ ber den gesamten Verlauf. 12.5.1 Das Proportional–Hazard–Modell von Cox Der Ansatz von Cox (1972) ist ein semiparametrisches Modell f¨ ur die Hazardfunktion des i–ten Individuums: λi (t) = λ0 (t) exp(x′i β) ,

(12.13)

wobei λ0 (t) die unbekannte Baseline–Hazardrate der Population (z.B. Therapiegruppe) ist. xi = (x1i , . . . , xki )′ ist der Vektor der prognostischen Variablen des i–ten Individuums. Wenn β = 0 ist, folgen alle Individuen der Hazardrate λ0 (t). Der Quotient d λλ0i (t) (t) heißt relativer Hazard. Es gilt   λi (t) (12.14) ln = x′i β , λ0 (t) so daß das Cox–Modell auch h¨ aufig loglineares Modell f¨ ur den relativen Hazard heißt. Der Vorteil des Cox–Modells liegt darin, daß die Zeitabh¨angigkeit der Verweildauer nur in die Baseline–Hazardrate λ0 (t) einbezogen wird. Die Sch¨atzung des Parametervektors β wird nur an den tats¨achlichen Ereigniszeitpunkten vorgenommen, da zum Versuchsplan X nur die Anzahl der Ereignisse bzw. die Odds festgestellt werden. Wegen der eindeutigen Beziehung ¨ (12.3) zwischen Hazardrate und Uberlebensfunktion

302

12. Lebensdaueranalyse



S(t) = exp ⎝−

t 0



λ(s) ds⎠

= exp(−Λ(t))

(12.15)

mit Λ(t) der kumulativen Hazardfunktion l¨ aßt sich das Cox–Modell auch alternativ schreiben als ′

S(t) = S0 (t)exp(x β) , da





S(t) = exp ⎝exp(x′ β) ⎝− ⎛

= exp ⎝−

t 0

t 0

(12.16) ⎞⎞

λ0 (s) ds⎠⎠

⎞exp(x′ β)

λ0 (s) ds⎠

exp(x′ β)

= S0 (t) , (12.17)  t   wobei exp − λ0 (s) ds = exp(−Λ0 (t)) gesetzt werden kann. Die kumula0

¨ tive Baseline–Hazardrate Λ0 (t) steht dann zur “Baseline“–Uberlebenskurve S0 (t) in der Beziehung Λ0 (t) = − ln S0 (t) .

(12.18)

¨ 12.5.2 Uberpr¨ ufung der Proportionalit¨ atsannahme Grundlage des Cox–Modells ist die Annahme der zeitunabh¨angigen Proportionalit¨at der Hazardraten von verschiedenen Patientengruppen (d.h. nach X geschichteten Subgruppen). In Blossfeld et al. (1986) wird folgendes Beispiel gegeben. Betrachtet man die geschlechtsspezifische Schichtung nach M¨annern und ¨ Frauen, so hat man f¨ ur beide Subgruppen folgende Uberlebenskurven: ′

SM (t | x) = S0 (t)exp(x β) exp(γ) exp(x′ β)

SF (t | x) = S0 (t)

,

(12.19) (12.20)

wobei in X die anderen Kovariablen gegeben sind. Nach doppelter Logarithmierung beider Gleichungen erh¨alt man M : ln (− ln SM (t | x)) = ln (− ln S0 (t)) + x′ β + γ F : ln (− ln SF (t | x)) = ln (− ln S0 (t)) + x′ β .

(12.21) (12.22)

¨ Tr¨agt man die so transformierten Uberlebenskurven u ¨ ber der Zeitachse auf, so d¨ urfen sich beide Kurven u ¨ ber dem gesamten Verlauf nur um eine Konstante (n¨amlich γ) unterscheiden, wenn die Proportionalit¨atsannahme zutreffend ist.

¨ 12.5 Einbeziehung von Kovariablen in die Uberlebensanalyse

303

12.5.3 Sch¨ atzung des Cox–Modells Wir betrachten die Sch¨ atzung von β im proportionalen Hazardmodell λ(t) = λ0 (t) exp(x′ β)

(12.23)

bei unbekannter Baseline–Hazardrate λ0 (t). Cox f¨ uhrte eine neue Form einer Likelihoodfunktion ein. Sei tk ein bekannter Ereigniszeitpunkt und sei Rk die Risikogruppe unmittelbar vor diesem Zeitpunkt. Falls genau ein Ereignis (Verlust) zum Zeitpunkt tk diese Risikogruppe trifft, so ist die bedingte Wahrscheinlichkeit f¨ ur das Eintreten des Ereignisses beim Element k ∗ der Risikogruppe unter dem Cox–Modell exp(x′k∗ β) λ (t ) exp(x′k∗ β) 0 k =  . ′ λ0 (tk ) exp(xi β) exp(x′i β)

i:Rk

(12.24)

i:Rk

Die Likelihoodfunktion nach Cox ist das Produkt dieser Wahrscheinlichkeiten u ¨ber alle Ereigniszeitpunkte: ⎧ ⎫ ⎪ ⎪ L ⎨ & exp(x′k β) ⎬  L(β) = . (12.25) ⎪ exp(x′i β) ⎪ ⎭ k=1 ⎩ i:Rk

Damit wird die Loglikelihood  $ %! L   ′ ′ ln L = xk β − ln exp(xi β) . k=1

(12.26)

i:Rk

Diese Funktion enth¨ alt also weder die unbekannte Baseline–Hazardrate noch die zensierten Daten. Da eine Likelihood–Funktion jedoch alle Stichprobensituationen ber¨ ucksichtigen muß — was durch Weglassen der zensierten Daten hier nicht der Fall ist — gab Cox dieser Funktion die Bezeichnung partieller (partial) Likelihood. Die vollst¨ andige Likelihoodfunktion h¨atte die Gestalt L(complete) = L(partial) × L(censored) .

(12.27)

Der Cox–Ansatz liefert jedoch Sch¨ atzungen f¨ ur β, die zumindest asymptotisch atzungen auf der Basis der vollst¨andigen Daten ¨aquivalent zu den ML–Sch¨ sind. Falls Bindungen auftreten (mehrere Ereignisse zum selben Zeipunkt), d.h.  d falls dk > 1 ist, so wird in Formel (12.24) der Nenner durch ( exp(x′i β)) k ersetzt. Die Bestimmung der ML–Sch¨ atzungen βˆ erfolgt iterativ.

304

12. Lebensdaueranalyse

¨ 12.5.4 Sch¨ atzung der Uberlebensfunktion unter dem Cox–Ansatz Die Baseline–Hazardrate k¨ urzt sich bei den Likelihood–Komponenten heraus. ¨ Wenn wir jedoch die Uberlebenszeit eines Individuums sch¨atzen wollen nach ′

ˆ

Si (t) = S0 (t)exp(xi β) ,

(12.28)

so ben¨otigen wir eine (zumindest nichtparametrische) Sch¨atzung von S0 (t). Lawless (1982, S.362) schl¨ agt folgende Formel vor zur Sch¨atzung der kumulativen Hazardfunktion Λ0 (t) ⎤ ⎡ ⎢ di ⎥ (12.29) Λˆ0 (t) = ⎦ , ⎣ ′ ˆ exp(xi β) tk 0 ¨ erhalten wir f¨ ur die Uberlebensfunktion

(12.32)

¨ 12.5 Einbeziehung von Kovariablen in die Uberlebensanalyse



S(t) = exp ⎝−

t 0



λ(u) du⎠ = exp(−λt) ,

305

(12.33)

also die Exponentialverteilung, f¨ ur die gilt E(t) =

1 λ

(12.34)

1 . λ2

(12.35)

und Var(T ) =

Je gr¨oßer das Ereignisrisiko λ ist, desto kleiner f¨allt die mittlere Verweildauer E(T ) aus. Weibull–Verteilung. F¨ ur die zeitabh¨ angige Hazardrate der Gestalt λ(t) = λα(λt)α−1

(λ > 0, α > 0)

(12.36)

¨ ergibt sich als zugeh¨ orige Uberlebensverteilung die Weibull–Verteilung ⎛ ⎞

t α S(t) = exp ⎝−λ α rα−1 du⎠ = exp (−(λt)α ) . (12.37) 0

Der Parameter α steuert die Hazardrate. F¨ ur α = 1 ist λ(t) = λ konstant, ¨ die Uberlebensfunktion ist wieder die Exponentialverteilung. F¨ ur α > 1 bzw. α < 1 ist λ(t) monoton wachsend bzw. fallend. λ(t) α>1

α=1 α α0 . Angenommen, α1 = 0.9 und α0 = 0.2. Dann gilt: 0.9p 0.9p + 0.2(1 − p) 0.1p P (Xi = 1|Ri = 0) = . 0.1p + 0.8(1 − p)

P (Xi = 1|Ri = 1) =

(13.19) (13.20)

Wie erh¨alt man nun eine Sch¨ atzung von p, wenn α0 und α1 bekannt sind? Wir erinnern uns dazu an die Maximum–Likelihood Methode aus Kapitel 6.3 und 6.5. Allerdings betrachten wir nun die gemeinsame Verteilung von X und R. Wir wissen mit obigen Annahmen: P (R = 1, X = 1) = P (R = 1|X = 1)P (X = 1) = α1 p P (R = 1, X = 0) = P (R = 1|X = 0)P (X = 0) = α0 (1 − p) P (R = 0, X = 1) = P (R = 0|X = 1)P (X = 1) = (1 − α1 )p

P (R = 0, X = 0) = P (R = 0|X = 0)P (X = 0) = (1 − α0 )(1 − p) . Die Likelihood ist daher in unserem Beispiel (bis auf eine multliplikative Konstante, die wir hier nicht weiter betrachten m¨ ussen):

13.1 Betrachtung eines einzelnen Merkmals

Lc (p) =

240 &

(α1 p)

i=1

150 &

(α0 (1 − p))

i=1

= (α1 p)240 (α0 (1 − p))150

110 &

i=1

110 &

i=1

319

[(1 − α1 )p]xi,m [(1 − α0 )(1 − p)]1−xi,m

[(1 − α1 )p]xi,m [(1 − α0 )(1 − p)]1−xi,m ,

wobei xi,mis f¨ ur einen fehlenden Wert steht, dessen Auspr¨agung wir ja nicht kennen. Man beizeichnet Lc (p) auch als complete data likelihood. Die Idee ist nun die fehlenden Daten herauszuintegrieren“. Da Xi diskret ist, ist dies ” gleichbedeutend mit einer Summation. Dadurch erhalten wir die observed data likelihood oder Likelihood der beobachteten Daten, welche nun zur Maximierung herangezogen werden kann, da sie nur noch von p abh¨angt. Man errechnet: Lo (p) = (α1 p)240 (α0 (1 − p))150 ·  110 ! 1 1   & xi,m 1−xi,m ··· [(1 − α1 )p] [(1 − α0 )(1 − p)] x1,mis =0

x110,mis =0

= (α1 p)240 (α0 (1 − p))150

i=1

 110 &

!

[(1 − α1 )p] + [(1 − α0 )(1 − p)]

i=1

110

= (α1 p)240 (α0 (1 − p))150 {[(1 − α1 )p] + [(1 − α0 )(1 − p)]}

.

Man mache sich die Summation anhand eines einfachen Beispiels klar. Betrachte 2 fehlende Werte a und b. q u ¨ bernehme die Rolle von [(1 − α1 )p], l die Rolle von [(1 − α0 )(1 − p)]: 1  1 1   a 1−a b 1−b   q l q l = q a l1−a (q 0 l1 + q 1 l0 ) a=0 b=0

a=0 0 1

= (q l + q 1 l0 )(q 0 l1 + q 1 l0 ) = (q + l)2 .

Der Kern der logartihmierten Likelihood der beobachteten Daten ist dann log Lo (p) = = 240 log(α1 p) + 150 log(α0 (1 − p)) + 110 log((1 − α1 )p + (1 − α0 )(1 − p)) . (13.21) Man spricht vom Kern, da wir additive Konstanten, die nicht von p abh¨angen, weglassen. Dies hat keine Auswirkung auf die Punktsch¨atzung pˆ. In Abbildung 13.3 ist die beobachtete logarithmierte Likelihood (13.21) in Abh¨angigkeit von verschiedenen α0 und α1 in Abh¨ angigkeit von p und die Maximum– Likelihood Sch¨atzung dargestellt. Man beachte, dass lim log Lo (p) = lim log Lo (p) = −∞ ,

p→0

p→1

13. Fehlende Daten

D0=0.2; D1=0.9 D0=0.01; D1=0.99 D0=0.2; D1=0.2

−800

p= 0.505

−1000

p= 0.615

p= 0.482

−1400

−1200

Kern der Log−Likelihood

−600

320

0.0

0.2

0.4

0.6

0.8

1.0

Parameter p

Abb. 13.3. Maximum–Likelhood Sch¨ atzung f¨ ur verschiedene α0 und α1

so dass die Grafik bzgl. der y-Achse unten abgschnitten ist. F¨ ur α0 = 0.2 und α1 = 0.9 erhalten wir pˆML = 0.505. F¨ ur α0 = α1 = 0.2 erhalten wir pˆML = 0.615, also, wie erwartet, den complete case Sch¨atzer. F¨ ur α0 = 0.01 und α1 = 0.99 erhalten wir pˆML = 0.482, also in etwa die Untergrenze von Gleichung (13.13), wenn (praktisch) fast alle Nichtantworter unzufriedene und (praktisch) fast alle Antworter zufriedene Mitarbeiter sind. Wir fassen f¨ ur den univariaten Fall zusammen: • Fehlen die Daten rein zuf¨ allig“, so kann die complete case Sch¨atzung ” verwendet werden, die sich nur auf die bebachteten Daten st¨ utzt. Rein ” zuf¨allig“ bedeutet, dass die Wahrscheinlichkeit, dass die Auspr¨agung von Merkmal Xi beobachtet wird, nicht von dieser Auspr¨agung abh¨angt. Im univariaten Fall ist dies gleichbedeutend mit den in der Literatur verwendeten Bezeichnungen MCAR (missing completely at random) und MAR (missing at random). D.h. im univariaten Fall brauchen wir keinen Unterschied zwischen MCAR und MAR zu treffen (dies ist erst ab 2 simultan betrachteten Merkmalen der Fall). • Fehlen die Daten nicht rein zuf¨ allig“, so h¨ angt die Sch¨atzung von (i.a. un” bekannten) Wahrscheinlichkeiten f¨ ur den Fehlendmechanismus ab. Wir haben dieses Problem in den Likelihood Kontext eingebettet und f¨ ur verschiedene Szenarien veranschaulicht. In der Literatur wird dieser Fall als NMAR (not missing at random) bezeichnet. Die complete case Sch¨atzung ist dann i.a. eine verzerrte Sch¨ atzung, die die wahren Gegebenheiten nicht erfasst

13.2 Betrachtung zweier Merkmale

321

(auch nicht mit wachsendem Stichprobenumfang n!). Oft hilft dann nur eine Sensitivit¨ atsanalyse, die, wie in unserem Beispiel, mehr oder weniger plausible Annahmen f¨ ur α0 und α1 trifft. Diese Annahmen sind nat¨ urlich nur kontextspezifisch (d.h. von der Anwendung abh¨angig) und nicht allgemein zu treffen. 13.1.2 Fehlende Daten bei einer univariat normalverteilten Zufallsvariable Im Folgenden wollen wir von einer Stichprobe X1 , . . . , Xn , Xi ∼ N (μ, σ 2 ), i = 1, . . . , n ausgehen. Wir definieren wieder  1 wenn xi beobachtet ist Ri = 0 wenn xi fehlt Wie in Abschnitt 13.1.1 erh¨ alt man das Ergebnis, dass im Falle MCAR und MAR die complete case Sch¨ atzung verwendet werden kann. Im Fall NMAR allerdings tritt auch hier das Problem auf, dass die complete case Sch¨atzung die wahren Gegebenheiten verfehlt. Wie sich das auswirkt, soll in folgendem Beispiel erl¨autert werden. Beispiel 13.1.2. Wirkung von NMAR im Ein–Stichproben–Fall. (X1 , . . . , Xn ) i.i.d. X ∼ N (0, 1). Logistisches Modell: P (Ri = 1|xi ) =

exp{− 21 + 2xi } . 1 + exp{− 21 + 2xi }

Große x-Werte werden mit h¨ oherer Wahrscheinlichkeit beobachtet. Wir wollen dazu (ohne weitere Rechnung) Abbildung 13.4 betrachten. Es handelt sich dabei um simulierte Daten. Die vollst¨ andigen, wahren“ Daten, also vor der ” Anwendung des logistischen Modells, decken sich gut mit der theoretischen Normalverteilungsdichte. Die beobachteten Daten nach Anwendung der Selektion sind in dagegen in mehrfacher Hinsicht verzerrt“: der Mittelwert ist ” gr¨oßer als 0, und die Varianz ist kleiner als 1 (die Kurve ist anschaulich gestaucht)! D.h., wir erhalten eine verzerrte Sch¨ atzung f¨ ur den Erwartungwert μ der Verteilung und eine Untersch¨ atzung der tats¨achlichen Variabilit¨at σ 2 in den Daten.

13.2 Betrachtung zweier Merkmale Betrachten wir zwei Merkmale X und Y simultan, so k¨onnen drei F¨alle auftreten, wobei n jeweils die Gesamtzahl der Beobachtungspaare darstellt: • X vollst¨andig beobachtet (n Werte beobachtet), fehlende Daten in Y (nur m < n Werte beobachtet)

322

13. Fehlende Daten

Wirkung eines Selektionsmodells auf normalverteilte Daten

0.5

P(R=1|x)=exp(−0.5+2*x)/( 1+exp(−0.5+2*x) ) Dichte der N(0,1)

0.4

Kerndichteschätzung der vollständigen Daten

0.0

0.1

0.2

Dichte

0.3

Kerndichteschätzung der beobachteten Daten

−2

0

2

4

Abb. 13.4. NMAR bei univariater Normalverteilung

• Fehlende Daten in X (nur m < n Werte beobachtet), Y vollst¨andig beobachtet (n Werte beobachtet) • Fehlende Daten in X (nur m1 < n Werte beobachtet) und Y (nur m2 < n Werte beobachtet) Diese drei Situationen sind in Abbildung 13.5 dargestellt. Wollen wir u ¨ ber X x1 x2 .. . .. . .. . xn

Y y1 y2 .. . ym

X x1 x2 .. . xm

Y y1 y2 .. . .. . .. . yn

X x1 x2 .. . .. . xm1

Y y1 y2 .. . ym2

Abb. 13.5. Drei verschiedene Fehlendmuster, siehe Text f¨ ur die Beschreibung.

die separate Betrachtung jedes Merkmals wie in Abschnitt 13.1 hinausgehen, so m¨ ussen wir versuchen, einen eventuell vorhandenen Zusammenhang der beiden Merkmale X und Y auszunutzen. Dabei wollen wir der Einfachheit halber nur den Fall betrachten, dass eines der beiden Merkmale fehlende Werte aufweist. Nat¨ urlich m¨ ussen wir wieder das Skalenniveau der beiden

13.2 Betrachtung zweier Merkmale

323

Merkmale beachten. Wir beschr¨ anken uns aber der Einfachheit halber auf einen ausgew¨ahlten Fall, n¨ amlich dass • beide Merkmale kategorial sind, • wir MAR annehmen k¨ onnen (dies wird unten genauer spezifiziert), • fehlende Werte nur in einem Merkmal auftreten. 13.2.1 Zwei kategoriale Merkmale Zwei kategoriale Merkmale k¨ onnen in einer Kontingenztafel dargestellt werden. F¨ ur die Darstellung verweisen wir auf Kapitel 11. Die Situation kann bez¨ uglich der Wahrscheinlichkeiten dargestellt werden wie in Tabelle 13.1. Im Y

X

1 2 .. . I

1 π11 π21 .. . πI1 π+1

2 π12 π22 .. . πI2 π+2

... ... ... ... ...

J π1J π2J .. . πIJ π+J

π1+ π2+ .. . πI+ 1

Tabelle 13.1. Gemeinsame Verteilung und Randverteilungen von X und Y

Fall vollst¨andiger Daten greift man auf die Tabelle der absoluten H¨aufigkeiten zur¨ uck: Y

X

1 2 .. . I

1 n11 n21 .. .

2 n12 n22

··· ··· ··· .. .

J n1J n2J .. .

n1+ n2+ .. .

nI1 n+1

nI2 n+2

··· ···

nIJ n+J

nI+ n

Im Fall, dass in einem Merkmal fehlende Werte auftreten, in unserem Fall in Merkmal Y , erhalten wir eine zus¨ atzliche Tafel nur f¨ ur die Randh¨aufigkeiten von X bei den F¨ allen, bei denen Y nicht beobachtet werden konnte. Beispiel 13.2.1 (Beispiel einer Kontingenztafel, bei der Y nicht immer beobachtet wurde). Y Y 1 2 3 1 2 3 X 1 20 30 40 90 X 1 ? ? ? 100 2 50 60 20 130 2 ? ? ? 90 70 90 60 220 ? ? ? 190

324

13. Fehlende Daten

D.h., in 100 F¨ allen wurde nur X = 1 beobachtet, in 90 F¨allen nur X = 2, aber die Auspr¨agung von Y wurde in diesen 190 F¨allen nicht beobachtet. Die allgemeine Situation eines monotonen Patterns ist in Tabelle 13.2 dargestellt. Dabei sei n = m + r der Gesamtstichprobenumfang. Y

X

1 2 .. . I

1 m11 m21 .. . mI1 m+1

2 m12 m22 mI2 m+2

··· ··· ··· .. . ··· ···

J m1J m2J .. . mIJ m+J

··· ··· ··· .. . ··· ···

J ? ? .. . ? ?

m1+ m2+ .. . mI+ m

Y

X

1 ? ? .. . ? ?

1 2 .. . I

2 ? ? ? ?

r1 r2 .. . rI r

Tabelle 13.2. Monotones Pattern bei zwei kategorialen Merkmalen X und Y

Ziel. Maximum–Likelihood Sch¨ atzung von πij = P (X = i, Y = j), also der ¨ gemeinsamen Verteilung von X und Y . Dazu machen wir folgende Uberlegungen: • Es liegt ein sogenanntes monotones Pattern wie in Beispiel 13.2.1 vor. • Zu sch¨atzen ist der Parameter θ = (π11 , π12 , . . . , πIJ ) mit der NebenbedinI I gung i=1 j=1 πij = π++ = 1. • Faktorisierung der gemeinsamen Wahrscheinlichkeiten in bedingte Wahrscheinlichkeiten und Randwahrscheinlichkeiten. πij = P (X = i, Y = j) = P (Y = j|X = i) · P (X = i) = πj|i · πi+ • Wir w¨ahlen eine alternative Parametrisierung, die der Faktorisierung entspricht: φ = (φ1 , φ2 ) mit φ1 = {πi+ , i = 1, . . . , I} mit den Nebenbedingungen

,

φ2 = {πj|i , i = 1, . . . , I; j = 1, . . . , j}

13.2 Betrachtung zweier Merkmale I 

I 

πi+ = 1

i=1

325

∀i = 1, . . . , I .

πj|i = 1

j=1

Diese alternative Parametrisierung hat genauso viele freie Parameter wie die Parametrisierung in gemeinsamen Wahrscheinlichkeiten: θ hat IJ − 1 Parameter, φ1 hat I − 1 Parameter und φ2 hat I(J − 1) Parameter. D.h. φ1 und φ2 haben zsammen I − 1 + I(J − 1) = IJ − 1 Parameter. Der Fall MAR (missing at random) bedeutet nun, dass die Wahrscheinlichkeit f¨ ur das Fehlen von Y nicht von der konkreten Auspr¨ agung von Y abh¨angt. Die Wahrscheinlichkeit kann jedoch von der vollst¨ andig beobachteten Variablen X abh¨angen. D.h f¨ ur X = 1 kann z.B. die Wahrscheinlichkeit anders sein als f¨ ur X = 2. Dies f¨ uhrt (ohne Beweis) dazu, dass wir uns auf die beobachteten Daten konzentrieren k¨onnen. Die Likelihood der beobachteten Daten in der φ–Parametrisierung ist dann: L( mij , ri | φ) =    beobachtet

=

I & J &

m

πij ij

i=1 j=1 I & J &

I &

ri πi+

i=1

(πj|i πi+ )mij

i=1 j=1

=

=

I & J &

m

πj|iij

i=1 j=1

I & J &

I &

m

πj|iij

i=1 j=1

= ⎣ L(φ | beobachtet) =

ri πi+

i=1 I & J &

i=1 j=1



I &

m

i=1 j=1

I &

ri πi+

i=1

πi+i+

i=1

I & J &

m

πi+ij I &

ri πi+

i=1

⎤  I & mij ⎦ (m +r ) π πi+ i+ i j|i

i=1

      angig von φ2 abh¨ angig von φ1 abh¨ I  J 

mij log(πj|i ) +

i=1 j=1

I 

(mi+ + ri ) log(πi+ )

i=1

Beide Produkte k¨ onnen jetzt getrennt maximiert werden und wir erhalten (ohne ausf¨ uhrliche Berechnung): π ˆj|i =

mij mi+

π ˆi+ =

mi+ + ri n

In der θ–Parametrisierung erhalten wir dann (sogenannte Invarianzeigenschaft des Maximum–Likelihood Sch¨ atzers)   mij mi+ + ri ri  mij  mi+ π ˆij = π ˆj|i π ˆi+ = + = mi+ n mi+ n n

326

13. Fehlende Daten

=

(mij /mi+ )ri mij + . n n

Das Ergebnis ist intuitiv: die Zellh¨ aufigkeiten ri werden gem¨aß der bedingten Verteilung, welche aus den vollst¨ andig beobachteten F¨allen gesch¨atzt wird, aufgeteilt. Beispiel 13.2.2 (Fortsetzung von Beispiel 13.2.1). Wir erhalten f¨ ur φˆ1 die Maximum–Likelihood Sch¨atzungen 90 + 100 190 = 220 + 190 410 220 130 + 90 = = 410 410

π ˆ1+ = π ˆ2+ und f¨ ur φˆ2 die Sch¨ atzungen

30 40 20 , π ˆ2|1 = , π ˆ3|1 = 90 90 90 60 20 50 , π ˆ2|2 = , π ˆ3|2 = . = 130 130 130

π ˆ1|1 = π ˆ1|2

ˆ Damit erhalten wir f¨ ur θ: π ˆ11 = π ˆ12 = π ˆ13 = π ˆ21 = π ˆ22 = π ˆ23 =

20 190 = 0, 103 90 410 30 190 = 0.154 90 410 40 190 = 0.206 90 410 50 220 = 0.206 130 410 60 220 = 0.248 130 410 20 220 = 0.0826 . 130 410

Man vergleiche dies mit den Schätzungen, die sich nur auf die vollständige Tafel beziehen: 20 π ˜11 = 220 = 0.091 π ˜12 = 0.136 π ˜13 = 0.182 π ˜21 = 0.227 π ˜22 = 0.273 π ˜23 = 0.091 .

Teil IV

Einfu ¨hrung in statistische Software

14. Einfu ¨hrung in SPSS

Bereits im Buch ’Deskriptive Statistik’ (Toutenburg und Heumann (2006)) haben wir uns mit dem statistischen Softwarepaket SPSS besch¨aftigt. Wir m¨ ochten erneut die Grundkonzepte des Programms erl¨autern und anhand von ausf¨ uhrlichen Beispielen die Anwendung von statistischen Methoden der induktiven Statistik demonstrieren um so dem Anwender einen raschen Einstieg zu erm¨oglichen. SPSS ist in seiner urspr¨ unglichen Version (’Statistical Package for the Social Sciences’) als anwendungsorientiertes Analyseinstrument f¨ ur die Sozialwissenschaften konzipiert worden. Heutzutage steht das K¨ urzel SPSS f¨ ur ’Statistical Product and Service Solution’ und zielt damit auf die Integration zwischen Statistik und Service ab. Im Vergleich zu anderen statistischen Softwarepaketen wie S-Plus, R, SAS, MINITAB, etc. ist SPSS noch immer im Wesentlichen auf den Anwender fokussiert und erlaubt dadurch statistische Instrumente einfach und interaktiv einzusetzen. Dies bringt viele Vorteile, jedoch auch einige Nachteile, mit sich. Prinzipiell ist SPSS intuitiv und einfach bedienbar, es existieren eine gute Online Hilfe sowie gute Handb¨ ucher, SPSS ist Windows-konform und erstellt automatisch Programmcodes (Syntax). Leider birgt die einfache Bedienung auch Gefahren, so werden schnell falsche Methoden angewandt und interpretiert. Auch ist die automatische Manipulation von Grafiken nur beschr¨ ankt m¨ oglich. Neben typischen Programmierwerkzeugen wie beispielsweise Schleifen fehlen auch statistische Verfahren, die in anderen Programmpaketen implementiert sind. Einzelne Prozeduren weisen Inkonsistenzen auf. Wer mit dem Textsatzprogramm Latex arbeitet wird schnell bemerken, dass ein Einbinden der Grafiken oft sehr m¨ uhselig ist.

14.1 Grundaufbau des Programms SPSS setzt sich aus drei verschiedenen Fenstern zusammen: dem Datenfenster, dem Ausgabefenster und dem Syntaxfenster. Wir m¨ochten diese nun n¨aher erl¨autern.

330

14. Einf¨ uhrung in SPSS

14.1.1 Das Datenfenster Das Datenfenster besteht aus zwei verschiedenen Teilen: a) der ’Datenansicht’ und b) der ’Variablenansicht’. In der Datenansicht werden Daten eingelesen und ausgewertet, in der Variablenansicht k¨onnen Variablen (von bereits eingelesenen Daten) entsprechend ihren Eigenschaften modifiziert werden. Das gesamte Datenfenster kann abgespeichert werden und besitzt die Dateiendung .sav. a) Datenansicht. Einlesen der Daten: Word-, Excel-, Text- und SPSS-Files k¨onnen neben einer Reihe anderer g¨ angigen Formate unter ¨ Datei → Offnen → Daten in der oberen Schaltleiste eingelesen werden. Selbstverst¨andlich ist es auch m¨oglich die Daten schlicht per Hand in die entsprechenden Zellen in SPSS einzutippen. Typisch f¨ ur die statistische Analyse ist hierbei die Datenbankform der Daten: Die Spalten beschreiben Variablen bzw. Merkmale, die Zeilen stehen f¨ ur die Untersuchungseinheiten (siehe dazu auch Abbildung 14.1.

Abb. 14.1. Die Datenansicht im Datenfenster

Auswerten der Daten: Zur Auswertung der Daten dient die obere Schaltleiste des Fensters. Speziell die Buttons ’Analysieren’ und ’Grafiken’ werden

14.1 Grundaufbau des Programms

331

im Rahmen einer statistischen Analyse ben¨ otigt. In Abschnitt 14.2 wollen wir detailliert darauf eingehen wo die wichtigsten Werkzeuge der induktiven Statistik in SPSS zu finden sind und wie sie verwendet werden k¨onnen. b) Variablenansicht. In der Variablenansicht werden die Eigenschaften der einzelnen Variablen angegeben. Neben Name, Skalenniveau und weiteren spezifischen Eigenschaften k¨ onnen vor allem Wertelabels f¨ ur kategoriale Variablen vergeben werden (siehe auch Abbildung 14.2). Dies ist sehr wichtig, da kategoriale Gr¨oßen in der Regel codiert vorliegen und damit sp¨ater bei der Erstellung von Grafiken die Auspr¨ agung nur mit der entsprechenden Codierung versehen wird, nicht aber mit dem Namen der Auspr¨agung. Betrachten wir beispielsweise die kategoriale Variable ’Standort eines Unternehmens’ mit den Auspr¨agungen ’West’, ’S¨ ud’, ’Nord’, ’Ost’, so ist eine Analyse mit diesen Bezeichnungen weitaus einfacher als mit den bloßen Codierungen ’1’, ’2’, ’3’ und ’4’. Weitere Informationen zur Variablenansicht findet man in der SPSS-Hilfe und in Toutenburg und Heumann (2006).

Abb. 14.2. Die Variablenansicht im Datenfenster

14.1.2 Das Ausgabefenster Das Ausgabefenster (siehe auch Abbildung 14.3) besteht im Wesentlichen aus drei Teilen: Die obere Schaltleiste erm¨ oglicht die Analyse eines Datensatzes und unterscheidet sich nur unwesentlich von der Leiste des Datenfensters. Speziell f¨ ur kurze Analysen ist so ein st¨ andiges Wechseln zwischen den einzelnen Fenstern nicht unbedingt notwendig. Der Großteil des Fensters besteht nat¨ urlich aus den Ausgaben selbst, also Tabellen und Grafiken. Per doppeltem Mausklick k¨onnen vor allem die Grafiken editiert werden. Sehr schnell lassen sich so Farbe, Achsenskalierung

332

14. Einf¨ uhrung in SPSS

und Beschriftungen ¨ andern. Sollen Grafiken separat abgespeichert werden, so k¨onnen unter Rechte Maustaste → Exportieren viele g¨angige Grafikformate ausgew¨ahlt werden. Auf der linken Leiste des Fensters sind u ¨bersichtlich alle bisherigen Ausgaben angeordnet. Diese k¨ onnen per Mausklick schnell aufgerufen, editiert bzw. gel¨oscht werden.

Abb. 14.3. Das Ausgabefenster von SPSS

14.1.3 Das Syntaxfenster ¨ Um sich einen schnellen Uberblick zu verschaffen, gen¨ ugt es oft u ¨ber eine Best¨atigung per Mausklick (’OK ’) Grafiken und Tabellen ins Outputfenster zu schicken. Damit Ergebnisse nicht verloren gehen, kann selbstverst¨andlich die gesamte Ausgabe abgespeichert werden (Dateiendung .spo). Leider ist dies sehr speicherplatzintensiv und bietet auch nicht die M¨oglichkeit im Nachhinein nachzuvollziehen wie Grafiken und Tabellen produziert wurden. Als L¨osung bietet es sich an, anstelle der Ausgabe die Syntax zu speichern. Hierf¨ ur wird einfach anstelle der einfachen Best¨atigung (also ’OK’) der Button ’Einf¨ ugen’ angeklickt. Es ¨ offnet sich ein neues Fenster (das Syntaxfenster, siehe auch Abbildung 14.4) mit dem Programmcode. Durch Klicken auf den  - Button wird der markierte Teil der Synatx ausgef¨ uhrt. Durch Kopieren und Einf¨ ugen k¨ onnen so auch sehr schnell ¨ahnliche Operationen durchgef¨ uhrt werden.

14.2 Einige praktische Beispiele

333

Abb. 14.4. Das Syntaxfenster von SPSS

14.2 Einige praktische Beispiele Die folgenden Abschnitte sollen die Anwendung von induktiven Methoden in der Statistik erl¨ autern. Wir wollen zuerst, in Bezug auf den ersten Teil des Buches, die Wahrscheinlichkeitstheorie und speziell die Erzeugung von Zufallszahlen mit SPSS demonstrieren. Anschließend steht die Anwendung statistischer Tests (Teil II des Buches), sowie die Modellierung von UrsacheWirkungsbeziehungen (Teil III des Buches) im Vordergrund. In Kapitel 15.2 werden s¨amtliche Beispiele noch einmal mit dem statistischen Programmpaket R vorgef¨ uhrt. 14.2.1 Wahrscheinlichkeitstheorie und die Erzeugung von Zufallszahlen In vielen statistischen Programmpaketen ist die Erzeugung von Zufallszahlen m¨oglich mit deren Hilfe sich Wahrscheinlichkeitsverteilungen simulieren lassen. In der Praxis existieren hierf¨ ur zahlreiche Anwendungen in verschiedensten Bereichen, auf die wir an dieser Stelle jedoch nicht n¨aher eingehen wollen. Stattdessen m¨ ochten wir mit der Generierung von Zufallszahlen das ’Gesetz der großen Zahlen’, sowie den ’Anwendungen des zentralen Grenzwertsatzes’ verdeutlichen. Erzeugung von Zufallszahlen mit SPSS. Die Erzeugung von Zufallszahlen ist in SPSS leider nicht ganz so intuitiv wie in anderen Programmpaketen. Es besteht keine M¨ oglichkeit Zufallszahlen in einem leeren Datenblatt zu erzeugen. Stets ben¨ otigt wird eine Hilfsvariable mit einer vorgegebenen Gr¨oße, die sp¨ater dann wieder u ¨ berschrieben wird. Eine solche Hilfsvariable kann aus einem Index, oder einfach nur aus einer Serie von Zahlen (z.B. der Zahl

334

14. Einf¨ uhrung in SPSS

1 ) bestehen. Es ist nur darauf zu achten, dass die L¨ange der Hilfsvariable die L¨ ange der gew¨ unschten Zufallszahlenserie besitzt. Ist eine solche Hilfsvariable erstellt ist u u dem Pfad ¨ ber das SPSS-Men¨ Transformieren → Variable berechnen zu folgen. Unter ’Zielvariable’ kann nun ein Name f¨ ur die neue Variable die die Zufallszahlen enthalten soll angegeben werden, im Feld ’Numerischer Ausdruck’ dagegen k¨ onnen die Zufallszahlen selbst n¨aher spezifiziert werden. Hierf¨ ur ist es n¨otig am rechten Rand des Fensters im Feld ’Funktionsgruppe’ die Gruppe ’Zufallszahlen’ auszuw¨ ahlen um anschließend im darunter erscheinenden Feld ’Funktionen und Sondervariablen’ die gew¨ unschte Verteilung n¨aher zu spezifizieren. Eine einfacher Klick auf das ’Einf¨ ugen’-Feld o¨ffnet das Syntaxfenster. Durch Markieren des Codes und ein best¨atigen u ¨ber den  - Button werden die Zufallszahlen erzeugt. So lassen sich eine Vielzahl an Verteilungen (z.B. Normalverteilung, Exponentialverteilung, Gleichverteilung, etc.) einfach und schnell generieren. Durch die Benutzung des Syntaxfensters (siehe auch Kapitel 14.1.3) k¨onnen u ¨ ber einfache ’Copy and Paste’-Arbeit sehr schnell sehr viele Variablen erstellt werden. Wir fassen das Vorgehen zur Erstellung von Zufallszahlen in SPSS nun noch einmal zusammen: 1. Erstellen einer Hilfsvariable (mit der L¨ ange die sp¨ater f¨ ur die Variable mit den Zufallszahlen gew¨ unscht wird) 2. SPSS-Pfad: Transformieren → Variable berechnen 3. Erstellen der Zufallszahlen a) unter ’Zielvariable’ den gew¨ unschten Namen eingeben b) in den Feldern ’Funktionsgruppe’ und ’Funktionen und Sondervariablen’ die Verteilung spezifizieren 4. Best¨atigung u ugen’ (Syntaxfenster) ¨ber ein einfaches ’OK’ oder ’Einf¨ Das Gesetz der großen Zahlen. Wie in Kapitel 5 beschrieben, ist die Kernaussage des Gesetzes der großen Zahlen, dass das arithmetische Mittel ¯ N f¨ ur N → ∞ stochastisch gegen den Erwartungswert μ konvergiert. Um X dies n¨aher zu veranschaulichen erzeugen wir normalverteilte (μ = 0, σ = 1), exponentialverteilte (λ = 10), poissonverteilte (λ = 14) und binomialverteilte (n = 100, p = 0.4) Zufallszahlen mit SPSS f¨ ur jeweils eine Stichprobengr¨oße von N = 10, N = 100 und N = 1000. Bei der Erzeugung von Zufallszahlen mit verschiedener Stichprobengr¨ oße erwarten wir, dass das arithmetische Mittel sich dem Erwartungswert umso st¨ arker ann¨ahert je gr¨oßer die Stichprobe ist. Die deskriptiven Auswertungen unserer Simulation (Tabelle 14.1) best¨atigen dies. Betrachten wir die normalverteilten Zufallszahlen, so liegt das arithmetische Mittel f¨ ur N = 10 bei −0.594, f¨ ur N = 100 bei 0.352 und f¨ ur N = 1000 schon bei 0.011. Es n¨ ahert sich also immer mehr unserem Erwartungswert

14.2 Einige praktische Beispiele

335

Tabelle 14.1. Deskriptive Statistiken f¨ ur die Simulation der Zufallszahlen Verteilung Normal (μ = 0, σ = 1) Normal (μ = 0, σ = 1) Normal (μ = 0, σ = 1) Exp(λ = 10) Exp(λ = 10) Exp(λ = 10) Pois(λ = 14) Pois(λ = 14) Pois(λ = 14) Bin(n = 100, p = 0.4) Bin(n = 100, p = 0.4) Bin(n = 100, p = 0.4)

N 10 100 1000 10 100 1000 10 100 1000 10 100 1000

Mittelwert -0.594 0.352 0.011 0.302 0.0953 0.0992 13.200 13.560 14.060 39.500 39.610 40.067

Varianz 0.671 0.825 0.971 0.001 0.012 0.011 13.289 11.905 13.552 15.833 23.998 20.933

von μ = 0 an. Auch die Stichprobenvarianz s2 ist f¨ ur eine gr¨oßere Stichprobe n¨aher am Wert der Varianz von σ 2 = 1. Die exponentialverteilten Zufallszah1 = 0.1, len liefern uns ein ¨ ahnliches Bild. Der Erwartungswert liegt bei λ1 = 10 1 1 2 ¯ die Varianz bei σ = λ2 = 100 = 0.01. W¨ ahrend XN f¨ ur N = 10 noch bei ¯ N = 0.0992 der Erwartungswert von 0.302 liegt, wird f¨ ur N = 1000 mit X 0.1 beinahe erreicht. Es ist leicht zu sehen, dass bei der Poissonverteilung (μ = λ = 14, σ 2 = λ = 14) und der Binomialverteilung (μ = np = 40, σ 2 = np(1 − p) = 24) ein ¨ ahnliches Verhalten des arithmetischen Mittels zu beobachten ist. Anwendung des zentralen Grenzwertsatzes f¨ ur Approximationen. In Kapitel 5.3 haben wir den zentralen Grenzwertsatz sowie einige seiner Interpretationen und Anwendungen kennengelernt. Spezielles Augenmerk lag dabei auf der Approximation von verschiedenen Verteilungen untereinander. Sie sind ein wichtiger Bestandteil der Testtheorie: einige der in Kapitel 7 vorgestellten Tests basieren auf diesen oder ¨ ahnlichen Approximationen, so beispielsweise der Binomialtest f¨ ur p (Kapitel 7.6.1). Mit der Ziehung von Zufallszahlen wollen wir die Approximation sowohl der Binomialverteilung als auch der Poissonverteilung durch die Normalverteilung demonstrieren. Hierf¨ ur generieren wir binomialverteilte Zufallsvariablen (n = 100, p = 0.4) f¨ ur N = 10, N = 100 und N = 1000, sowie poissonverteilte Zufallsvariablen (λ = 14) f¨ ur N = 10, N = 100 und N = 1000. Wir erwarten, dass sich die empirischen Verteilungen der Poisson- und Binomialverteilung mit der Erh¨ohung der Stichprobengr¨ oße der Normalverteilung ann¨ahert, da alle Voraussetzungen f¨ ur die Normalapproximation gegeben sind (λ ≥ 10, np(1 − p) ≥ 9). Die Abbildungen 14.5, 14.6 und 14.7 zeigen die Ergebnisse unserer Untersuchungen.

336

14. Einf¨ uhrung in SPSS

Abb. 14.5. Veranschaulichung von Zufallszahlen einer Poissonverteilung (λ = 14) und einer Binomialverteilung (n = 100, p = 0.4) bei einer N = 10-fachen Realisierung

Abb. 14.6. Veranschaulichung von Zufallszahlen einer Poissonverteilung (λ = 14) und einer Binomialverteilung (n = 100, p = 0.4) bei einer N = 100-fachen Realisierung

Abb. 14.7. Veranschaulichung von Zufallszahlen einer Poissonverteilung (λ = 14) und einer Binomialverteilung (n = 100, p = 0.4) bei einer N = 1000-fachen Realisierung

14.2 Einige praktische Beispiele

337

Es ist leicht zu sehen, dass sowohl bei der Binomial- als auch bei der Poissonverteilung f¨ ur N = 1000 die empirische Verteilung einer Normalverteilung ¨ahnelt - im Gegensatz zu den geringeren Stichprobengr¨oßen von N = 10 bzw. N = 100. Man kann erahnen, dass sich f¨ ur noch gr¨oßere N die Verteilungen immer st¨arker einer Normalverteilung mit μ = 14, σ 2 = 14 bzw. μ = 40, σ 2 = 24 ann¨ahern. In Kapitel 15.2.1 wollen wir den zentralen Grenzwertsatz mit Hilfe des statistischen Programmpakets R noch einmal direkt veranschaulichen. Das dortige Beispiel betrachtet die standardisierten Summen am Beispiel einer Poissonverteilung. 14.2.2 Verwendung von statistischen Tests In diesem Abschnitt wollen wir die Anwendung statistischer Tests mit SPSS demonstrieren. Dazu verwenden wir den von SPSS mitgelieferten Datensatz ’Employee.sav’ (ehemals ’bank.sav’ ), der die Einkommensstruktur der Mitarbeiter einer Bank beschreibt. Tabelle 14.2 zeigt einen Auszug aus dem Datensatz. Interessierende Variablen sind v.a. ’gehalt’ und ’agehalt’, die das Tabelle 14.2. Auszug des SPSS-Datensatzes ’Employee.sav’ id .. . 4 5 6 7 .. .

geschl .. . 1 0 0 0 .. .

ausbild .. . 8 15 15 15 .. .

t¨ atig .. . 1 1 1 1 .. .

gehalt .. . 21900 45000 32100 36000 .. .

agehalt .. . 13200 21000 13500 18750 .. .

dauer .. . 98 98 98 98 .. .

erfahr .. . 190 138 67 114 .. .

mind .. . 0 0 0 0 .. .

aktuelle Gehalt bzw. das Einstiegsgehalt (in US$/Jahr) der Bankangestellten beschreiben. Potentielle Einflussfaktoren sind das Geschlecht (’geschl’), die Ausbildungsl¨ange in Jahren (’ausbild’), die Art der T¨atigkeit (’t¨atig’), das erste Arbeitsjahr (’dauer’), die Berufserfahrung in Monaten (’erfahr’), sowie die Zugeh¨origkeit zu einer Minderheit (’mind’). Tests auf Mittelwerte; 1-Stichproben t-Test. Zur Durchf¨ uhrung des 1-Stichproben t-Tests folgt man dem Pfad Analysieren → Mittelwerte vergleichen → T-Test bei einer Stichprobe. Im Men¨ upunkt ’Testvariable’ gibt man durch einfachen Mausklick die interessierende Variable ein, unter ’Testwert’ kann μ0 angegeben werden. Wir wollen nun testen, ob man von einem mittleren Gehalt von 35000 US$/Jahr unter

338

14. Einf¨ uhrung in SPSS

den Mitarbeitern ausgehen kann. Dazu verwenden wir den 1-Stichproben tTest und testen die Hypothese μ = 35000. Abbildung 14.8 zeigt die Ergebnisse des Tests.

Abb. 14.8. SPSS-Ausgabe zum 1-Stichproben t-Test

Wir sehen, dass das mittlere Gehalt in der Bank bei 34419.57 US$/Jahr liegt. Der t-Wert von −0.740 bzw. der p-Wert von 0.460 zeigen, dass die Nullhypothese zum Niveau α = 0.05 nicht verworfen werden kann. Wir k¨onnen also die Nullhypothese von μ = 35000 nicht verwerfen. Tests auf Mittelwerte; 2-Stichproben t-Test. Zur Durchf¨ uhrung des 2-Stichproben t-Tests folgt man dem Pfad Analysieren → Mittelwerte vergleichen → T-Test bei unabh¨angigen Stichproben. Wir interessieren uns bei unserem Datensatz ’Employee.sav’ daf¨ ur ob sich das mittlere Gehalt bei M¨ annern und Frauen unterscheidet. Abbildung 14.9 zeigt die Ergebnisse von SPSS. Die deskriptiven Statistiken sprechen ein ein-

Abb. 14.9. SPSS-Ausgabe zum 2 Stichproben t-Test

deutiges Bild: Die m¨ annlichen Angestellten haben ein mittleres Gehalt von u ahrend dies bei den weiblichen Angestellten gera¨ber 41000 US$/Jahr, w¨ de mal 26331 US$/Jahr betr¨ agt. Die Varianzen sind nicht bekannt, deshalb

14.2 Einige praktische Beispiele

339

f¨ uhrt SPSS den ’Levene-Test auf Varianzgleichheit’ durch, um festzustellen, ob von einer Gleichheit der Varianzen ausgegangen werden kann oder nicht. Entsprechend der Entscheidung wird dann ein ’doppelter t-Test’ bzw. der ’Welch-Test’ durchgef¨ uhrt. In unserem Beispiel lehnt der Levene Test die Nullhypothese gleicher Varianzen ab (p-Wert = 0.000), dementsprechend ist die untere Zeile in der Ausgabe zum t-Test relevant. Der dortige Wert der Teststatistik (T=11.688) bzw. des p-Wertes (p=0.000) lehnen die Nullhypothese eines gleichen mittleren Gehalts ab, M¨ anner scheinen in dieser Bank also signifikant mehr zu verdienen. Um eine endg¨ ultige Aussage bez¨ uglich dieser Thematik zu treffen, sollten jedoch weitere Analysen zu Rate gezogen werden; m¨oglicherweise liegt ein Schichtungseffekt vor, und Frauen sind vor allem in Segmenten t¨atig, die schlechter bezahlt werden, w¨ ahrend M¨ anner F¨ uhrungspositionen besetzen. Tests auf Mittelwerte; paired t-Test. Zur Durchf¨ uhrung des paired tTestes folgt man dem Pfad Analysieren → Mittelwerte vergleichen → T-Test bei gepaarten Stichproben. Die einzigen abh¨angigen Variablen in unserem Datensatz sind die beiden Variablen ’Gehalt’ und ’Anfangsgehalt’. Ein gepaarter t-Test soll nun die (m¨oglicherweise triviale) Fragestellung kl¨ aren, ob sich mittleres Gehalt und mittleres Anfangsgehalt unterscheiden, ob es also zu Gehaltserh¨ohungen gekommen ist oder nicht. Abbildung 14.10 zeigt die Ausgabe von SPSS.

Abb. 14.10. SPSS-Ausgabe zum gepaarten t-Test

Die deskriptiven Statistiken zeigen ein mittleres Anfangsgehalt von etwas u ¨ber 17000 US$/Jahr, sowie ein aktuelles Gehalt von u ¨ ber 34000 US$/Jahr. Es ist nicht verwunderlich, dass der gepaarte t-Test die Nullhypothese gleicher mittlerer Geh¨alter verwirft (p=0.000).

340

14. Einf¨ uhrung in SPSS

Tests auf Varianz. Der von uns vorgestellte χ2 -Test auf Varianz sowie der F-Test zum Vergleich zweier Varianzen sind in SPSS leider nicht enthalten. Zur Durchf¨ uhrung dieser Tests k¨ onnen andere Programmpakete wie z.B. R (siehe auch Kapitel 15.2.2) oder MINITAB verwendet werden. Der Test von Levene, der die Varianz von zwei Stichproben vergleicht, wird dagegen in entsprechendem Zusammenhang ausgegeben: so z.B. beim 2-Stichproben tTest bzw. bei der ANOVA. Tests auf Korrelation. Zur Durchf¨ uhrung des Tests auf Korrelation folgt man dem Pfad Analysieren → Korrelation → Bivariat. Uns interessiert nun der Zusammenhang zwischen der ’Berufserfahrung in Monaten’ und dem ’Gehalt’. Abbildung 14.11 enth¨alt die Ergebnisse von SPSS. Der Korrelationskoeffizient von Bravais-Pearson betr¨agt rBP = −0.097

Abb. 14.11. SPSS-Ausgabe zum Test auf Korrelation

und deutet auf einen leicht negativen Zusammenhang hin. Der p-Wert von 0.034 zeigt, dass die Korrelation zum Niveau α = 0.05 signifikant von Null verschieden ist. Dass die Berufserfahrung einen negativen Effekt auf das Gehalt haben soll, ist auf den ersten Blick verwunderlich. Ein Blick auf Abbildung 14.12 liefert hierf¨ ur jedoch eine Erkl¨ arung. Eine lange Berufserfahrung haben im Wesentlichen Mitarbeiter des Sicherheitsbereiches, die jedoch im unteren Gehaltsgef¨ uge der Bank anzutreffen sind. Tests auf Binomialwahrscheinlichkeiten. Zur Durchf¨ uhrung des Binomialtests f¨ ur p folgt man dem Pfad Analysieren → Nichtparametrische Tests → Binomial. Uns interessiert, ob der Anteil der M¨ anner und der Frauen in der Bank gleich groß ist, oder anders formuliert, ob der Anteil der M¨anner bei p = 0.5 liegt oder nicht. SPSS liefert uns folgende Ausgabe (Abbildung 14.13):

14.2 Einige praktische Beispiele

341

Abb. 14.12. Boxplot der Berufserfahrung (in Monaten) in Abh¨ angigkeit der ’Art der T¨ atigkeit’

Abb. 14.13. SPSS-Ausgabe zum Test auf Binomialwahrscheinlichkeiten

Der M¨anneranteil in der Stichprobe betr¨ agt 54%. Da der p-Wert 0.06 betr¨agt, k¨onnen wir die Nullhypothese von einem Anteil von 50% zum Niveau α = 0.05 jedoch nicht verwerfen. Zum Vergleich zweier Binomialwahrscheinlichkeiten haben wir den (approximativen) Binomialtest, den Test von Fisher, sowie den Test von McNemar kennengelernt. Die Durchf¨ uhrung des Binomialtests ist in SPSS nicht m¨oglich, wohl aber die der Tests von Fisher und McNemar. Zur Durchf¨ uhrung des Tests von Fisher folgt man dem Pfad Analysieren → Deskriptive Statistiken → Kreuztabellen und w¨ahlt im Men¨ upunkt ’Statistik’ den Button ’Chi-Quadrat’ aus. Der Test von Fisher wird dann automatisch mitausgegeben. In unserem Datensatz ’Employee.sav’ definieren wir uns zuerst eine neue Variable ’Gehaltkat’, die angibt, ob ein Gehalt niedrig (< 28880 US$/Jahr) oder hoch (≥ 28880 US$/Jahr) ist. Wir wollen nun die beiden Binomialwahrscheinlichkeiten f¨ ur ein niedriges Gehalt in den beiden Gruppen ’m¨annlich’ und ’weiblich’ gegeneinander testen. Wir haben schon bei der Durchf¨ uhrung

342

14. Einf¨ uhrung in SPSS

des 2-Stichproben t-Tests bereits gesehen, dass sich das Gehalt geschlechtsspezifisch unterscheidet und erwarten bei dieser Analyse ein ¨ahnliches Ergebnis. Abbildung 14.14 zeigt die Ergebnisse von SPSS. In der Kreuztabelle erkennen wir bereits, dass der Anteil weiblicher Beschäf-

Abb. 14.14. SPSS-Ausgabe zum Test von Fisher

tigter mit niedrigem Gehalt deutlich höher ist als der der männlichen Angestellten. Der p-Wert von 0.000 in der unteren Ausgabe bestätigt dies noch einmal und zeigt, dass Frauen in dieser Bank weitaus weniger im Mittel verdienen als Männer. Zur Durchf¨ uhrung des Tests von McNemar folgt man dem Pfad Analysieren → Nichtparametrische Tests → Tests bei zwei verbundenen Stichproben und w¨ahlt im unteren Bereich des sich ¨ offnenden Fensters den Test von McNemar aus. Analog zur Vorgehensweise beim Test von Fisher definieren wir eine neue Variable ’Agehaltkat’, die angibt, ob das Anfangsgehalt niedrig (< 15000 US$/Jahr) oder hoch (≥ 15000 US$/Jahr) war. Die beiden Variablen ’Gehaltkat’ und ’Agehaltkat’ bilden nun eine verbundene Stichprobe. Wir wollen nun den Anteil eines hohen Gehaltes in den beiden Gruppen ’niedriges Anfangsgehalt’ und ’hohes Anfangsgehalt’ miteinander vergleichen. Es stellt sich also die Frage, ob ein hohes Anfangsgehalt auch ein hohes Gehalt zum aktuellen Zeitpunkt garantiert und analog, ob ein niedriges Anfangsgehalt auch ein niedriges aktuelles Gehalt bedeutet. Die SPSS-Ausgabe zum Test von McNemar ist in Abbildung 14.15 dargestellt.

14.2 Einige praktische Beispiele

343

Abb. 14.15. SPSS-Ausgabe zum Test von McNemar

Der p-Wert von 0.012 verwirft die Nullhypothese zum Niveau α = 0.05 und zeigt, dass ein hohes Einstiegsgehalt nicht zwangsl¨aufig auch ein hohes Gehalt in der Zukunft bedeutet bzw. dass ein geringes Einstiegsgehalt auch die M¨oglichkeit zu einem hohen Gehalt in der Zukunft offen l¨asst. Nichtparametrische Tests. In diesem Abschnitt wollen wir die Anwendung nichtparametrischer Tests mit SPSS demonstrieren. Wie bisher sollen all diejenigen Tests vorgef¨ uhrt werden, die wir bereits in fr¨ uheren Kapiteln kennengelernt haben. Im Rahmen der Anpassungstests wollen wir die Anwendung des Kolmogorov-Smirnov-Tests, sowohl f¨ ur den 1-Stichproben- als auch den 2–Stichprobenfall, demonstrieren. Der χ2 -Anpassungstest ist in SPSS zwar u ¨ ber den Pfad Analysieren → Nichtparametrische Tests → Chi-Quadrat erreichbar, eine sinnvolle Fragestellung ergibt sich f¨ ur unseren Datensatz ’Employee.sav’ jedoch nicht. Uns interessiert nun zun¨ achst, ob unsere Zielgr¨oßen – das Gehalt und das Anfangsgehalt – einer Normalverteilung folgen oder nicht. Dazu folgen wir dem Pfad Analysieren → Nichtparametrische Tests → K-S bei einer Stichprobe. SPSS liefert uns eine Ausgabe, wie in Abbildung 14.16 zu sehen. Die beiden p-Werte von jeweils 0.000 zeigen deutlich, dass die Nullhypothese einer Normalverteilung verworfen werden muss. Abbildung 14.17 unterstreicht dieses Ergebnis noch einmal. Die Histogramme beider Variablen weisen eher auf eine linkssteile Verteilung hin als auf eine Normalverteilung. Wollen wir nun den Kolmogorov-Smirnov-Test zum Vergleich zweier Stichproben durchf¨ uhren, so folgen wir dem Pfad Analysieren → Nichtparametrische Tests → Zwei unabh¨angige Stichproben und w¨ahlen am unteren Bildrand die Option ’Kolmogorov-Smirnov-Z’ aus. In diesem Fall m¨ochten wir nun die Verteilungsfunktion der Variable ’Gehalt’ in den beiden Gruppen ’m¨ annlich’ und ’weiblich’ vergleichen. Abbildung 14.18 zeigt die Ergebnisse von SPSS. Der p-Wert von p = 0.000 zeigt, dass die Nullhypothese zweier identischer Verteilungen verworfen werden muss. Der h¨aufig verwendete Test von Mann-Whitney ist u ¨ ber den Pfad

344

14. Einf¨ uhrung in SPSS

Abb. 14.16. SPSS-Ausgabe zum 1-Stichproben KS-Test

Abb. 14.17. Histogramme der Variablen ’Gehalt’ und ’Anfangsgehalt’

Abb. 14.18. SPSS-Ausgabe zum 2-Stichproben KS-Test

Analysieren → Nichtparametrische Tests → Zwei unabh¨angige Stichproben zu erreichen. In unserem Bankdatensatz interessiert uns weiterhin die Hypothese, ob sich das mittlere Gehalt bei M¨ annern und Frauen unterscheidet.

14.2 Einige praktische Beispiele

345

Der 2-Stichproben t-Test sowie der Test von Fisher zeigen, dass das mittlere Gehalt der m¨annlichen Angestellten signifikant gr¨oßer als das der Frauen ist. Wir erwarten bei der Durchf¨ uhrung des Tests von Mann-Whitney aufgrund der sehr großen Differenz kein anderes Ergebnis als bei den anderen Tests, dennoch wollen wir zur Absicherung auch ihn durchf¨ uhren, da f¨ ur die hier vorliegende Verteilung des Gehalts das arithmetische Mittel sicher nicht das geeignete Maß ist, um die beiden Gruppen miteinander zu vergleichen und bei der Binarisierung f¨ ur den Test von Fisher Information verloren ging. Die SPSS Ausgabe ist in Abbildung 14.19 zu sehen. Der p-Wert von

Abb. 14.19. SPSS-Ausgabe zum Mann-Whitney Test

0.000 best¨atigt noch einmal die Hypothese, dass sich das Gehaltsgef¨ uge bei M¨ annern und Frauen signifikant unterscheidet. Als Homogenit¨ atstest f¨ ur verbundene (abh¨ angige) Stichproben haben wir den Vorzeichentest und den Test von Wilcoxon kennengelernt. Sie sind beide u ¨ber den Pfad Analysieren → Nichtparametrische Tests → Zwei abh¨angige Stichproben zu erreichen. Unsere einzigen abh¨ angigen Variablen sind weiterhin das ’Gehalt’ und das ’Anfangsgehalt’. Dass sich diese beiden im Mittel unterscheiden ist trivial und zudem haben wir dies mit dem gepaarten t-Test bereits nachgewiesen. Deshalb verzichten wir auf die Vorf¨ uhrung dieser beiden Tests an dieser Stelle, demonstrieren ihre Anwendung und Interpretation jedoch mit Hilfe des statistischen Programmpakets R (Kapitel 15.2.2). Zuletzt wollen wir nun noch den nonparametrischen Test auf Korrelation demonstrieren. Dieser ist u ¨ ber Analysieren → Korrelationen → Bivariat

346

14. Einf¨ uhrung in SPSS

erreichbar; der Men¨ upunkt ’Spearman’ muss jedoch noch aktiviert werden. Um den Zusammenhang zwischen ’Gehalt’ und ’Anfangsgehalt’ zu messen, lassen wir uns von SPSS nun den Rangkorrelationskoeffizienten von Spearman berechnen und schauen, ob dieser signifikant von Null verschieden ist. Das Ergebnis ist in Abbildung 14.20 sehen. Der Zusammenhang ist mit 0.826 sehr

Abb. 14.20. SPSS-Ausgabe zum nonparametrischen Test auf Korrelation

stark und dabei signifikant von Null verschieden (p=0.000). Dieses Ergebnis ist keineswegs trivial, wenn wir uns die Ergebnisse vom Test von McNemar in Erinnerung rufen. 14.2.3 Modellierung von Ursache-Wirkungsbeziehungen Lineare Regression. Um m¨ ogliche Effekte auf die H¨ohe des Gehalts der Bankangestellten n¨ aher zu untersuchen, fitten wir ein lineares Regressionsmodell mit ’Gehalt’ als Zielgr¨ oße und allen anderen Variablen als Einflussgr¨oßen. Dazu folgen wir dem SPSS-Pfad Analysieren → Regression → Linear und spezifizieren unsere Zielgr¨ oße y, sowie alle Einflussgr¨oßen xi . Die Variable ’dauer’, die die Dauer der Betriebszugeh¨ origkeit beschreibt, transformieren wir sinngem¨aß um: Statt des Einstiegsjahres (z.B. 1998) geben wir die Dauer in Jahren an (z.B. 2007-1998=9 Jahre) um die entsprechenden Parameter im linearen Regressionsmodell sp¨ ater besser interpretieren zu k¨onnen. Die Variable ’t¨atig’, die die Art der T¨ atigkeit in der Bank beschreibt ist kategorial (in drei Kategorien) und wird von uns daher dummycodiert mit der Kategorie 3 (’Management’) als Referenz. Die Ergebnisse der linearen Regression befinden sich in Abbildung 14.21. Wir betrachten zuerst die zweite Tabelle der Ausgabe. Die dortige ANOVA zeigt uns an, dass die Nullhypothese, dass alle Parametersch¨atzungen gleich Null sind (β1 = ... = βK = 0) verworfen werden muss (p = 0.000). Mindestens einer der Parameter βi ist also signifikant von Null verschieden, d.h. die zugeh¨orige X-Variable besitzt tats¨ achlich einen Einfluss. Welche X-Variablen tats¨achlich einen Einfluss besitzen und wie groß dieser ist, erkennen wir in der

14.2 Einige praktische Beispiele

347

Abb. 14.21. SPSS-Ausgabe zur linearen Regression

dritten Tabelle der SPSS-Ausgabe: Dort sind sowohl die Parametersch¨atzungen bi f¨ ur die Parameter βi aufgelistet, als auch die dazugeh¨orige Teststatistik T f¨ ur die Tests βi = 0 und ein entsprechender p-Wert. Unser Signifikanzniveau soll (wie u ¨ blich) bei α = 0.05 liegen. Da der p-Wert der Variable ’Minderheit’ (p=0.190) unser vorgegebenes Signifikanzniveau u ¨ berschreitet, wollen wir diese aus unserem linearen Modell entfernen (wir w¨ahlen also ein ad-hoc Kriterium zur Modellwahl). Erst nach der Entfernung der betreffenden Variable wollen wir die Parametersch¨ atzungen genauer interpretieren. In Abbildung 14.22 ist die SPSS-Ausgabe f¨ ur das lineare Modell mit allen XVariablen (außer eben der Variable ’Minderheit’) zu sehen. Betrachten wir nun die Ergebnisse von SPSS, so scheint es, dass wir ein passendes lineares Modell gefunden haben: Alle p-Werte zu den Tests auf βi = 0 sind kleiner als unser vorgegebenes Signifikanzniveau, damit sind die bi signifikant von Null verschieden, d.h. alle im Modell befindlichen X-Variablen besitzen einen signifikanten Einfluss. Auch der p-Wert der ANOVA ist (selbstverst¨andlich) kleiner als unser Signifikanzniveau. Der Wert von R2 = 0.918 ist sehr hoch und zeigt, dass das Modell die Daten sehr gut beschreibt. Aufgrund dieser Erkenntnisse wollen wir nun die Parametersch¨atzungen interpretieren: F¨ ur unsere Variable x1 , die das Geschlecht beschreibt (0=’m¨annlich’, 1=’weiblich’), erhalten wir eine Sch¨ atzung von b1 = −1870.063. Dies bedeutet f¨ ur unsere Voraussage des Gehalts, dass –unter Festhalten aller an-

348

14. Einf¨ uhrung in SPSS

Abb. 14.22. SPSS-Ausgabe zur linearen Regression

deren Variablen– Frauen ein um etwa 1800 US$/Jahr geringeres Gehalt erwarten k¨onnen. Aufgrund der bisherigen Untersuchungen ist diese Aussage nicht verwunderlich. Die Parametersch¨ atzung f¨ ur die Variable x2 (’Ausbilur dung (in Jahren)’) liegt bei b2 ≈ 500. Unser Modell prognostiziert also f¨ jedes weitere Jahr in der Ausbildung ein um etwa 500 US$/Jahr h¨oheres Gehalt. Analog hierzu k¨ onnen f¨ ur die stetigen Einflussgr¨oßen ’Anfangsgehalt (x3 )’, ’Berufserfahrung (x4 )’ und ’Dauer der Betiebszugeh¨origkeit (x5 )’ die Parametersch¨ atzungen f¨ ur das entsprechende βi interpretiert werden. Die kategoriale Variable ’Art der Betriebszugeh¨ origkeit’ muss in Bezug auf ihre Referenz interpretiert werden: Unter Festhalten aller anderen X-Variablen erwartet unser Modell f¨ ur die Kategorie 2 (’Sicherheitspersonal’) ein um rund 4500 US$/Jahr geringeres Gehalt als in der Referenzkategorie (’Management’) bzw. f¨ ur die Kategorie 1 (’B¨ uro’) ein um rund 11000 US$/Jahr geringeres Gehalt. Die Theorie sowie die Anwendung statistischer Regressionsmodelle ist ein anspruchsvolles und weitreichendes Feld. In der linearen Regression m¨ ussen prinzipiell Grundannahmen (z.B. die Normalverteilung der Residuen) u ¨berpr¨ uft werden und bei Problemen sollte das Modell geeignet adjustiert werden. Wir empfehlen daher zus¨ atzlich noch den Gebrauch von Spezialliteratur, wie z.B. Toutenburg (2003). Varianzanalyse. F¨ ur eine einfaktorielle Varianzanalyse w¨ahlt man den SPSS-Pfad

14.2 Einige praktische Beispiele

349

Analysieren → Mittelwerte vergleichen → Einfaktorielle ANOVA. F¨ ur unseren Datensatz Employee.sav betrachten wir noch einmal den Einfluss des Faktors ’Art der T¨ atigkeit’ auf das Gehalt. Die SPSS-Ausgabe zur einfaktoriellen ANOVA ist in Abbildung 14.23 zu sehen. Da der p-Wert kleiner als unser Signifikanzniveau von α = 0.05 ist, verwerfen

Abb. 14.23. SPSS-Ausgabe zur einfaktoriellen ANOVA

wir die Nullhypothese gleicher Mittelwerte in den Gruppen (μ1 = μ2 = μ3 ) und stellen fest, dass sich das mittlere Gehalt in mindestens zwei der T¨atigkeitsgruppen unterscheidet. Die deskriptiven Statistiken in Abbildung 14.24 liefern hierf¨ ur noch detailliertere Informationen. Das mittlere Gehalt der B¨ uroangestellten liegt bei etwa 28000 US$/Jahr, das des Bewachungspersonals bei etwa 31000 US$/Jahr und das des Managements bei 64000 US$/Jahr. Der paarweise Vergleich der Mittelwerte kann nun u ¨ber drei separate t-Tests durchgef¨ uhrt werden. Es stellt sich heraus, dass sich alle drei Mittelwerte signifikant unterscheiden.

Abb. 14.24. Vergleich der Mittelwerte in den Gruppen

Bereits in Abbildung 14.17, sowie bei der Durchf¨ uhrung des KolmogorovSmirnov Tests auf Normalverteilung haben wir gesehen, dass die Annahme einer Normalverteilung f¨ ur die Responsevariable ’Gehalt’ nicht zu vertreten ist. Wir wollen unser Ergebnis daher mit der Durchf¨ uhrung des KruskalWallis Tests u ufen. Hierzu folgt man dem SPSS-Pfad ¨berpr¨ Analysieren → Nonparametrische Tests → K unabh¨angige Stichproben und w¨ahlt den Men¨ upunkt ’Kruskal-Wallis-H’ aus. Die Ergebnisse von SPSS sind in Abbildung 14.26 zu sehen. Der p-Wert ist auch hier deutlich unter

350

14. Einf¨ uhrung in SPSS

Abb. 14.25. SPSS-Ausgabe zum Kruskal-Wallis Test

unserem vorgegebenen Signifikanzniveau und best¨atigt unsere Hypothese eines unterschiedlichen mittleren Gehalts in den drei T¨atigkeitsgruppen. Zur Demonstration der zweifaktoriellen ANOVA betrachten wir neben dem Faktor ’Art der T¨ atigkeit’ des weiteren noch den Faktor ’Geschlecht’. Zur Durchf¨ uhrung unserer Analyse w¨ ahlen wir den SPSS-Pfad Analysieren → Allgemeines lineares Modell → Univariat und w¨ahlen als abh¨ angige Variable das Gehalt und als feste Faktoren das T¨atigkeitsfeld, sowie das Geschlecht aus. Die Ergebnisse von SPSS sind in Abbildung 14.26 zu sehen. Wir sehen, dass nicht nur beide Faktoren, son-

Abb. 14.26. SPSS-Ausgabe zur zweifaktoriellen ANOVA mit Interaktion

dern auch die Wechselwirkung signifikant ist. Diese Tatsache ist auch in Abbildung 14.27 zu sehen. Das mittlere Gehalt von M¨anner und Frauen unterscheidet sich in der T¨ atigkeitsgruppe ’Management’ deutlich st¨arker als in der T¨atigkeitsgruppe ’B¨ uro’. Das Personal des Sicherheitsdienstes besteht nur aus M¨annern und kann in der Interpretation nicht ber¨ ucksichtigt werden. Analyse von Kontingenztafeln. Bei der Analyse von Kontingenztafeln, und der damit verbundenen Fragestellung nach der Abh¨angigkeit bzw. Unabh¨angigkeit zweier kategorialer Gr¨ oßen folgen wir dem SPSS-Pfad

14.2 Einige praktische Beispiele

351

Abb. 14.27. Darstellung des Interaktionseffektes bei der zweifaktoriellen ANOVA

Analysieren → Deskriptive Statistiken → Kreuztabellen und markieren den Button ’Chi-Quadrat’ im Optionsfeld ’Statistik’. Wir interessieren uns f¨ ur den Zusammenhang der von uns erstellten bin¨aren Variable ’Gehaltkat’, die zwischen hohem und geringem Gehalt unterscheidet, und dem Geschlecht. Bereits bei der Durchf¨ uhrung des Tests von Fisher interessierten uns diese beiden Gr¨ oßen. Wir haben herausgefunden, dass sich die Anteile an geringem Gehalt bei M¨ annern und Frauen signifikant unterschiedet. Unsere Tests auf Unabh¨ angigkeit (siehe Abbildung 14.28) best¨atigen dieses Bild noch einmal. Die p-Werte von jeweils 0.000 beim χ2 -Test und MLQ-Test verwerfen die Nullhypothese der Unabh¨ angigkeit der beiden Variablen. Lebensdaueranalyse. In SPSS k¨ onnen im Men¨ upunkt ¨ Analysieren → Uberlebensanalyse zahlreiche Analysen der Lebensdaueranalyse durchgef¨ uhrt werden, wie beispielsweise die Kaplan-Meier-Sch¨ atzung f¨ ur die Survivorfunktion oder die Durchf¨ uhrung einer Cox-Regression. Wir verzichten an dieser Stelle auf ein weiteres Beispiel und verweisen auf die SPSS-Ausgaben in Kapitel 12.1, sowie auf Kapitel 15.2.3, in dem zahlreiche Methoden der Lebensdaueranalyse mit Hilfe des statistischen Programmpakets R vorgef¨ uhrt werden.

352

14. Einf¨ uhrung in SPSS

Abb. 14.28. SPSS-Ausgabe zum χ2 -Test und MLQ-Test auf Unabh¨ angigkeit

15. Einfu ¨hrung in R

R (R Development Core Team, 2007) ist ein statistisches Softwarepaket, das u ugung gestellt wird. Es handelt um ein sogenanntes ¨ber das Internet zur Verf¨ open source Projekt, bei dem der komplette Quelltext der Software eingesehen werden kann und das unter der GNU General Public License steht. Dadurch kann es auf unterschiedlichen Betriebssystemen verwendet werden, u.a. Apple Mac OS X, Linux, Sun Solaris und Microsoft Windows. W¨ahrend bei dem in Kapitel 14 eingef¨ uhrten statistischen Softwarepaket SPSS die einfache Handhabung fest implementierter Prozeduren u ¨ber eine grafische Benutzeroberfl¨ache im Vordergrund steht, zeichnet sich R durch eine praktisch unbegrenzt m¨ogliche Erweiterung durch neue Funktionen und Verfahren aus. Neben dem gut ausgetesteten Basispaket, welches bereits eine hohe Funktionalit¨ at hinsichtlich statistischer Verfahren und grafischer Darstellungsm¨oglichkeiten f¨ ur Daten besitzt, gibt es eine große Anzahl an zus¨atzlichen R-Paketen mit modernsten statistischen Verfahren f¨ ur die unterschiedlichsten Datensituationen und Einsatzzwecke. Dazu z¨ ahlen auch Methoden, die weit u ¨ ber die in diesem Buch besprochenen Verfahren hinausgehen, wie z.B. modernste Verfahren zur statistischen Modellierung, zur Zeitreihenanalyse und zu datengesteuerten multivariaten Analysen mit sogenannten Data Mining Methoden. Mit Hilfe solcher Zusatzpakete kann jeder, der es w¨ unscht, der gesamten R Benutzergemeinde neue Funktionalit¨ at zug¨ anglich machen. F¨ ur einen Abriß der Geschichte von R, sowie Hintergr¨ unde zur Programmiersprache S, welche durch R im wesentlichen implementiert wurde, verweisen wir auf die B¨ ucher von Ligges (2007), Dalgaard (2002) und Venables und Ripley (2002).

15.1 Installation und Grundaufbau des Programmpakets R Der Einfachheit halber beschr¨ anken wir uns hier auf die Beschreibung der Version f¨ ur das Betriebssystem Microsoft Windows. Wie bereits erw¨ahnt, wird die Software u ugung gestellt. Einstiegspunkt ¨ ber das Internet zur Verf¨ ist die Webseite http://www.r-project.org/. Von dort bewegt man sich weiter zum sogenannten Comprehensive R Archive Network (CRAN). Dort w¨ahlt man einen Spiegelserver aus, von wo aus man zun¨achst auf eine weitere Seite gelangt, die die Auswahl base (Basispaket) oder contrib (Zusatzpakete)

354

15. Einf¨ uhrung in R

erlaubt. Nach Auswahl von base gelangt man auf die Seite, welche die Installationsroutine f¨ ur die Windows Version verlinkt. Diese hat die Gestalt R-2.x.y-win32.exe, wobei x den Major Revision Stand angibt und y den Minor Revision Stand (in der Regel 0 oder 1). Die Versionen mit y gleich 1 sind in der Regel die stabileren Versionen, bei denen Fehler der Versionen mit y gleich 0 bereits bereinigt wurden. Nach Herunterladen dieser ausf¨ uhrbaren Datei wird die Installation durch einen Doppelklick auf die Datei R-2.x.ywin32.exe gestartet. Nach der Installation ist R u u von ¨ber das Start Men¨ Windows ausf¨ uhrbar. Es gibt auch eine eigene R for Windows FAQ (frequently asked questions) Liste, wo Windows-spezifische Tips gegeben werden bzw. Probleme und deren L¨ osung behandet werden. Nach dem Start des Programms o¨ffnet sich ein Fenster, das sogenannte Kommandofenster mit dem Gr¨oßerzeichen“ > als Eingabeaufforderung. Im Prinzip kann R damit als ” u ¨ berdimensionierter“ Taschenrechner benutzt werden. Dazu wollen wir im ” folgenden Abschnitt einige Beispiele angeben. F¨ ur die Programierung in R sollte man sich allerdings einen benutzerfreundlichen Texteditor besorgen, der mindestens Syntax–Highlighting f¨ ur R Quelltext besitzt. F¨ ur Windows gibt es unter http://www.sciviews.org/Tinn-R/ einen Editor, der weitergehende Integration mit R anbietet. So k¨ onnen einzelne Zeilen, markierte Bl¨ocke oder ganze Dateien mit R Kommandos direkt aus dem Editor Tinn-R heraus in R ausgef¨ uhrt werden. Wenn man Hilfe zu einer bekannten R–Funktion sucht, so kann man diese durch die Eingabe ?Funktion“ erhalten. ” 15.1.1 R als u ¨ berdimensionierter Taschenrechner Die Eingabe eines arithmetischen Ausdrucks erfolgt mit den auch in anderen Programmiersprachen u ¨ blichen Operatoren (+, −, ∗, /). Die Eingabe von > 3*4 liefert das erwartete Ergebnis 12 und in der n¨achsten Zeile wartet R an der Eingabeaufforderung auf eine erneute Eingabe. > 3*4 [1] 12 > Die [1] ist hier ohne Bedeutung und spielt erst bei R¨ uckgabewerten wie Vektoren, Listen und Matrizen eine Rolle. Es handelt sich dann um den Index des ersten Elements in dieser Zeile. Beispielsweise l¨asst sich ein Vektor mit Hilfe des Bindungsbefehls c() erzeugen. Arithmetische Operationen werden dann auf jedes Element des Vektors angewendet. Im folgenden Beispiel wird jedes Element des Vektors (3, 4, 5) quadriert. > c(3,4,5)^2 [1] 9 16 25

15.1 Installation und Grundaufbau des Programmpakets R

355

Die sogenannte Recycling-Eigenschaft von R l¨ asst auch Befehle der folgenden Art zu, die man als vektorisierte Artihmetik bezeichnet. > c(3,4,5,6) * c(2,7) [1] 6 28 10 42 Dies ist also ¨aquivalent zu > c(3,4,5,6) * c(2,7,2,7) [1] 6 28 10 42 Nat¨ urlich stehen auch mathematische Funktionen, wie Wurzelfunktion, Sinusfunktion, Cosinusfunktion, Logarithmus oder Exponentialfunktion zur Verf¨ ugung. Der nat¨ urliche Logarithmus wird zum Beispiel durch die Funktion log() definiert, die Exponentialfunktion durch exp() und die Wurzelfunktion durch sqrt(). > log(4) [1] 1.386294 > exp(log(4)) [1] 4 > sqrt(2) [1] 1.414214 Hilfe zu dieser Funktion erh¨ alt man durch ?sqrt 15.1.2 Programmiersprache R Mit R lassen sich nicht nur einfache Kalkulationen wie im vorigen Abschnitt durchf¨ uhren sondern R erlaubt die Programmierung komplexer Funktionen. Dabei stehen die u ¨ blicherweise in einer Programmiersprache vorhandenen Konstrukte wie Schleifen (for, while, repeat), bedingte Ausf¨ uhrungen (if, else) und Funktionen (function()) zur Verf¨ ugung. Zuweisungen an Variablen erfolgen durch die Operatoren x y = c(8,9,10) > print(x) [1] 5 > print(y) [1] 8 9 10 > x+y [1] 13 14 15 In der Kommandozeile kann man den print()–Befehl auch weglassen.

356

15. Einf¨ uhrung in R

> x [1] 5 > y [1] 8

9 10

Eine Funktion, die das artihmetische Mittel berechnet, k¨onnte so aussehen (es gibt bereits die Standardfunktion mean in R, welche das und noch mehr erledigt). Wir nehmen dazu einen Editor unserer Wahl (Windows Wordpad geht auch) und tippen ein: mein.mittelwert mein.mittelwert Die sum()–Funktion u ¨ bernimmt dabei die Hauptaufgabe, alle Elemente des Vektors x zu summieren, der der Funktion mit dem Namen mein.mittelwert u ¨bergeben wird. Die Funktion length() liefert die L¨ange des Vektors (die Anzahl der Elemente des Vektors) zur¨ uck. Das folgende Beispiel liefert das erwartete Ergebnis, das auch mit der Standardfunktion mean() u ¨ bereinstimmt. > x =c(8,9,13) > mein.mittelwert(x) [1] 10 > mean(x) [1] 10 Wie man sieht, k¨ onnen Funktionen– und Variablennamen einen Punkt enthalten. 15.1.3 Grafische F¨ ahigkeiten von R R besitzt bereits im Basis–Paket eine Vielzahl grafischer Darstellungsm¨oglichkeiten f¨ ur Daten, insbesondere alle bekannten Darstellungen der deskritptiven

15.1 Installation und Grundaufbau des Programmpakets R

357

Statistik. Dazu z¨ ahlen zum Beipiel Balkendiagramme (barchart()), Boxplots (boxplot()) und Histogramme (hist()). Einfaches Streudiagramm. Dazu betrachten wir das Beispiel 9.3.2. Zun¨achst geben wir die Daten, also die beiden Vektoren x und y, ein: > x y plot(x,y, xlim=c(0,10), ylim=c(-10,20)) Dabei haben wir die zus¨ atzlichen Argumente xlim, ylim verwendet, um das gleiche Koordinatensystem wie in Abbildung 9.3 zu erhalten. Um die Grafik dauerhaft abzuspeichern (zum Beispiel als Postscript, PDF oder JPEG Datei) gen¨ ugt es, vor dem Zeichenbefehl eine entsprechende Datei zu ¨offnen. Nach Ausf¨ uhrung des Zeichenbefehls wird die Datei mit dem Befehl dev.off() geschlossen und ist anschliessend im aktuellen Verzeichnis, welches mit getwd() herausgefunden werden kann. Die Funktion setwd() wechselt in ein entsprechendes Verzeichnis. Die folgende Sequenz von Befehlen erzeugt eine PDF Datei mit dem Namen regression_beispiel_932.pdf im Verzeichnis C:/R/proj/buch in Laufwerk C, welche das Streudiagramm enth¨alt. > setwd("C:/R/proj/buch") > getwd() [1] "C:/R/proj/buch" > pdf("regression_beispiel_932.pdf") > plot(x,y, xlim=c(0,10), ylim=c(-10,20)) > dev.off() Die erzeugte Grafik ist in Abbildung 15.1 zu sehen. Einfaches Streudiagramm mit Regressionsgerade. Um die Regressionsgerade einzuzeichnen, f¨ uhren wir zun¨ achst die lineare Regression durch (Funktion lm()). Die Regressionsformel wird dabei in der Form y~x angegeben, was anzeigt, dass y die abh¨ angige Variable oder Zielvariable darstellt und x die ucksichtigt. Einflussgr¨oße. Die Konstante (Intercept) β0 wird automatisch ber¨ ¨ Die summary()–Funktion gibt sofort einen Uberblick u ¨ ber die wesentlichen Kenngr¨oßen der Regression. Die Parametersch¨atzungen βˆ0 und βˆ1 erh¨alt man mit der Funktion coefficients. Die abline()–Funktion f¨ ugt dann die Gerade zu der Grafik 15.1 hinzu > modell print( summary(modell) ) Call: lm(formula = y ~ x)

15. Einf¨ uhrung in R

y

−10

−5

0

5

10

15

20

358

0

2

4

6

8

10

x

Abb. 15.1. R–Output zu Beispiel 9.3.2

Residuals: Min 1Q -2.000e+00 -3.287e-16

Median 6.312e-16

3Q 1.000e+00

Max 1.000e+00

Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -1.0000 0.7416 -1.348 0.214 x 2.0000 0.1581 12.649 1.43e-06 *** --Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1 Residual standard error: 1.225 on 8 degrees of freedom Multiple R-Squared: 0.9524, Adjusted R-squared: 0.9464 F-statistic: 160 on 1 and 8 DF, p-value: 1.434e-06 > betadach plot(x,y, xlim=c(0,10), ylim=c(-10,20)) > abline(a=betadach[1], b=betadach[2] )

Das Ergebnis ist in Abbildung 15.2 zu sehen. Alternativ kann zum Einzeichnen der Gerade der lines()–Befehl verwendet werden. Die Gerade ist ja durch die Regressonsgleichung yˆi = βˆ0 + βˆ1 ∗ xi

359

y

−10

−5

0

5

10

15

20

15.1 Installation und Grundaufbau des Programmpakets R

0

2

4

6

8

10

x

Abb. 15.2. R–Output zu Beispiel 9.3.2 (Fortsetzung)

bestimmt: > plot(x,y, xlim=c(0,10), ylim=c(-10,20)) > lines(x, betadach[1] + betadach[2] *x ) Man erkennt an Abbildung 15.3, dass sich die Grafik leicht von der Grafik 15.2 unterscheidet bzgl. der L¨ ange der gezeichneten Gerade. In Abbildung 15.3 wird der Wertebereich der x-Werte ber¨ ucksichtigt. Zeichnen von Funktionen. R bietet die Funktion curve(), die ein einfaches Zeichnen von Funktionen erlaubt. Will man beipielsweise die Sinusfunktion im Bereich [0, 2π] zeichnen, so erreicht man dies durch einen einzigen Befehl: > curve( sin(x), from=0, to=2*pi) > abline(h=0) Das Ergebnis ist in Abbildung 15.4 zu sehen. Dabei wurde mit abline(h=0) eine zus¨atzliche horizontale Linie bei 0 eingezeichnet. Die Kreiszahl π erh¨alt man in R durch die definierte Konstante pi. Wollen wir wissen, welche trigonometrischen Funktionen in R implementiert sind, so hilft uns die Hilfeseite > ?sin weiter.

15. Einf¨ uhrung in R

y

−10

−5

0

5

10

15

20

360

0

2

4

6

8

10

x

Abb. 15.3. R–Output zu Beispiel 9.3.2 (Fortsetzung)

15.2 Einige praktische Beispiele Hier orientieren wir uns im Wesentlichen an den Beipielen aus Abschnitt 14.2. Dies bietet eine gute Gelegenheit, die beiden unterschiedlichen Philosophien“ ” der Programme SPSS und R kennenzulernen. D.h. wir wollen speziell, in Bezug auf den ersten Teil des Buches, die Wahrscheinlichkeitstheorie und die Erzeugung von Zufallszahlen mit R demonstrieren. Anschließend steht die Anwendung statistischer Tests (Teil II des Buches), sowie die Modellierung von Ursache-Wirkungsbeziehungen (Teil III des Buches) im Vordergrund. 15.2.1 Wahrscheinlichkeitstheorie und die Erzeugung von Zufallszahlen In R sind bereits f¨ ur eine Vielzahl von Verteilungen jeweils vier Funktionen implementiert: die Dichtefunktion f (x) (bei stetigen Zufallsvariablen) bzw. die Wahrscheinlichkeitsfunktion (bei diskreten Variablen), die Verteilungsfunktion F (x), die Quantilsfunktion (also die Umkehrfunktion zur Verteilungsfunktion) und eine Funktion zur Erzeugung von Zufallszahlen. Beispiel 15.2.1 (Normalverteilung mit Mittelwert 0 und Varianz 2). Die Funktionen sind • dnorm(x, mean=0, sd=sqrt(2) ) f¨ ur die Dichtefunktion an der Stelle x. Man beachte, dass R die Standardabweichung (Wurzel aus der Varianz) als Parameter verlangt.

361

0.0 −1.0

−0.5

sin(x)

0.5

1.0

15.2 Einige praktische Beispiele

0

1

2

3

4

5

6

x

Abb. 15.4. Sinusfunktion im Bereich [0, 2π]

• pnorm(x, mean=0, sd=sqrt(2) ) f¨ ur die Verteilungsfunktion • qnorm(p, mean=0, sd=sqrt(2) ) f¨ ur die Quantilsfunktion • rnorm(n=100, mean=0, sd=sqrt(2) ) f¨ ur die Erzeugung von Zufallszahlen (hier gleich 100 Zufallszahlen) Die Pr¨afixe d,p,q,r der Funktionen werden dabei f¨ ur alle Verteilungen verwendet. Beispiel 15.2.2 (Standardnormalverteilung). • Wert der Verteilungsfunktion an der Stelle x = 0: > pnorm(0.0) [1] 0.5 • 95%–Quantil und 97.5%–Quantil: > qnorm(p=0.95) [1] 1.644854 > qnorm(p=0.975) [1] 1.959964 • Histogramm von 1000 Zufallszahlen: > x hist(x, xlim=c(-4,4), ylim=c(0,0.5), prob=T)

362

15. Einf¨ uhrung in R

Das Maximum der Dichte einer N (0, 1) ist √12π ≈ 0.3989423, so dass der angegebene Bereich der y–Achse ausreichend ist (zwischen 0 und 0.5). Die Wahrscheinlichkeit einer Beobachtung kleiner als −4 oder gr¨oßer als 4 ist ebenfalls gering, so dass auch der angegebene Bereich der x–Achse ausreicht. Der Parameter prob=TRUE gibt an, dass wir relative und keine absoluten H¨aufigkeiten darstellen wollen (die Rechtecke summieren sich zu 1 auf). Wir k¨onnen u urzende Schreib¨ brigens statt prob=TRUE auch die abk¨ weise prob=T verwenden. Das Histogramm ist in Abbildung 15.5 dargestellt.

0.0

0.1

0.2

Density

0.3

0.4

0.5

Histogram of x

−4

−2

0

2

4

x

Abb. 15.5. Histogramm von 1000 standardnormalverteilten Zufallszahlen

Der zentrale Grenzwertsatz. Wir wollen den zentralen Grenzwertsatz aus Kapitel 5.3 veranschaulichen. Als Verteilung f¨ ur die Xi w¨ahlen wir eine Poisson– Verteilung mit Parameter λ = 2. F¨ ur die Stichprobengr¨oße probieren wir nacheinander n = 5, n = 10, n = 100 und n = 5000. Aus diesen n Zufallszahlen berechnen wir die standardisierten Summen n Xi − nλ , Yn = i=1√ nλ da f¨ ur die Poisson–Verteilung E(Xi ) = Var(Xi ) = λ gilt. Um die Verteilung dieser Summe darstellen zu k¨ onnen, wiederholen wir diesen Vorgang N = 1000 mal. Der R Quelltext sieht f¨ ur n = 100 (andere n analog) folgendermaßen aus:

15.2 Einige praktische Beispiele

363

N=1000 n cat("Anfangsgehalt: ", mean(agehalt)," Anfangsgehalt: 17016.09 7870.638

", sd(gehalt), "\n" ) ", sd(agehalt), "\n" )

Bei dieser Gelegenheit haben wir den cat Befehl kennengelernt, mit dem man numerische Werte und Zeichenketten zu einer Konsolenausgabe in einer Zeile verkn¨ upfen kann. Nicht fehlen sollte dabei das abschließende newline (neue Zeile) durch "\n". Die R Ausgabe des gepaarten t–Tests lautet: > t.test(gehalt, agehalt, paired=TRUE, alternative="two.sided") Paired t-test data: gehalt and agehalt t = 35.036, df = 473, p-value < 2.2e-16 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: 16427.41 18379.56 sample estimates: mean of the differences 17403.48

Die R Ausgabe stimmt auch hier mit der Ausgabe in Abbildung 14.10 von SPSS u ¨ berein. Die Nullhypothese, dass die Differenz der aktuellen Geh¨alter und der Anfangsgeh¨ alter 0 ist, wird abgelehnt (α = 0.05). Tests auf Varianz. Hier bietet R den F–Test zum Vergleich zweier Varianzen, vergleiche Abschnitt 7.4.1. Die R Funktion lautet var.test(). Hier ist ein Auszug aus dem Hilfesystem: var.test(x, y, ratio = 1, alternative = c("two.sided", "less", "greater"), conf.level = 0.95, ...)

Der Parameter ratio gibt das Verh¨ altnis der Varianzen in der Nullhypothese an (standardm¨aßig wird also die Gleichheit der Varianzen als Nullhypothese formuliert). Wollen wir also zum Beispiel die Varianzen der Teilpopulationen der M¨anner und Frauen auf diese Nullhypothese testen, so geht das in R wie folgt: > var.test(maenner$gehalt, frauen$gehalt, alternative="two.sided")

370

15. Einf¨ uhrung in R F test to compare two variances data: maenner$gehalt and frauen$gehalt F = 6.6561, num df = 257, denom df = 215, p-value < 2.2e-16 alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: 5.140924 8.592188 sample estimates: ratio of variances 6.656071

Die Nullhypothese wird also abgelehnt (α = 0.05). Tests auf Korrelation. Uns interessiert nun der Zusammenhang zwischen der ’Berufserfahrung in Monaten’ (Variable erfahr im Datensatz) und dem ’Gehalt’. Abbildung 14.11 enth¨ alt zum Vergleich die entsprechenden Ergebnisse mit SPSS. R stellt daf¨ ur die Funktion cor.test() zur Verf¨ ugung. Es folgt wieder ein Auszug aus der Hilfedatei. cor.test(x, ...) ## Default S3 method: cor.test(x, y, alternative = c("two.sided", "less", "greater"), method = c("pearson", "kendall", "spearman"), exact = NULL, conf.level = 0.95, ...) ## S3 method for class ’formula’: cor.test(formula, data, subset, na.action, ...) Arguments: x, y: numeric vectors of data values. same length.

’x’ and ’y’ must have the

alternative: indicates the alternative hypothesis and must be one of ’"two.sided"’, ’"greater"’ or ’"less"’. You can specify just the initial letter. ’"greater"’ corresponds to positive association, ’"less"’ to negative association. method: a character string indicating which correlation coefficient is to be used for the test. One of ’"pearson"’, ’"kendall"’, or ’"spearman"’, can be abbreviated. exact: a logical indicating whether an exact p-value should be computed. Only used for Kendall’s tau. See the Details for the meaning of ’NULL’ (the default). conf.level: confidence level for the returned confidence interval. Currently only used for the Pearson product moment correlation coefficient if there are at least 4 complete pairs of observations.

15.2 Einige praktische Beispiele

371

Da wir hier an einem parametrischen Test interessiert sind, verwenden wir den Korrelationskoeffizienten nach Bravais–Pearson. > cor.test(gehalt, erfahr, alternative="two.sided") Pearson’s product-moment correlation data: gehalt and erfahr t = -2.1277, df = 472, p-value = 0.03388 alternative hypothesis: true correlation is not equal to 0 95 percent confidence interval: -0.185900660 -0.007466824 sample estimates: cor -0.09746693 Die Ergebnisse stimmen mit den von SPSS berechneten u ¨berein. Obwohl also die Korrelation (absolut) klein ist (−0.097), ist sie von Null verschieden (p– Wert von 0.034, α = 0.05). Zur Erkl¨ arung sei auf Abschnitt 14.2.2 verwiesen. Interessanter ist vielleicht die Korrelation von Anfangsgehalt und Gehalt: > cor.test(gehalt, agehalt, alternative="two.sided") Pearson’s product-moment correlation data: gehalt and agehalt t = 40.2755, df = 472, p-value < 2.2e-16 alternative hypothesis: true correlation is not equal to 0 95 percent confidence interval: 0.8580696 0.8989267 sample estimates: cor 0.8801175 D.h. die Korrelation ist hoch (0.88) und die Nullhypothese (Korrelation ist 0) wird abgelehnt zum Niveau α = 0.05. Tests auf Binomialwahrscheinlichkeiten. Uns interessiert, ob der Anteil der M¨anner und der Frauen in der Bank gleich groß ist, oder anders formuliert, ob der Anteil der M¨ anner bei p = 0.5 liegt oder nicht. SPSS liefert uns dazu die Ausgabe in Abbildung 14.13. R stellt f¨ ur diese Fragestellung die Funktion binom.test() zur Verf¨ ugung. Hier ist ein Auszug aus der Hilfe: Description: Performs an exact test of a simple null hypothesis about the probability of success in a Bernoulli experiment. Usage:

372

15. Einf¨ uhrung in R

binom.test(x, n, p = 0.5, alternative = c("two.sided", "less", "greater"), conf.level = 0.95) Arguments: x: number of successes, or a vector of length 2 giving the numbers of successes and failures, respectively. n: number of trials; ignored if ’x’ has length 2. p: hypothesized probability of success. alternative: indicates the alternative hypothesis and must be one of ’"two.sided"’, ’"greater"’ or ’"less"’. You can specify just the initial letter. conf.level: confidence level for the returned confidence interval. Details: Confidence intervals are obtained by a procedure first given in Clopper and Pearson (1934). This guarantees that the confidence level is at least ’conf.level’, but in general does not give the shortest-length confidence intervals.

Wir wissen bereits, dass der Datensatz 258 M¨anner und 216 Frauen enth¨alt. Damit l¨asst sich der Test einfach durchf¨ uhren: > binom.test(c(258,216), p=0.5, alternative="two.sided") Exact binomial test data: c(258, 216) number of successes = 258, number of trials = 474, p-value = 0.05956 alternative hypothesis: true probability of success is not equal to 0.5 95 percent confidence interval: 0.4982562 0.5897954 sample estimates: probability of success 0.5443038

Der M¨anneranteil betr¨ agt also 0.54, der p–Wert 0.05956 oder gerundet 0.06. Die Nullhypothese kann nicht abgelehnt werden (α = 0.05). Zum Vergleich zweier Binomialwahrscheinlichkeiten haben wir den (approximativen) Binomialtest, den Test von Fisher, sowie den Test von McNemar kennengelernt. In unserem Datensatz ’employee.dat’ definieren wir uns zuerst eine neue Variable ’gehaltkat’, die angibt, ob ein Gehalt niedrig (< 28875 US$/Jahr) oder hoch (≥ 28875 US$/Jahr) ist. Wir wollen nun die

15.2 Einige praktische Beispiele

373

beiden Binomialwahrscheinlichkeiten f¨ ur ein niedriges Gehalt in den beiden Gruppen ’m¨annlich’ und ’weiblich’ gegeneinander testen. Wir haben bei der Durchf¨ uhrung des 2-Stichproben t-Tests bereits gesehen, dass sich das Gehalt geschlechtsspezifisch unterscheidet und erwarten bei dieser Analyse ein ¨ahnliches Ergebnis. Abbildung 14.14 zeigt wieder die entsprechenden Ergebnisse von SPSS. Zur Kategorisierung kann in R der Befehl cut() verwendet werden. Die summary() Funktion f¨ ur Gehalt liefert: > summary(gehalt) Min. 1st Qu. Median 15750 24000 28880

Mean 3rd Qu. 34420 36940

Max. 135000

Der Median ist 28880. Wir teilen die Variable genau am Median in 2 Intervalle auf, um die neue Variable zu erhalten: > gehaltkat print(summary(gehaltkat)) =28880 US$/Jahr 237 237 D.h. die Stichprobe wird genau in 2 gleich große Teile bzgl. Gehalt aufgeteilt. Um die gew¨ unschten Intervalle wie angegeben zu erhalten, m¨ usste steng genommen der Befehl noch modifiziert werden, denn exakt 28880 US$ soll ja nicht im ersten Intervall enthalten sein (um den Effekt zu sehen, verzichten wir hier auf labels): > gehaltkat print(summary(gehaltkat)) [0,2.89e+04) [2.89e+04,1.4e+05) 237 237

right=FALSE bewirkt, dass die obere Intervallgrenze jeweils offen ist. Es ergibt sich hier aber kein Unterschied zur urspr¨ unglichen Einteilung mit der Voreinstellung right=TRUE (obere Intervallgrenze abgeschlossen). > gehaltkat print(summary(gehaltkat)) (0,2.89e+04] (2.89e+04,1.4e+05] 237 237

Die 2 × 2 Kontingenztafel kann jetzt mittels der table() Funktion erstellt werden: > table(gehaltkat, geschl) geschl gehaltkat m w =28880 US$/Jahr 185 52 In R stehen nun mehrere Funktionen zur Verf¨ ugung.

374

15. Einf¨ uhrung in R

χ2 –Test. Der χ2 –Test wird durch die Funktion chisq.test() in R zur Verf¨ ugung gestellt. Dazu k¨ onnen wir direkt obiges table() Objekt u ¨bergeben: > chisq.test( table(gehaltkat, geschl), correct=FALSE ) Pearson’s Chi-squared test data: table(gehaltkat, geschl) X-squared = 106.6942, df = 1, p-value < 2.2e-16 Wir erhalten das gleiche Ergebnis wie in der entsprechenden Zeile der SPSS Ausgabe aus Abbildung 14.14 (ohne Stetigkeitskorrektur, correct=FALSE). Mit Stetigkeitskoreektur erhalten wir entsprechend die zweite Zeile der SPSS Ausgabe aus Abbildung 14.14: > chisq.test( table(gehaltkat, geschl), correct=TRUE ) Pearson’s Chi-squared test with Yates’ continuity correction data: table(gehaltkat, geschl) X-squared = 104.7975, df = 1, p-value < 2.2e-16

Exakter Test von Fisher. Hierzu kann die Funktion fisher.test() verwendet werden. > fisher.test( table(gehaltkat, geschl) ) Fisher’s Exact Test for Count Data data: table(gehaltkat, geschl) p-value < 2.2e-16 alternative hypothesis: true odds ratio is not equal to 1 95 percent confidence interval: 0.08095576 0.19292121 sample estimates: odds ratio 0.1257671

Zu bemerken ist, dass der Odds Ratio hier nicht durch den Stichproben Odds Ratio gesch¨atzt wird, sondern durch ein komplizierteres Verfahren (bedingte Maximum–Likelihood Sch¨ atzung). Deshalb unterscheidet sich obiger Wert von 0.1257671 leicht vom Stichproben Odds Ratio: > sampleor print(sampleor) [1] 0.1251154 Im Prinzip k¨ame hier nat¨ urlich auch eine einseitige Fragestellung in Betracht. Der exakte Test von Fisher kann dies ber¨ ucksichtigen (nicht dagegen der χ2 – Test).

15.2 Einige praktische Beispiele

375

In der Kreuztabelle (Seite 373 unten) erkennen wir bereits, dass der Anteil weiblicher Besch¨ aftigter mit niedrigem Gehalt deutlich h¨oher ist als der der m¨annlichen Angestellten. Die Ausgaben sowohl der χ2 –Tests als auch des exakten Tests von Fisher best¨ atigen dies noch einmal (alle p–Werte kleiner als α = 0.05). Test von McNemar f¨ ur abh¨angige Stichproben. F¨ ur abh¨angige Stichproben bin¨arer Merkmale steht der Test von McNemar in R u ¨ ber die Funktion mcnemar.test() zur Verf¨ ugung. Wir wollen dazu eine weitere kategorisierte Variable ’agehaltkat’ aus der Variablen ’agehalt’ ableiten und diese mit der kategorialen (bin¨ aren) Variable ’gehaltkat’ vergleichen (verbundene Stichprobe). Die Kenngr¨ oßen der Verteilung von ’agehalt’ erh¨alt man wieder durch die summary() Funktion: > print(summary(agehalt)) Min. 1st Qu. Median Mean 3rd Qu. 9000 12490 15000 17020 17490

Max. 79980

Analog zu ’gehalt’ teilen wir die Variable am Median (15000 US$/Jahr) auf: > agehaltkat print(summary(agehaltkat)) =15000 US$/Jahr 264 210 Hier m¨ ussen wir aber aufpassen. Die obere Intervallgrenze soll nicht enthalten sein, deshalb m¨ ussen wir obigen Befehl modifizieren: > agehaltkat print(summary(agehaltkat)) =15000 US$/Jahr 212 262

Wir erhalten also so die gew¨ unschte Aufteilung. Die 2 × 2 Kontingenztabelle ist > table(gehaltkat, agehaltkat) agehaltkat gehaltkat =15000 US$/Jahr =28880 US$/Jahr 33 204 Der McNemar–Test kann wieder mit und ohne Stetigkeitskorrektur durchgef¨ uhrt werden: > mcnemar.test( table(gehaltkat, agehaltkat)) McNemar’s Chi-squared test with continuity correction

376

15. Einf¨ uhrung in R data: table(gehaltkat, agehaltkat) McNemar’s chi-squared = 6.3297, df = 1, p-value = 0.01187 > mcnemar.test( table(gehaltkat, agehaltkat), correct=FALSE) McNemar’s Chi-squared test data: table(gehaltkat, agehaltkat) McNemar’s chi-squared = 6.8681, df = 1, p-value = 0.008775

SPSS verwendet die Version mit Stetigkeitskorrektur. Nichtparametrische Tests. In diesem Abschnitt wollen wir die Anwendung nichtparametrischer Tests mit R demonstrieren. Im Rahmen der Anpassungstests wollen wir die Anwendung des Kolmogorov-Smirnov-Tests, sowohl f¨ ur den 1-Stichproben- als auch den 2-Stichprobenfall, demonstrieren. Kolmogorov–Smirnov Tests. Der 1- und 2-Stichprobenfall wird durch die R Funktion ks.test() abgedeckt. Mit dem 1-Stichproben KS–Test wollen wir testen, ob die Hypothese, dass ’Gehalt’ und ’Anfangsgehalt’ normalverteilt sind, abgelehnt werden muss. Dazu u ¨ bergeben wir der Funktion ks.test() die Testverteilung (hier: pnorm() f¨ ur die Verteilungsfunktion der Normalverteilung) und die Parameter dieser Testverteilung. Ohne Vorkenntnisse werden dazu u ¨blicherweise die Parame¨ ter aus der Stichprobe gesch¨ atzt. Dies erfolgt hier durch explizite Ubergabe der Parameter an ks.test() mittels mean(gehalt) und sd(gehalt) als Sch¨atzungen f¨ ur den Erwartungswert und der Standardabweichung der Testverteilung. > ks.test(gehalt,"pnorm",mean(gehalt),sd(gehalt),exact=FALSE) One-sample Kolmogorov-Smirnov test data: gehalt D = 0.2079, p-value < 2.2e-16 alternative hypothesis: two.sided Warning message: cannot compute correct p-values with ties in: ks.test(gehalt,"pnorm",mean(gehalt),sd(gehalt),exact = FALSE) > ks.test(agehalt,"pnorm",mean(agehalt),sd(agehalt),exact=FALSE) One-sample Kolmogorov-Smirnov test data: agehalt D = 0.2519, p-value < 2.2e-16 alternative hypothesis: two.sided Warning message: cannot compute correct p-values with ties in: ks.test(agehalt,"pnorm",mean(agehalt),sd(agehalt),exact = FALSE)

15.2 Einige praktische Beispiele

377

Die beiden sehr kleinen p-Werte zeigen deutlich, dass die Nullhypothese einer Normalverteilung verworfen werden muss. Mit dem 2–Stichproben KS–Test wollen wir untersuchen, ob sich die Verteilung des Gehalts bei M¨ annern und Frauen unterscheidet. > maenner frauen ks.test(maenner$gehalt, frauen$gehalt) Two-sample Kolmogorov-Smirnov test data: maenner$gehalt and frauen$gehalt D = 0.5226, p-value < 2.2e-16 alternative hypothesis: two.sided Warning message: cannot compute correct p-values with ties in: ks.test(maenner$gehalt, frauen$gehalt) Die Nullhypothese zweier identischer Verteilungen muss verworfen werden. Wilcoxon–Tests. Analog zum t–Test (t.test()) bietet wilcox.test() die M¨oglichkeit, sowohl den Fall zweier unabh¨ angiger Stichproben als auch den Fall zweier gepaarter Stichproben abzudecken. F¨ ur den Fall unabh¨ angiger Stichproben wollen wir wieder testen, ob sich das Gehalt von M¨ annern und Frauen unterscheidet. > wilcox.test(frauen$gehalt, maenner$gehalt) Wilcoxon rank sum test with continuity correction data: frauen$gehalt and maenner$gehalt W = 9616.5, p-value < 2.2e-16 alternative hypothesis: true mu is not equal to 0 Dabei liefert W den Wert in SPSS, der mit Mann–Whitney U bezeichnet ist, vergleiche Abbildung 14.19. Die Hypothese, dass sich das Gehaltsgef¨ uge bei M¨annern und Frauen signifikant unterscheidet, wird best¨atigt. F¨ ur die verbundene Stichprobe w¨ ahlen wir wieder den Vergleich von Gehalt und Anfangsgehalt. > wilcox.test(gehalt, agehalt) Wilcoxon rank sum test with continuity correction data: gehalt and agehalt W = 204274.5, p-value < 2.2e-16 alternative hypothesis: true mu is not equal to 0

378

15. Einf¨ uhrung in R

oder > wilcox.test(agehalt, gehalt) Wilcoxon rank sum test with continuity correction data: agehalt and gehalt W = 20401.5, p-value < 2.2e-16 alternative hypothesis: true mu is not equal to 0 Beide Variablen unterscheiden sich deutlich bez¨ uglich ihrer Lage. Korrelationstest. Zuletzt wollen wir nun noch den nichtparametrischen Test auf Korrelation demonstrieren. Dieser ist u ¨ ber die zus¨atzliche Angabe von method="’spearman" in der bereits bekannten Funktion cor.test() verf¨ ugbar. Wiederum verwenden wir Gehalt und Anfangsgehalt als Variablen. > cor.test(agehalt, gehalt, method="spearman" ) Spearman’s rank correlation rho data: agehalt and gehalt S = 3090197, p-value < 2.2e-16 alternative hypothesis: true rho is not equal to 0 sample estimates: rho 0.8258977 Warning message: Cannot compute exact p-values with ties in: cor.test.default(agehalt, gehalt, method = "spearman") Die SPSS Ausgabe hierzu ist in Abbildung 14.20 zu sehen. Der Zusammenhang ist mit 0.826 (gerundet) sehr stark und dabei signifikant von Null verschieden. 15.2.3 Modellierung von Ursache–Wirkungsbeziehungen Wir wollen drei Arten der Modellierung vorstellen: lineare Regression, Varianzanalyse und Kontingenztafeln. Lineare Regression. Wie in Abschnitt 14.2.3 wollen wir wieder den Datensatz ’employee.dat’ als Beispieldatensatz verwenden. Wir interessieren uns dabei f¨ ur m¨ogliche Einflussgr¨ oßen xj auf die Variable ’gehalt’ (Zielgr¨oße y). Um die Ergebnisse mit der SPSS Ausgabe vergleichen zu k¨onnen, transformieren wir die Einflussvariable ’dauer’, die die Dauer der Betriebszugeh¨origkeit beschreibt, wieder sinngem¨ aß um: Statt des Einstiegsjahres (z.B. 1998) geben

15.2 Einige praktische Beispiele

379

wir die Dauer in Jahren an (z.B. 2007-1998=9 Jahre) um die entsprechenden Parameter im linearen Regressionsmodell sp¨ater besser interpretieren zu k¨onnen. Die Variable ’t¨ atig’, die die Art der T¨ atigkeit in der Bank beschreibt ist kategorial (in drei Kategorien) und wird von uns daher dummycodiert mit der Kategorie 3 (’Management’) als Referenz. Wie kann man in R Variablen kodieren? Zun¨achst lesen wir den Datensatz ein und f¨ ugen ihn zum Suchpfad hinzu: > daten attach(daten) Anschliessend wandeln wir die Variable ’t¨ atig’ in eine sogenannte Faktorvariable (kategoriale Variable) um. In der Voreinstellung wird die Variable dummykodiert, allerdings mit der niedrigsten Kategorie als Referenzkategorie. > t¨ atig levels(t¨ atig) [1] "1" "2" "3" > summary(t¨ atig) 1 2 3 363 27 84 Man erkennt, dass die summary() Funktion sich entsprechend anpasst und statt der Quantile jetzt die absoluten H¨ aufigkeiten darstellt, mit der die einzelnen Kategorien auftreten. Nun k¨ onnen wir R anweisen, die Kategorie, die mit ’3’ bezeichnet ist, als Referenzkategorie zu verwenden. > t¨ atig levels(t¨ atig) [1] "3" "1" "2" Man sieht, dass die Referenzkategorie jetzt an erster Stelle der levels(t¨ atig) Ausgabe steht. Mittels is.factor() l¨ asst sich jederzeit abfragen, ob es sich bei einer Variable um eine kategoriale Variable handelt: > is.factor(t¨ atig) [1] TRUE Jetzt m¨ ussen wir noch die Betriebszugeh¨ origkeit transformieren. Dabei tun wir so, als w¨are der Datensatz von 2007 (Achtung: die Jahresangaben sind nur zweistellig, also z.B. 98 statt 1998). > dauerneu regrmodell print( summary(regrmodell) )

380

15. Einf¨ uhrung in R Call: lm(formula = gehalt ~ geschl + ausbild + agehalt + erfahr + mind + dauerneu + t¨ atig) Residuals: Min 1Q Median -22890 -3271 -691

3Q 2654

Max 46250

Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 2.081e+04 3.224e+03 6.455 2.73e-10 *** geschlw -1.988e+03 7.652e+02 -2.598 0.00967 ** ausbild 5.021e+02 1.599e+02 3.141 0.00179 ** agehalt 1.334e+00 7.305e-02 18.267 < 2e-16 *** erfahr -2.191e+01 3.575e+00 -6.127 1.91e-09 *** mind -1.034e+03 7.872e+02 -1.313 0.18982 dauerneu -1.502e+02 3.134e+01 -4.791 2.24e-06 *** t¨ atig1 -1.111e+04 1.368e+03 -8.121 4.19e-15 *** t¨ atig2 -4.254e+03 2.168e+03 -1.962 0.05034 . --Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1 Residual standard error: 6808 on 465 degrees of freedom Multiple R-Squared: 0.8437, Adjusted R-squared: 0.841 F-statistic: 313.8 on 8 and 465 DF, p-value: < 2.2e-16

Die Formatierung der Zahlen in der R Ausgabe unterscheidet sich von der in SPSS in Abbildung 14.21. Allerdings erkennt man, dass die Regression die gleichen Ergebnisse liefert (zum Beispiel R2 = 0.844, gerundet). Eine an SPSS n¨ahere Formatierung erh¨ alt man automatisch bei Verwendung der coefficients() Funktion: > coefficients( regrmodell) (Intercept) geschlw ausbild agehalt 20809.397898 -1988.078165 502.104049 1.334340 erfahr mind dauerneu t¨ atig1 -21.907113 -1033.568787 -150.157349 -11107.683287 t¨ atig2 -4254.340925 Interessant ist weiterhin: • Das Regressionsmodell wird als Formel der lm() Funktion u ¨ bergeben: gehalt~geschl+ausbild+agehalt+erfahr+mind+dauerneu+t¨ atig • Die Faktorvariable ’t¨ atig’ wird als solche in der lm() Funktion erkannt und automatisch richtig verarbeitet. Deshalb sind in der Ausgabe zwei Variablen vorhanden, die mit ’t¨ atig1’ und ’t¨atig2’ bezeichnet sind. • Die Werte der Variable ’geschl’ sind im Datensatz mit ’m’ und ’w’ kodiert (also mit Buchstaben und nicht mit Zahlen). R wandelt solche Variablen

15.2 Einige praktische Beispiele

381

automatisch in Faktorvariablen um. Deshalb taucht jetzt die Variable ’geschlw’ in der Ausgabe auf. Das heisst, ’w’ wurde automatisch mit ’1’ kodiert und ’m’ mit 0. Inhaltlich ergibt sich, dass die Variable ’mind’ (Minderheit) keinen Einfluss hat (p–Wert 0.18982). Wir verweisen hierzu auch nochmal auf Abschnitt 14.2.3. Mittels der anova() Funktion k¨ onnen wir uns Tests f¨ ur jede einzelne Variable ausgeben lassen, wobei Faktorvariablen, die aus mehreren Dummyvariablen bestehen, als eine Variable mit mehereren Freiheitsgraden betrachtet werden (’t¨ atig’ in unserem Beispiel). > anova(regrmodell) Analysis of Variance Table Response: gehalt Df Sum Sq Mean Sq F value geschl 1 2.7919e+10 2.7919e+10 602.305 ausbild 1 3.9545e+10 3.9545e+10 853.123 agehalt 1 4.2057e+10 4.2057e+10 907.330 erfahr 1 1.5671e+09 1.5671e+09 33.807 mind 1 1.1574e+08 1.1574e+08 2.497 dauerneu 1 1.1564e+09 1.1564e+09 24.947 t¨ atig 2 4.0028e+09 2.0014e+09 43.178 Residuals 465 2.1554e+10 4.6353e+07 --Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’

Pr(>F) < 2.2e-16 < 2.2e-16 < 2.2e-16 1.132e-08 0.1147 8.352e-07 < 2.2e-16

*** *** *** *** *** ***

0.05 ’.’ 0.1 ’ ’ 1

Man erkennt in der Regressions- und in der ANOVA-Ausgabe, dass die Variable ’mind’ keinen Einfluss auf das Gehalt hat. Daher passen wir nun ein Modell ohne ’mind’ an. > regrmodell2 print( summary(regrmodell2) ) Call: lm(formula = gehalt ~ geschl + ausbild + agehalt + erfahr + dauerneu + t¨ atig) Residuals: Min 1Q -22915.4 -3298.9

Median -675.8

3Q 2544.1

Max 46541.0

Coefficients: (Intercept) geschlw ausbild agehalt erfahr dauerneu t¨ atig1 t¨ atig2

Estimate Std. Error t value Pr(>|t|) 2.057e+04 3.221e+03 6.386 4.12e-10 *** -1.870e+03 7.605e+02 -2.459 0.01429 * 4.993e+02 1.600e+02 3.121 0.00191 ** 1.341e+00 7.291e-02 18.397 < 2e-16 *** -2.228e+01 3.567e+00 -6.248 9.41e-10 *** -1.486e+02 3.135e+01 -4.741 2.83e-06 *** -1.126e+04 1.364e+03 -8.251 1.63e-15 *** -4.519e+03 2.161e+03 -2.091 0.03703 *

382

15. Einf¨ uhrung in R --Signif. codes:

0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1

Residual standard error: 6814 on 466 degrees of freedom Multiple R-Squared: 0.8431, Adjusted R-squared: 0.8408 F-statistic: 357.8 on 7 and 466 DF, p-value: < 2.2e-16

Die anova() Funktion liefert: > anova(regrmodell2) Analysis of Variance Table Response: gehalt Df Sum Sq Mean Sq F value geschl 1 2.7919e+10 2.7919e+10 601.371 ausbild 1 3.9545e+10 3.9545e+10 851.800 agehalt 1 4.2057e+10 4.2057e+10 905.922 erfahr 1 1.5671e+09 1.5671e+09 33.755 dauerneu 1 1.1288e+09 1.1288e+09 24.315 t¨ atig 2 4.0662e+09 2.0331e+09 43.793 Residuals 466 2.1634e+10 4.6425e+07 --Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’

Pr(>F) < 2.2e-16 < 2.2e-16 < 2.2e-16 1.159e-08 1.140e-06 < 2.2e-16

*** *** *** *** *** ***

0.05 ’.’ 0.1 ’ ’ 1

D.h., wir w¨ urden jetzt alle Variablen im Modell behalten. Der Wert von R2 betr¨agt jetzt 0.843, ist also nur geringf¨ ugig kleiner als im Modell mit ’mind’. Die Parametersch¨ atzungen kann man u ¨ brigens extrahieren, zum Beispiel um weitere Berechnungen anzustellen. F¨ ur das Modell mit und ohne ’mind’ erh¨alt man: > coefficients( regrmodell2) (Intercept) geschlw ausbild agehalt 20571.778941 -1870.062925 499.308099 1.341343 erfahr dauerneu t¨ atig1 t¨ atig2 -22.283073 -148.614760 -11255.522921 -4518.650767 Weitere Details findet man wie immer in der Hilfe zu lm(). Zur Interpretation der Parametersch¨ atzungen sei auf Abschnitt 14.2.3 verwiesen. Varianzanalyse. Zur Durchf¨ uhrung der einfaktoriellen Varianzanalyse kann die lm() Funktion verwendet werden, denn eine einfaktorielle Varianzanalyse kann als lineares Modell mit einer einzigen, kategorialen Einflussgr¨oße aufgefasst werden. Inhaltlich stellt sie aber eher einen R¨ uckschritt dar, da es sinnvoller ist, den Einfluss mehrerer Variablen simultan zu betrachten, wenn mehrere potenzielle Einflussgr¨ oßen erhoben wurden. Kruskal–Wallis Test. Wir wollen noch den sogenannten Kruskal–Wallis Test pr¨asentieren, der ohne die Annahme normalverteilter Fehler auskommt. Als Beispiel w¨ahlen wir Gehalt als Zielgr¨ oße und ’Art der T¨atigkeit’ (also die Variable ’t¨atig’ im Datensatz) als Einflussgr¨ oße. Die Einflussgr¨oße sei dabei wie im letzten Abschnitt (lineare Regression) bereits in eine Faktorvariable umgewandelt.

15.2 Einige praktische Beispiele

383

> kruskal.test(gehalt~t¨ atig) Kruskal-Wallis rank sum test data: gehalt by t¨ atig Kruskal-Wallis chi-squared = 207.6795, df = 2, p-value < 2.2e-16 Die Ergebnisse stimmen mit den Ergebnissen von SPSS, Abbildung 14.25 u ¨berein. Die Hypothese eines gleichen Gehalts in den drei T¨atigkeitsgruppen wird abgelehnt. Die Art der T¨ atigkeit der Bankangestellten (B¨ uro, Bewachung, Management) beeinflusst also das Gehalt. Zweifaktorielle Varianzanalyse. Auch diese kann mittels lm() durchgef¨ uhrt werden. Der Unterschied zum u ¨ blichen linearen Modell besteht darin, dass beide Einflussvariablen Faktoren (also kategorial) sein m¨ ussen und die Wechselwirkung ber¨ ucksichtigt werden soll. Als Beispiel verwenden wir ’Geschlecht’ und ’Art der T¨atgkeit’ als Einflussfaktoren auf das Gehalt: > regrmodell4 anova(regrmodell4) Analysis of Variance Table Response: gehalt Df Sum Sq Mean Sq F value Pr(>F) geschl 1 2.7919e+10 2.7919e+10 315.816 < 2.2e-16 t¨ atig 2 6.7290e+10 3.3645e+10 380.595 < 2.2e-16 geschl:t¨ atig 1 1.2477e+09 1.2477e+09 14.114 0.0001937 Residuals 469 4.1460e+10 8.8401e+07 --Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1

*** *** *** ’ ’ 1

Die Wechselwirkung dabei durch die Hinzunahme von geschl:t¨ atig in die Modellformel ber¨ ucksichtigt. Vergleiche Abbildung 14.26 f¨ ur die SPSS Ausgabe. Wir sehen, dass nicht nur beide Faktoren, sondern auch die Wechselwirkung signifikant ist. Analyse von Kontingenztafeln. Den χ2 –Test f¨ ur eine 2 × 2 Kontingenztafel haben wir bereits in Abschnitt 15.2.2 kennengelernt (chisq.test()). Die Funktion chisq.test() kann analog auch f¨ ur gr¨oßere Tafeln verwendet werden. Lebensdaueranalyse. In R steht dazu die Bibliothek survival zur Verf¨ ugung. Um sie zu benutzen, laden wir die Bibliothek in R: > library(survival)

384

15. Einf¨ uhrung in R

Anschließend k¨onnen wir die Funktionen Surv() und survfit() benutzen. Wir betrachten Beispiel 12.1.1 aus Kapitel 12.1. Zun¨achst definieren wir 3 ¨ Vektoren, die die Uberlebenszeiten, den Zensierungsindikator (0 zensiert, 1 unzensiert) und die Gruppe (A oder B, kodiert als 1 oder 2) enthalten: > times cens group Surv(times,cens) [1] 1431+ 1456+ 1435+ 172 393 911+ 34 [20] 1044+ 1015+ 116

116 602+ 406 912 1167+ 1003+ 570+ 914+ 899

98 1260+ 1263 151+ 669 533+ 898+

¨ Das Zeichen + zeigt die zensierten Uberlebenszeiten an. Eine Kaplan–Meier Sch¨atzung f¨ ur alle Daten (also ohne Ber¨ ucksichtung der Gruppe) wie in Beispiel 12.3.1 erh¨alt man jetzt wie folgt: > fit1 summary(fit1) Call: survfit(formula = Surv(times, cens), conf.type = "none") time n.risk n.event survival std.err 34 26 1 0.962 0.0377 98 25 1 0.923 0.0523 116 24 2 0.846 0.0708 172 21 1 0.806 0.0780 393 20 1 0.766 0.0839 406 19 1 0.725 0.0886 669 15 1 0.677 0.0950 899 13 1 0.625 0.1010 912 11 1 0.568 0.1066 1263 4 1 0.426 0.1467 Es werden also lediglich die Sprungpunkte (Zeitpunkte, an denen ein Ereignis stattfand) ausgegeben. Eine grafische Darstellung erh¨alt man durch > plot(fit1) Die erzeugte Grafik ist in Abbildung 15.7 zu sehen. Wollen wir dagegen beide Gruppen getrennt betrachten wie in Beispiel 12.3.2, so k¨onnen wir dies durch Einbeziehen der group Variable in die survfit() Funktion erreichen.

0.0

0.2

0.4

0.6

0.8

1.0

15.2 Einige praktische Beispiele

0

200

400

600

800

1000

1200

1400

Abb. 15.7. Kaplan–Meier Sch¨ atzung der Survivorfunktion (gesamt)

> summary(fit2) Call: survfit(formula = Surv(times, cens) ~ group, conf.type = "none") group=1 time n.risk n.event survival std.err 34 14 1 0.929 0.0688 98 13 1 0.857 0.0935 116 12 1 0.786 0.1097 393 11 1 0.714 0.1207 669 8 1 0.625 0.1347 912 6 1 0.521 0.1471 1263 3 1 0.347 0.1724 group=2 time n.risk n.event survival std.err 116 12 1 0.917 0.0798 172 10 1 0.825 0.1128 406 9 1 0.733 0.1324 899 7 1 0.629 0.1493 Die grafische Darstellung findet sich in Abbildung 15.8.

385

15. Einf¨ uhrung in R

0.0

0.2

0.4

0.6

0.8

1.0

386

0

200

400

600

800

1000

1200

1400

Abb. 15.8. Kaplan–Meier–Sch¨ atzung der Survivorfunktion (Gruppen A und B)

Log–Rank Test. Zum Vergleich der beiden Gruppen A und B kann der Log– Rank Test verwendet werden, siehe Kapitel 12.4. F¨ ur unsere Daten erhalten wir den Test mit der survdiff Funktion mit folgendem Befehl. > survdiff( Surv(times,cens)~group ) Call: survdiff(formula = Surv(times, cens) ~ group) N Observed Expected (O-E)^2/E (O-E)^2/V group=1 14 7 5.95 0.186 0.416 group=2 12 4 5.05 0.219 0.416 Chisq= 0.4

on 1 degrees of freedom, p= 0.519

Die Werte entsprechen denen der Ausgabe von SPSS in Beispiel 12.4.1.

¨ A. L¨ osungen zu den Ubungsaufgaben

¨ Wir stellen im Folgenden m¨ ogliche L¨ osungswege zu den Ubungsaufgaben dieses Buches vor. Gibt es mehrere L¨ osungswege, so beschr¨anken wir uns auf einen. Zu den theoretischen Aufgaben, die dem Leser zur Kontrolle des Stoffs dienen sollen, werden keine L¨ osungen angegeben. Der Leser sei hierzu auf das ¨ entsprechende Kapitel verwiesen. Bei der L¨ osung der Ubungsaufgaben geben wir die zugrundeliegende Formel nur durch die entsprechende Gleichungsnummer an. Sind in einem L¨ osungsweg Zwischenergebnisse angegeben, so sollen diese dem Leser zur Kontrolle dienen. Es wird jedoch nicht mit den gerundeten Zwischenergebnissen, sondern mit dem exakten Wert weitergerechnet.

388

¨ A. L¨ osungen zu den Ubungsaufgaben

A.1 Kombinatorik L¨osung zu Aufgabe 1.2: a) F¨ ur die erste Stelle gibt es, da die 0 ausgeschlossen ist, 9 M¨oglichkeiten: die Ziffern 1, . . . , 9. Ist die erste Ziffer gew¨ahlt, so stellt die Wahl der verbleibenden Ziffern eine Kombination von m = 7 aus n = 10 Ziffern (0, . . . , 9) dar, diese Anzahl ist nach (1.9) gleich 107 , die Gesamtzahl der 8-stelligen Kontonummern ist also 9 · 107 . b) F¨ ur die erste Stelle gibt es 9 M¨ oglichkeiten. Haben wir die erste Ziffer gew¨ahlt, so gibt es f¨ ur die zweite Stelle wieder 9 M¨oglichkeiten: die acht verbleibenden plus die jetzt zugelassene 0. F¨ ur die dritte Stelle verbleiben 8 M¨oglichkeiten, f¨ ur die vierte Stelle 7 M¨oglichkeiten, usw. Es gibt also 9 · 9 · 8 · 7 · 6 · 5 · 4 · 3· = 1 632 960 Kontonummern. L¨osung zu Aufgabe 1.3: Die Anzahl der Permutationen von a, b, c, d, e, die mit e“ beginnen, entspricht der Anzahl der Permutationen von a, b, c, d, da ” duch den festgelegten Beginn nur noch die Buchstaben a, b, c, d permutiert werden k¨onnen. Es gibt also 4! = 24 derartige Permutationen. Die Anzahl der Permutationen von a, b, c, d, e, die mit cb“ beginnen, ent” spricht analog der Anzahl der Permutationen von a, d, e (die bereits festgelegten c und b werden nicht ber¨ ucksichtigt), d. h. es gibt 3! = 6 Permutationen. L¨osung zu Aufgabe 1.4: Es handelt sich um f¨ ur Buchstaben und Ziffern separate Kombinationen mit Ber¨ ucksichtigung der Reihenfolge und mit Wiederholung (vgl. (1.9)). m = 2 aus n = 26 Buchstaben werden unter Ber¨ ucksichtigung der Reihenfolge, mit Wiederholung ausgew¨ ahlt. Das ergibt nm = 262 m¨ogliche Buchstabenkombinationen. m = 3 aus n = 9 Ziffern werden unter Ber¨ ucksichtigung der Reihenfolge, mit Wiederholung ausgew¨ ahlt. Es ergeben sich nm = 93 m¨ogliche Zahlenkombinationen. Alle Kombinationen von gew¨ ahlten Buchstaben- und Zahlenkombinationen sind zugelassen. Damit sind 262 · 93 = 676 · 729 = 492 804 Motorradkennzeichen m¨oglich. L¨osung zu Aufgabe   1.5: Es spielen jeweils zwei Manschaften gegeneinander. Es gibt damit 12 ogliche Paarungen, d. h. Spiele. Da hierbei die Rei2 = 66 m¨ henfolge noch nicht ber¨ ucksichtigt wird, also keine Unterscheidung zwischen uckspiel) getroffen wird, muß die Anzahl Mi : Mj (Hinspiel) und Mj : Mi (R¨ der Spiele noch mit 2 multipliziert werden. Allgemein haben wir also eine Kombination mit Reihenfolge, ohne Wiederholung. Wir erhalten nach (1.7)     12 12 · 11 n n! = 2! =2· = 2 · 66 = 132 m! = 2 (n − m)! 2·1 m Hin- und R¨ uckspiele.

A.1 Kombinatorik

389

L¨osung zu Aufgabe 1.6: Wir haben n = 10 G¨aste, aus denen jeweils m = 2 G¨aste auszuw¨ahlen sind, die sich k¨ ussen. Da bei der Anzahl der K¨ usse nicht unterschieden wird, ob Person A Person B k¨ usst oder umgekehrt, und keine Person ‘sich selbst k¨ usst’, liegt also eine Kombination ohne Ber¨ ucksichtigung der Reihenfolge sowie ohne Wiederholung vor. Damit betr¨agt die Gesamtzahl der K¨ usse nach (1.5)     n 10 10 · 9 = 45 . = = 2·1 m 2 L¨osung zu Aufgabe 1.7: Das Siegerpodest wird mit den m = 3 Schnellsten der n = 22 Athleten besetzt. Die Reihenfolge des Zieleinlaufs bestimmt die Platzierungen und ein Athlet kann nur einen Platz belegen. Wir bestimmen also die Kombinationen mit Ber¨ ucksichtigung der Reihenfolge, ohne Wiederholung (vgl. (1.7)):     n 22 22! 3! = 9 240 , m! = 3! = m 3 3!19! d. h. 9 240 verschiedene Besetzungen des Siegerpodestes sind m¨oglich. W¨ urde wie bei einem Qualifikationslauf, in dem die ersten Drei f¨ ur die n¨achste Runde qualifiziert sind, die Reihenfolge keine Rolle spielen, so veringert sich die Zahl der m¨oglichen Besetzungen der Gruppe der ersten Drei auf     n 22 22! = 1 540 . = = m 3 3!19! L¨osung zu Aufgabe 1.8: Wir haben n = 12 Tischtennisspieler, mit denen eine Rangliste f¨ ur die Pl¨ atze 1 bis 6 gebildet wird. Die Platzierung wird ber¨ ucksichtigt und jeder Spieler kann nur einen Platz der Rangliste belegen. Dies ergibt Kombinationen mit Ber¨ ucksichtigung der Reihenfolge und ohne Wiederholung. Deren Anzahl ist nach (1.7)     12! n 12 12! · 6! = = 665 280, m! = 6! = 6!6! 6! m 6 d. h. wir haben 665 280 m¨ ogliche Ranglisten. L¨osung zu Aufgabe 1.9: a) F¨ ur die Ergebnisse der vier W¨ urfel w¨ ahlen wir vier Augenzahlen aus den 6 m¨oglichen Augenzahlen aus. F¨ ur das Ereignis ‘vier verschiedene Augenzahlen’ spielt die Reihenfolge keine Rolle (Kombination ohne Ber¨ ucksichtigung der Reihenfolge). Da keine Augenzahl doppelt vorkommen soll sind Wiederholungen ausgeschlossen. Wir erhalten mit (1.6) insgesamt   6·5 6 6! = = 15 = 4!2! 2 4 M¨oglichkeiten.

390

¨ A. L¨ osungen zu den Ubungsaufgaben

b) Wir bestimmen zun¨ achst die Gesamtzahl der Kombinationen beim Wurf von 4 W¨ urfeln ohne Ber¨ ucksichtigung der Reihenfolge und mit Wiederholung. Dies sind       n+m−1 6+4−1 9 9! = 126 . = = = 4!5! m 4 4 Darunter sind 6 Kombinationen von jeweils 4 gleichen Zahlen: (1, 1, 1, 1) bis (6, 6, 6, 6). Ziehen wir diese von den 126 Kombinationen ab, so erhalten wir die gesuchten 126−6 = 120 Kombinationen mit h¨ochstens drei gleichen Zahlen. L¨osung zu Aufgabe 1.10: a) Gez¨ahlt werden alle F¨ alle, in denen der erste Wurf eine 6 und die beiden anderen ein beliebiges Ergebnis ergeben, es wird also die Reihenfolge ber¨ ucksichtigt. Der erste Wurf ist festgelegt (= 6) und wir haben damit f¨ ur die Besetzung der beiden letzten W¨ urfe eine Kombination mit Ber¨ ucksichtigung der Reihenfolge, mit Wiederholung, d. h. wir haben nm = 62 = 36 M¨oglichkeiten. b) Es wird wieder die Reihenfolge ber¨ ucksichtigt. Die ersten beiden W¨ urfe k¨onnen einen beliebigen Ausgang haben. Hier gibt es wieder 62 M¨oglichkeiten. F¨ ur den dritten Wurf gibt es 3 M¨ oglichkeiten eine gerade Augenzahl zu erhalten, also insgesamt 62 · 3 = 108 M¨oglichkeiten. c) Wiederum wird die Reihenfolge ber¨ ucksichtigt. Der erste und der dritte Wurf sind fest (= 3), f¨ ur das beliebige Ergebnis des zweiten Wurfs gibt es 6 M¨oglichkeiten. Insgesamt sind es 1 · 6 · 1 = 6 M¨oglichkeiten. L¨osung zu Aufgabe 1.11: Nach Vorgabe sollen die 10 Karten 3 beliebige K¨onige und 2 beliebige Damen enthalten. Da jede Karte nur einmal vorkommt, handelt es sich um Kombinationen ohne Wiederholungen. Die Reihenfolge, in der der Spieler seine Karten erh¨ alt, ist ohne Bedeutung. Wir haben damit also Kombinationen ohne Wiederholung und ohne Ber¨ ucksichtigung der Reihenfolge. Die gesuchten Partien ergeben sich indem drei aus den vier vorhandenen K¨onigen, zwei aus den vier vorhandenen Damen und die restlichen 5 Karten aus den verbleibenden 24 Karten gezogen werden, die weder K¨onig noch Dame sind. Es gibt insgesamt     4 4 24 = 1 020 096 3 2 5 Partien.

A.2 Elemente der Wahrscheinlichkeitsrechnung

391

A.2 Elemente der Wahrscheinlichkeitsrechnung L¨osung zu Aufgabe 2.1: Beim zweimaligen M¨ unzwurf sind die Elementarereignisse e1 = (W, W ), e2 = (W, Z), e3 = (Z, W ) und e4 = (Z, Z). F¨ ur Ω ogliches Ereignis ist z.B. (8, Z). Das Komgilt Ω = (e1 , e2 , e3 , e4 ). Ein unm¨ plement¨arereignis zu A = {(W, W ), (W, Z)} lautet A¯ = {(Z, W ), (Z, Z)}. L¨osung zu Aufgabe 2.2: Aus den Angaben f¨ ur A, B, C bestimmen wir a) A ∩ B = {1, 8}, A ∩ C = ∅ und B ∩ C = {5}. b) A ∪ B = {0, 1, 2, 4, 5, 8, 9, 11} und A ∪ C = {1, 4, 5, 6, 7, 8, 11}. c) A \ B = {4, 11}, B \ A = {0, 2, 5, 9} und A \ C = {1, 4, 8, 11} = A, weil AC = ∅ gilt. d) (A ∪ B) ∩ C = {5}. e) (A ∩ B) \ C = {1, 8}. L¨osung zu Aufgabe 2.3: Die Ereignisse A, B und C sind A = {1, 3, 5}, B = {4, 5, 6} und C = {5, 6} (vgl. Abbildung A.1). Damit ist

a) B und C aber nicht A: Es gilt immer A¯ = Ω \ A = {2, 4, 6}. Gem¨aß der Definition der Mengen B und C gilt C ⊂ B, so dass B ∩C = C. Insgesamt erhalten wir B ∩ C ∩ A¯ = {5, 6} ∩ {2, 4, 6} = {6} .

b) Keines der genannten Ereignisse tritt ein. Mit den De Morganschen Regeln ¯ ∩ C¯ = A ∪ B ∪ C. Dies ist mit A¯ = Ω \ A (vgl. Definition 2.2.3) gilt A¯ ∩ B ¯¯ = A gilt erhalten wiederum gleich mit Ω \ {A ∪ B ∪ C}. Da allgemein A wir schließlich ¯ ∩ C¯ = Ω \ (A ∪ B ∪ C) , A¯ ∩ B was mit A ∪ B ∪ C = {1, 3, 4, 5, 6} gleich Ω \ {1, 3, 4, 5, 6} = {2} ist. ¯ = {1, 2, 3} und C¯ = {1, 2, 3, 4} sofort Wir erhalten mit A¯ = {2, 4, 6}, B ¯ ∩ C¯ = {2} . A¯ ∩ B ¯ ∩ C¯ = {1, 3}, A¯ ∩ B ∩ C¯ = {4} und A¯ ∩ B ¯ ∩ C = ∅. c) Wir bestimmen A ∩ B Damit erhalten wir als Gesamtergebnis ¯ ∩ C) ¯ ∪ (A¯ ∩ B ∩ C) ¯ ∪ (A¯ ∩ B ¯ ∩ C) = {1, 3} ∪ {4} ∪ ∅ = {1, 3, 4} (A ∩ B

¨ A. L¨ osungen zu den Ubungsaufgaben

392

3 1 A

C 5 2

6

C

3 1

4 B

5 2

A

6

4 B

3 1 A

C 5

6

2

4 B

Abb. A.1. Darstellung der Mengen zu Aufgabe 2.3

L¨osung zu Aufgabe 2.4: Wir u ufen die Axiome. ¨ berpr¨ Axiom 1: 0 ≤ P (A) ≤ 1 ist f¨ ur alle gegebenen Ereignisse erf¨ ullt. Axiom 2: P (Ω) = 1. A, B, C und D bilden gem¨aß Angabe eine vollst¨andige Zerlegung von Ω, d. h. es gilt Ω = A ∪ B ∪ C ∪ D mit P (Ω) = P (A) + P (B) + P (C) + P (D) = 1. Wir erhalten jedoch P (A) + P (B) + P (C) + P (D) =

12 + 35 + 15 + 20 82 = = 1 . 60 60

Dies ist ein Widerspruch. Die Werte verstoßen gegen die Kolmogorovschen Axiome und k¨onnen damit keine Wahrscheinlichkeiten f¨ ur die Zerlegung des Grundraums Ω sein. Zur Vollst¨andigkeit u ufen wir auch noch Axiom 3: P (A ∪ B) = ¨ berpr¨ P (A) + P (B), falls A ∩ B = ∅. Wir haben jedoch P (B ∪ C) = 0.5 und 10 = 0.5. Dies ist ein ebenfalls ein Widerspruch. P (B) + P (C) = 12 L¨osung zu Aufgabe 2.5: Der Berechnung liegt ein Laplace-Experiment zugrunde. Die Wahrscheinlichkeit f¨ ur ein Ereignis A wird nach (2.3) als Quotient der Anzahl der f¨ ur A g¨ unstigen F¨ alle und der Anzahl aller m¨oglichen F¨alle bestimmt: P (A) = |A|/|Ω|. Aus Beispiel 1.4.3 entnehmen wir die M¨achtigkeit   = 13 983 816. von Ω: |Ω| = 49 6 a) A: 6 Richtige. Es gibt genau eine M¨ oglichkeit alle 6 gezogenen Zahlen richtig getippt zu haben, d. h. |A| = 1. Damit erhalten wir 1 P (A) = 49 = 7.15 · 10−8 . 6

b) B: genau 5 Richtige. F¨ ur die Konstruktion der Mengen vertauschen wir gedanklich die Reihenfolge ‘Tippen der Zahlen’ und ‘Ziehung des Ergeb oglichkeiten 5 aus den 6 richtigen Zahlen ausnisses’. Es gibt 65 = 6 M¨ zuw¨ahlen. Die verbleibende Zahl muß falsch getippt sein, sie kann also nur aus ur  den restlichen 43 nicht gezogenen Zahlen getippt werden, 643 wof¨ es 43 = 43 M¨ o glichkeiten gibt. Wir erhalten damit |B| = , also 1 5 1 P (B) =

643 5

491 6

=

6 · 43 = 1.84 · 10−5 . 13 983 816

A.2 Elemente der Wahrscheinlichkeitsrechnung

393

c) C: keine Richtige. Um keine Zahl richtig zu tippen, m¨ ussen alle getippten Zahlen aus den nicht gezogenen Zahlen gew¨ a hlt werden. Hierf¨ ur gibt es  oglichkeiten. Damit ist |C| = 43 6 M¨ 43 6 096 454 6 = P (C) = 49 = 0.436 . 13 983 816 6

d) D: h¨ochstens zwei Richtige. F¨ ur dieses Ereignis gibt es drei M¨oglichkeiten: Null, ein oder zwei Richtige. Diese drei Ereignisse schließen sich gegenseitig aus, so dass die Wahrscheinlichkeit f¨ ur D die Summe der Wahrscheinlichkeiten der einzelnen Ereignisse darstellt P (h¨ochstens 2 Richtige) = P (0 Richtige)+P (1 Richtige)+P (2 Richtige) . Die Anzahlen der M¨ oglichkeiten f¨ ur die einzelnen Ereignisse erhalten  643 wir ¨ analog zu den obigen Uberlegungen als 43 (keine Richtige), 6 1 5 (ge   (genau zwei Richtige). Insgesamt gilt nau eine Richtige) und 62 43 4 43 643 643 + 1 5 + 2 4 49 = 0.981 . P (D) = 6 6

Wir haben f¨ ur die obigen Berechnungen jeweils folgendes allgemeine Schema verwendet.    6 43 |A| = . Anzahl der Richtigen Anzahl der Falschen     6 In a) und c) traten die Spezialf¨ alle 66 = 1 und 43 0 = 1 bzw. 0 = 1 auf.

L¨osung zu Aufgabe 2.6: Zur Bestimmung der gesuchten Wahrscheinlichkeit verwenden wir das Komplement¨ arereignis. Zum Ereignis A: ‘mindestens 2 ¯ ‘alle Kinder sind Kinder sind am gleichen Tag geboren’ ist das Ereignis A: an verschiedenen Tagen geboren’ komplement¨ ar. Da die Geburtstermine als unabh¨angig betrachtet werden k¨ onnen, ergibt sich die gesuchte Wahrscheinlichkeit aus dem Produkt der Wahrscheinlichkeiten f¨ ur die einzelnen Kinder. Ohne die zeitliche Reihenfolge der Geburtstermine zu betrachten k¨onnen wir folgende Wahrscheinlichkeiten f¨ ur die Geburtstermine einzelner Kinder angeben. F¨ ur das erste betrachtete Kind gilt P (an irgendeinem Tag geboren) =

31 . 31

F¨ ur ein zweites betrachtetes Kind gilt P (an anderem Tag geboren als das erste Kind) =

30 , 31

da noch 30 ‘freie’ Tage verbleiben. F¨ ur ein drittes betrachtetes Kind ergibt sich

394

¨ A. L¨ osungen zu den Ubungsaufgaben

P (an anderem Tag geboren als die ersten beiden Kinder) =

29 , 31

da noch 31 − 2 = 29 ‘freie’ Tage verbleiben, u.s.w. F¨ ur alle Kinder zusammen ergibt sich damit P (A) = 1 −

31 30 29 28 27 26 25 24 23 22 21 20 · · · · · · · · · · · = 0.9142 31 31 31 31 31 31 31 31 31 31 31 31

L¨osung zu Aufgabe 2.7: Zun¨ achst werden 3 M¨anner zuf¨allig ausgew¨ahlt. Die Aufgabenstellung reduziert sich dann auf die Fragestellung: Wie groß ist die Wahrscheinlichkeit, dass sich unter den 3 Frauen, die anschließend ausgew¨ahlt werden, mindestens eine befindet, die mit einem der 3 bereits ausgew¨ahlten M¨anner verheiratet ist? Wir verwenden zur Berechnung der gesuchten Wahrscheinlichkeit wieder das Komplement¨ arereignis P (mindestens eine) = 1 − P (keine) . ¨ Die Wahrscheinlichkeit P (keine) ergibt sich aus der Uberlegung, dass es ins gesamt 73 M¨oglichkeiten gibt, 3 Frauen aus einer Gruppe von 7 Frauen auszuw¨ahlen (Kombination ohne Wiederholung, ohne Ber¨ ucksichtigung der Reihenfolge, vgl. (1.5)). F¨ ur die f¨ ur das gesuchte Ereignis g¨ unstigen F¨alle wird aus den verbleibenden 4 Frauen ausgew¨ahlt, die mitkeinem der 3 vor her ausgew¨ahlten M¨ anner verheiratet sind. Hier gibt es 43 M¨oglichkeiten. Wir berechnen damit 4 4 . P (keine) = 37 = 35 3 Damit gilt

4 = 0.886 . 35 L¨osung zu Aufgabe 2.8: In der Urne befinden sich 8 gelbe und 4 blaue Kugeln P (mindestens eine) = 1 −

a) 3 Kugeln gleichzeitig zu ziehen entspricht 3-maligem Ziehen ohne Zur¨ ucklegen. Das gesuchte Ereignis A lautet: 2 gelbe und 1 blaue Kugel wurden   ” gezogen“. Hierf¨ ur gibt es 12 m¨ ogliche F¨alle. Die zur Bestimmung der 3 Laplace-Wahrscheinlichkeit ben¨ otigten g¨ unstigen F¨  alle ergeben sich aus dem Ziehen von 2 aus 8 gelben Kugeln, wof¨ ur es 82 M¨oglichkeiten gibt  und dem Ziehen von einer aus 4 blauen Kugeln mit 41 M¨oglichkeiten. 84 28 · 4 P (A) = 2121 = = 0.509 . 220 3 Mit dem Baumdiagramm in Abbildung A.2 (Ziehen ohne Zur¨ ucklegen) erhalten wir die gleiche L¨ osung: P (2 gelbe und 1 blaue) =

8 7 4 8 4 7 4 8 7 + + = 0.509 . 12 11 10 12 11 10 12 11 10

A.2 Elemente der Wahrscheinlichkeitsrechnung

8/12

4/12

gelb

7/11

blau 4/11

gelb

gelb

8/11

gelb

blau

4/10

7/10

gelb

blau

395

blau

7/10

blau

gelb

gelb

blau

blau

Abb. A.2. Baumdiagramm zu Aufgabe 2.8 a). Die g¨ unstigen F¨ alle sind mit den Wahrscheinlichkeiten angegeben, die ung¨ unstigen F¨ alle sind durch gestrichelte Linien dargestellt.

b) F¨ ur die erste zu ziehende Kugel gibt es zwei M¨oglichkeiten: sie ist gelb und wird durch eine blaue ersetzt oder sie ist blau und wird durch eine gelbe ersetzt. Dies entspricht der obersten Verzweigung in Baumdiagramm in Abbildung A.3. Gegen¨ uber dem Baumdiagramm in Abbildung A.2 ver¨andern sich durch das Ersetzen der gezogenen Kugel die Wahrscheinlichkeiten f¨ ur den zweiten Zug. Wir erhalten als L¨ osung P (zweite Kugel ist blau) =

8/12

4 3 52 8 5 + = = 0.361 . 12 12 12 12 144

4/12

gelb

blau 5/12

gelb

3/12

blau

gelb

blau

Abb. A.3. Baumdiagramm zu Aufgabe 2.8 b). Die g¨ unstigen F¨ alle sind mit den Wahrscheinlichkeiten angegeben, die ung¨ unstigen F¨ alle sind durch gestrichelte Linien dargestellt.

396

¨ A. L¨ osungen zu den Ubungsaufgaben

L¨osung zu Aufgabe 2.9: a) Mit dem Baumdiagramm in Abbildung A.4 bilden wir die Ziehungen nach. F¨ ur die gesuchte Wahrscheinlichkeit ergibt sich P (weiß) = P (weiß|U1 )P (U1 ) + P (weiß|U2 )P (U2 ) + P (weiß|U3 )P (U3 ) 7 1 2 1 4 1 · = 0.474 = · + · + 7 3 8 3 11 3

1/3

1/3

U1 2/7

1/3

U2 5/7

4/8

U3 4/8

7/11 4/11

Abb. A.4. Baumdiagramm zu Aufgabe 2.9

b) Gesucht ist die bedingte Wahrscheinlichkeit P (U2 |schwarz). Nach dem Satz von Bayes (vgl. (2.12)) gilt: P (U2 |schwarz) =

P (schwarz|U2 ) · P (U2 ) . P (schwarz)

Wir entnehmen aus den Angaben P (schwarz|U2 ) = 84 und P (U2 ) = 13 . Aus dem Ergebnis von Teilaufgabe a) folgt P (schwarz) = 1 − P (weiß) = 0.526, also folgt insgesamt P (U2 |schwarz) =

4 8

· 31 = 0.317 . 0.526

L¨osung zu Aufgabe 2.10: Der B¨ acker kann sein Brot nur verkaufen, falls alle vier Mehlsorten einwandfrei sind. Er kann sein Brot nicht verkaufen, falls ¯ mindestens eine Mehlsorte M¨ angel aufweist. Wir verwenden P (A) = 1−P (A), also P (kann sein Brot nicht verkaufen) = P (mindestens eine Mehlsorte weist M¨angel auf) = 1 − P (keine Mehlsorte weist M¨angel auf) . ¯ f¨ Wir wenden die Rechenregel P (A) = 1 − P (A) ur jede Mehlsorte an und gehen davon aus, dass die einzelnen Mehllieferungen unabh¨angig sind, d. h.,

A.2 Elemente der Wahrscheinlichkeitsrechnung

397

dass wir die Rechenregel P (AB) = P (A)P (B) anwenden k¨onnen. Damit erhalten wir schließlich P (kann Brot nicht verkaufen) = 1 − (1 − 0.1)(1 − 0.05)(1 − 0.2)(1 − 0.15) = 1 − 0.9 · 0.95 · 0.8 · 0.85 = 0.419.

L¨osung zu Aufgabe 2.11: Zwei Ereignisse A und B sind gem¨aß Definition 2.6.1 stochastisch unabh¨ angig, wenn P (A ∩ B) = P (A) · P (B) gilt. Wir bestimmen die einzelnen Faktoren der Gleichung um ihre G¨ ultigkeit zu u ufen. Das Eintreten des Ereignisses A ist unabh¨angig vom Ausgang ¨ berpr¨ unzwurf gibt des zweiten Wurfes, es gilt somit P (A) = 21 . Beim zweifachen M¨ es 36 m¨ogliche Ergebnisse, wenn die Reihenfolge der W¨ urfe ber¨ ucksichtigt werden soll. Es ist |Ω| = 36. Das Ereignis B enth¨alt folgende Ergebnisse ⎫ ⎧ ⎨ (1; 2) (1; 4) (1; 6) (2; 1) (2; 3) (2; 5) ⎬ B = (3; 2) (3; 4) (3; 6) (4; 1) (4; 3) (4; 5) ⎭ ⎩ (5; 2) (5; 4) (5; 6) (6; 1) (6; 3) (6; 5) Mit |B| = 18 folgt

P (B) =

18 1 |B| = = . |Ω| 36 2

Das Ereignis (A ∩ B) tritt ein, wenn beide Ereignisse A und B eintreten: A ∩ B = {(2; 1)(2; 3)(2; 5)(4; 1)(4; 3)(4; 5)(6; 1)(6; 3)(6; 5)} 9 Mit |A ∩ B| = 9 folgt P (A ∩ B) = 36 = 14 . Dies ist wiederum gleich mit 1 P (A)P (B) = 4 , so dass A und B stochastisch unabh¨angig sind.

Bemerkung. Dieses Ergebnis war zu erwarten, wenn man bedenkt, dass die einzelnen W¨ urfe unabh¨ angig voneinander ausgef¨ uhrt werden und unabh¨angig davon, ob im ersten Wurf eine gerade oder eine ungerade Zahl geworfen wurde, durch das Ergebnis im zweiten Wurf stets noch eine ungerade Augensumme entstehen kann. L¨osung zu Aufgabe 2.12: Den Angaben entnehmen wir P (A) = 0.3, P (B) = 0.3, P (C) = 0.25 und P (D) = 0.15. Außerdem sind folgende Wahrscheinlichkeiten angegeben: P (verdorben|C) = 0.07 P (verdorben|A) = 0.02 P (verdorben|B) = 0.02 P (verdorben|D) = 0.02 .

398

¨ A. L¨ osungen zu den Ubungsaufgaben

a) Da A, B, C, D eine vollst¨ andige Zerlegung von Ω bilden, k¨onnen wir mit obigen Angaben den Satz von der totalen Wahrscheinlichkeit (vgl. (2.11)) anwenden. Es gilt: P (verdorben) = P (verdorben|A) · P (A) + P (verdorben|B) · P (B)

+ P (verdorben|C) · P (C) + P (verdorben|D) · P (D) = 0.02 · 0.3 + 0.02 · 0.3 + 0.07 · 0.25 + 0.02 · 0.15 = 0.0325.

b) Nach dem Satz von Bayes (vgl. (2.12)) gilt: P (A|verdorben) =

0.02 · 0.3 P (verdorben|A) · P (A) = = 0.1846 . P (verdorben) 0.0325

c) Analog wie in Teilaufgabe b) berechnen wir zun¨achst: 0.02 · 0.3 = 0.1846 0.0325 0.07 · 0.25 = 0.5385 P (C|verdorben) = 0.0325 0.02 · 0.15 P (D|verdorben) = = 0.0923 0.0325 Da die Ereignisse B, C und D disjunkt sind, gilt P (B|verdorben) =

P (B ∪ C ∪ D|verdorben) = 0.1846 + 0.5385 + 0.0923 = 0.8154 . Einfacher w¨are folgende Rechnung gewesen, die das Komplement¨arereignis verwendet, dessen Wahrscheinlichkeit bereits in b) berechnet wurde P (B ∪ C ∪ D|verdorben) = 1 − P (A|verdorben) = 1 − 0.1846 = 0.8154 . Damit k¨onnen wir nun mit Hilfe des Satzes von Bayes die gesuchte Wahrscheinlichkeit bestimmen: P (B ∪ C ∪ D|verdorben) · P (verdorben) P (B ∪ C ∪ D) 0.8154 · 0.0325 = = 0.0379 . 0.3 + 0.25 + 0.15

P (verdorben|B ∪ C ∪ D) =

L¨osung zu Aufgabe 2.13: A und B sind stochastisch unabh¨angig, d. h. es gilt P (A ∩ B) = P (A) · P (B). Aus der Angabe entnehmen wir weiter P (B) = 0.5 und P (A ∩ B) = 0.2. Zun¨ achst bestimmen wir daraus P (A) =

P (A ∩ B) 0.2 = = 0.4 , P (B) 0.5

um den Additionssatz f¨ ur zwei beliebige (nicht notwendig disjunkte) Ereignisse anwenden zu k¨ onnen und das gesuchte Ergebnis P (A ∪ B) = P (A) + P (B) − P (A ∩ B) = 0.4 + 0.5 − 0.2 = 0.7 zu erhalten.

A.2 Elemente der Wahrscheinlichkeitsrechnung

399

L¨osung zu Aufgabe 2.14: Bezeichne A das Ereignis Fahrer ist Alkohols¨ under“ ” und B das Ereignis Test zeigt positiv“. Aus den Angaben entnehmen wir die ” Wahrscheinlichkeit P (A) = 0.1 und die beiden Irrtumswahrscheinlichkeiten ¯ ¯ = 0.2. P (B|A) = 0.3 und P (B|A) a) Die Wahrscheinlichkeit f¨ ur einen postitiven Test k¨onnen wir bestimmen, ¯ indem wir die disjunkten Ereignisse P (AB) und P (AB) betrachten, f¨ ur die gilt, dass ¯ . P (B) = P (AB) + P (AB) ¯ bilden eine vollst¨ AB und AB andige Zerlegung von B. Mit dem (umgeformten) Satz von Bayes berechnen wir P (AB) = P (B|A)P (A), wobei sich ¯ ¯ als P (B|A) = 1 − P (B|A) = 0.7 erP (B|A) aus dem gegebenen P (B|A) ¯ ¯ gibt. Ebenso bestimmen wir P (AB) = P (B|A)P (A) = 0.03. Wir erhalten damit P (AB) = P (B|A)P (A) = 0.07. Setzen wir diese Zwischenergebnisse ein, so resultiert ¯ = 0.07 + 0.18 = 0.25 . P (B) = P (AB) + P (AB) ¯ f¨ b) Die Wahrscheinlichkeit P (A|B) ur einen Alkohols¨ under mit negativem Testergebnis erhalten wir mit dem Satz von Bayes aus ¯ ¯ = P (AB) = 0.03 = 0.04 , P (A|B) ¯ 1 − 0.25 P (B) ¯ bereits aus a) bekannt ist und P (B) ¯ mit dem Ergebnis von wobei P (AB) ¯ a) als P (B) = 1 − P (B) = 1 − 0.25 folgt. L¨osung zu Aufgabe 2.15: a) Keine Farbe darf doppelt vorkommen und vier Eier sollen im Osternest  liegen. Dies entspricht der Wahl von vier aus f¨ unf m¨oglichen Farben: 54 = 5. Die Anzahl der verf¨ ugbaren Eier einer bestimmten Farbe spielt auf Grund der nicht vorhandenen Unterscheidbarkeit gleichfarbiger Eier keine Rolle. b) Die Eier werden nun zuf¨ allig ausgew¨ ahlt. Jedes Ei besitzt damit die gleiche Wahrscheinlichkeit in den Osterkorb zu gelangen. i) Die Wahrscheinlichkeit des gesuchten Ereignisses betr¨agt P (2 rote Eier, 1 blaues und 1 lila Ei) =

1 , 15

da hierf¨ ur die M¨ achtigkeit der Menge der f¨ ur das Ereignis g¨ unstigen F¨alle 1 betr¨ agt (beide roten Eier m¨ ussen gezogen werden und es gibt nur jeweils ein blaues und lila Ei). Die Anzahl der m¨oglichen   ein 6! = 15. Ereignisse ergibt sich als 64 = 4!2!

400

¨ A. L¨ osungen zu den Ubungsaufgaben

ii) Die Wahrscheinlichkeit lauter verschiedenfarbige Eier zu erhalten betr¨agt 9 = 0.6 . P (lauter verschiedenfarbige Eier) = 15 Die Anzahl der g¨ unstigen Ereignisse ist hier 2·4+1 = 9, wie die folgende Tabelle der Farbkombinationen zeigt, bei der die ersten vier Farbkombinationen durch die zwei roten Eier jeweils doppelt zu z¨ahlen sind. rot blau gelb gr¨ un rot gelb gr¨ un lila rot blau gr¨ un lila rot blau gelb lila blau gelb gr¨ un lila  Die Anzahl der m¨ oglichen Ereignisse ist wie in i) 64 = 15. Eine alternative Betrachtungsweise zur Bestimmung der gesuchten Wahrscheinlichkeit ist: P (lauter verschiedenfarbige Eier) = 1 − P (mindestens zwei Eier mit gleicher Farbe) . Dies ist im konkreten Fall aber nur bei der Auswahl zweier roter 6 = 0.4, da die Eier m¨oglich. Die Wahrscheinlichkeit hierf¨ ur betr¨agt 15 4 4! Anzahl der g¨ unstigen F¨ alle gleich 2 = 2!2! = 6 ist (es m¨ ussen beide roten Eier gezogen werden; die verbleibenden zwei Eier werden aus den 4 nicht   roten Eiern gezogen). Die Anzahl der m¨oglichen F¨alle ist wieder 64 = 15. 4! c) Bei zwei roten, einem blauen und einem gelben Ei bestehen 2!1!1! = 12 m¨ogliche Farbreihenfolgen (Permutationen mit Wiederholung). L¨osung zu Aufgabe 2.16: a) Die beiden Fußballer schießen unabh¨ angig voneinander auf die Torwand. Damit ist die Wahrscheinlichkeit, dass beide ein Tor erzielen (Durchschnittsmenge) P (A ∩ B) = 0.4 · 0.5 = 0.2. Durch das dritte Axiom der Wahrscheinlichkeitsrechnung erhalten wir die gesuchte Wahrscheinlichkeit P (A ∪ B) = 0.4 + 0.5 − 0.2 = 0.7. In 70% der Torsch¨ usse trifft mindestens einer von beiden. b) Genau einer von beiden trifft dann, wenn nur A trifft oder nur B trifft, also P (A\B ∪ B\A) = 0.4 − 0.2 + 0.5 − 0.2 = 0.5. Genau einer von beiden trifft in 50% der Torsch¨ usse. c) Nur B trifft mit der Wahrscheinlichkeit P (B\A) = 0.5 − 0.2 = 0.3, somit in 30% der Torsch¨ usse.

A.3 Zuf¨ allige Variablen

401

A.3 Zuf¨ allige Variablen L¨osung zu Aufgabe 3.1: Die Verteilungsfunktion lautet ⎧ f¨ ur x < 2 ⎨0 1 2 − x + 2x − 3 f¨ u r2≤x≤4 F (x) = ⎩ 4 1 f¨ ur x > 4

a) Bildung der ersten Ableitung liefert die Dichtefunktion: F ′ (x) = f (x) ⎧ f¨ ur x < 2 ⎨0 ur 2 ≤ x ≤ 4 f (x) = − 12 x + 2 f¨ ⎩ 0 f¨ ur x > 4

b) Erwartungswert: Mit (3.14) berechnen wir f¨ ur den Erwartungswert





2

4 1 x0 dx E(X) = x f (x) dx = x0 dx + x (− x + 2) dx + 2 4 −∞ −∞ 2 

4 1 = 0+ − x2 + 2x dx + 0 2 2  4 1 3 64 8 8 2 = − x +x = (− + 16) − (− + 4) = . 6 6 6 3 2 Wir haben bereits den Erwartungswert E(X) ermittelt, so dass nun noch E(X 2 ) bestimmt werden muß, um mit Verschiebungssatz (3.26) die Varianz Var(X) zu bestimmen (Var(X) = E(X 2 ) − [E(X)]2 ).   

4 1 1 − x3 + 2x2 dx x2 − x + 2 dx = 2 2 2 2  4 1 2 128 16 22 = − x4 + x3 = (−32 + ) − (−2 + ) = , 8 3 3 3 3 2

E(X 2 ) =

4

 8 2 also gilt Var(X) = 22 = 66−64 = 29 . 3 − 3 9 Berechnung der Varianz ist nat¨ urlich auch u ¨ ber die Definition Var(X) = Die ∞ 2 (x − E(X)) f (x)dx m¨ o glich, der obige Weg ist jedoch einfacher. −∞

L¨osung zu Aufgabe 3.2: Gegeben ist folgende Funktion  2x − 4 f¨ ur 2 ≤ x ≤ 3 f (x) = 0 sonst

a) Um zu u ufen, ob f (x) eine Dichte ist, verwenden wir Satz 3.4.1. Die ¨ berpr¨ erste Bedingung f (x) ≥ 0 ist erf¨ ullt, da 2x−4 im Intervall [2,  ∞3] stets gr¨oßer oder gleich Null ist. Gem¨ aß der zweiten Bedingung muß −∞ f (x)dx den Wert 1 ergeben, also:

¨ A. L¨ osungen zu den Ubungsaufgaben

402

2

3

(2x − 4)dx = [x2 − 4x]32 = 9 − 12 − 4 + 8 = 1

Somit ist f (x) die Dichtefunktion einer stetigen Zufallsvariable X. b) F¨ ur x < 2 ist f (x) = 0 und damit auch F (x) = 0. F¨ ur x > 3 ist F (x) = 1, wie wir eben ermittelt haben. Damit muß nur noch die Verteilungsfunktion f¨ ur 2 ≤ x ≤ 3 bestimmt werden:

x

x ( )x f (t)dt = (2t − 4)dt = t2 − 4t 2 = x2 − 4x − 4 + 8 = x2 − 4x + 4 . −∞

2

Wir erhalten f¨ ur die Verteilungsfunktion F (x) also insgesamt ⎧ f¨ ur x < 2 ⎨0 ur 2 ≤ x ≤ 3 F (x) = x2 − 4x + 4 f¨ ⎩ 1 f¨ ur x > 3

L¨osung zu Aufgabe 3.3:

a) Wir bestimmen zun¨ achst die Konstante c so, dass f (x) eine Dichtefunktion ist:  cx f¨ ur 1 ≤ x ≤ 3 f (x) = 0 sonst Gem¨aß Satz 3.4.1 muß f (x) ≥ 0 f¨ ur alle x gelten. Dies ist f¨ ur alle c ≥ 0 gegeben. F¨ u r eine Dichtefunktion muß weiterhin gelten, dass ∞ f (x)dx = 1. Wir setzen das gegebene f (x) ein und erhalten die Be−∞ dingung

3

cxdx = 1 ,

1

also

:c

2

x2

;3 1

=1

1 9 c− c = 1 2 2 4c = 1 . Damit beide Bedingungen von Satz 3.4.1 erf¨ ullt sind, muß also c = gelten. b) Mit c = 14 lautet die gesuchte Wahrscheinlichkeit P (X ≥ 2) =

2

3

 3 1 2 1 9 1 4 1 5 1 xdx = x − = − − + = . 4 8 4 2 8 4 8 4 8

1 4

A.3 Zuf¨ allige Variablen

403

L¨osung zu Aufgabe 3.4: a) Aus den Angaben bestimmen wir F ′ (x) ⎧ ⎨0 f (x) = 15 ⎩ 0

zun¨ achst die Dichtefunktion f (x) = f¨ ur x < 3 f¨ ur 3 ≤ x ≤ 8 f¨ ur x > 8

b) Es gilt P (X = 5) = 0, da gem¨ aß (3.11) bei stetigen Zufallsvariablen die Wahrscheinlichkeiten f¨ ur einzelne Punkte gleich Null sind. 5−3 2 c) Mit (3.12) erhalten wir P {5 ≤ X ≤ 7} = F (7) − F (5) = 7−3 5 − 5 = 5.

L¨osung zu Aufgabe 3.5: Die Zufallsvariable X ist diskret und besitzt folgende Wahrscheinlichkeitsfunktion xi P (X = x)

1

2

3

4

5

6

1 9

1 9

1 9

2 9

1 9

3 9

Wir berechnen gem¨ aß (3.14) 1 1 1 2 1 3 +2· +3· +4· +5· +6· 9 9 9 9 9 9 1 + 2 + 3 + 8 + 5 + 18 37 = = . 9 9

E(X) = 1 ·

Die Varianz berechnen wir mit dem Verschiebungssatz (3.26). Dazu ben¨otigen wir noch 1 1 1 2 1 3 E(X 2 ) = 1 · + 4 · + 9 · + 16 · + 25 · + 36 · 9 9 9 9 9 9 1 + 4 + 9 + 32 + 25 + 108 179 = = . 9 9 ur Var(X) = E(X 2 ) − [E(X)]2 der Wert Damit ergibt sich f¨ Var(X) =

179 37 1611 − 1369 242 − ( )2 = = . 9 9 81 81

F¨ ur die transformierte Variable Y = lichkeitsfunktion yi = x1i P ( X1 = y)

1 1 9

1 2 1 9

1 X

erhalten wir folgende Wahrschein1 3 1 9

1 4 2 9

1 5 1 9

1 6 3 9

Damit erhalten wir f¨ ur den Erwartungswert gem¨aß (3.14) E(Y ) = E(

Damit ist E( X1 ) =

1 1 1 1 1 1 2 1 1 ) = 1· + · + · + · + X 9 2 9 3 9 4 9 5 1 1 1 1 1 1 = + + + + + = 9 18 27 18 45 18 1 E(X) .

1 1 3 + · 9 6 9 91 . 270

·

404

¨ A. L¨ osungen zu den Ubungsaufgaben

L¨osung zu Aufgabe 3.6: Gegeben ist die Verteilungsfunktion der Zufallsgr¨oße X: k 1 3 5 7

P (X ≤ k) 0.1 0.5 0.7 1

Mit P (X ≤ k) = P (X < k)+P (X = k) kann daraus die Wahrscheinlichkeitsfunktion von X abgelesen werden. Es ist P (X ≤ 1) = P (X < 1) + P (X = 1). Da gem¨aß obiger Verteilungsfunktion P (X < 1) = 0 ist, gilt P (X = 1) = 0.1. Der Wert f¨ ur P (X = 3) ergibt sich aus P (X ≤ 3) = P (X < 3) + P (X = 3). Aus der Verteilungsfunktion entnehmen wir P (X ≤ 3) = 0.5. Dies ergibt mit dem eben berechneten Wert von P (X = 1) = 0.1, dass P (X = 3) = 0.4 ist. Die restlichen Werte ergeben sich analog. k 1 3 5 7

P (X = k) 0.1 0.4 0.2 0.3

Mit diesem Ergebnis berechnen wir nun E(X) = 1 · 0.1 + 3 · 0.4 + 5 · 0.2 + 7 · 0.3 = 4.4 . Wir berechnen weiter E(X 2 ) = 1 · 0.1 + 9 · 0.4 + 25 · 0.2 + 49 · 0.3 = 23.4 , um mit dem Verschiebungssatz die Varianz zu erhalten: Var(X) = 23.4 − (4.4)2 = 4.04. Nimmt X nur die Werte 1,3,5 und 7 an, so nimmt die Zufallsvariable 1 2 2 2 X 2 nur die Werte 1,1/3 , 1/5 und 1/7 an. Mit der oben ermittelten Wahrscheinlichkeitsfunktion von X berechnen wir f¨ ur die Zufallsvariable 1/X 2    1 1 E = P (X = x) X2 x2 1 1 1 = 1 · 0.1 + · 0.4 + · 0.2 + · 0.3 9 25 49 1 4 2 3 = + + + = 0.1586 . 10 90 250 490 L¨osung zu Aufgabe 3.7: Die Augenzahlen der beiden W¨ urfel sind unabh¨angige Zufallsgr¨oßen.

A.3 Zuf¨ allige Variablen

405

a) Sei die Zufallsgr¨ oße X: Differenz zwischen Augenzahl blauer W¨ urfel und ” Augenzahl roter W¨ urfel“. Die folgende Tabelle gibt die m¨oglichen Kombinationen der Ergebnissse in der Form (blau, rot) und die daraus abgeleitete Wahrscheinlichkeitsfunktion von X an. −5 −4 −3 (1,6) (1,5) (1,4) (2,6) (2,5) (3,6)

k

P (X = k)

1 36

2 36

−2 (1,3) (2,4) (3,5) (4,6)

−1 (1,2) (2,3) (3,4) (4,5) (5,6)

0 (1,1) (2,2) (3,3) (4,4) (5,5) (6,6)

1 (2,1) (3,2) (4,3) (5,4) (6,5)

4 36

5 36

6 36

5 36

3 36

2 3 4 5 (3,1) (4,1) (5,1) (6,1) (4,2) (5,2) (6,2) (5,3) (6,3) (6,4) 4 36

3 36

2 36

1 36

Daraus ergibt sich als Verteilungsfunktion: k P (X ≤ k)

−5 1 36

−4 3 36

−3 6 36

−2 10 36

−1 15 36

0

1

2

3

4

21 36

26 36

30 36

33 36

35 36

5 1

b) Wir berechnen 1 E(X) = (−5)1 + (−4)2 + (−3)3 + (−2)4 + (−1)5 + 0 · 6 + 36  +1·5+2·4+3·3+2·4+5·1  1 = −5−8−9−8−5+5+8+9+8+5 =0 36 1 E(X 2 ) = 25 · 1 + 16 · 2 + 9 · 3 + 4 · 4 + 1 · 5 + 0 · 6 + 1 · 5 + 36  + 4 · 4 + 9 · 3 + 16 · 2 + 25 · 1  210 1 . = 25 + 32 + 27 + 16 + 5 + 5 + 16 + 27 + 32 + 25 = 36 36 Damit erhalten wir nach dem Verschiebungssatz Var(X) = E(X 2 ) − [E(X)]2 = 210 36 . ur die Zufallsgr¨ oße Y : Summe der beiden Augenzahlen“ leiten wir die c) F¨ ” Wahrscheinlichkeitsfunktion aus der unter a) angegebenen Wahrscheinlichkeitsfunktion der Zufallsvariablen X ab: k P (Y = k)

2

3

4

5

6

7

8

9

10

11

12

1 36

2 36

3 36

4 36

5 36

6 36

5 36

4 36

3 36

2 36

1 36

Mit den Tabellenwerten berechnen wir die Wahrscheinlichkeiten f¨ ur die zuf¨alligen Ereignisse

406

¨ A. L¨ osungen zu den Ubungsaufgaben

– Y ist mindestens 3: P (Y ≥ 3) = 1 − P (Y < 3) = 1 − P (Y ≤ 2) = 1 −

35 1 = . 36 36

– Y ist h¨ochstens 7:

21 7 = . 36 12 – Y hat Werte h¨ ochstens 11 und mindestens 4: P (Y ≤ 7) =

P (4 ≤ Y ≤ 11) = P (Y ≤ 11) − P (Y ≤ 3) =

3 32 8 35 − = = . 36 36 36 9

L¨osung zu Aufgabe 3.8: Wenn X symmetrisch um c ist, so ist die Variable Y = X − c symmetrisch um 0, d.h. es gilt f (−y) = f (y). Wegen E(Y ) = E(x − c) = E(X) − c ist E(X) = c ¨ aquivalent zu E(Y ) = 0. Dies ist nun zu zeigen:

E(Y ) =



y f (y) dy =

−∞



=−

0

0

y f (y) dy + −∞

y f (−y) dy +





y f (y) dy

0



y f (y) dy = 0

0

L¨osung zu Aufgabe 3.9: Wir beschr¨ anken uns auf eine stetige Zufallsvariable X, f¨ ur die

∞ E(X) = x f (x) dx −∞

gilt. Da gem¨aß Vorgabe X ≥ 0 gilt und da f (x) eine Dichte ist, f¨ ur die allgemein f (x) ≥ 0 f¨ ur alle x gilt, folgt xf (x) ≥ 0 f¨ ur alle x ∈ (−∞, ∞) und damit auch E(X) ≥ 0. F¨ ur diskrete  Zufallsvariablen verl¨ auft die Argumentation analog; an die Stelle von xf (x)dx tritt dann xP (X = x). Die Summe ist positiv, da P (X = x) ≥ 0 stets erf¨ ullt ist.

L¨osung zu Aufgabe 3.10: Gegeben ist eine Zufallsgr¨oße X mit E(X) = 15, Var(X) = 4.

a) Es gilt P (|X − μ| < c) = P (|X − μ| ≤ c), da Punktwahrscheinlichkeiten im stetigen Fall Null sind. Da keine n¨ aheren Angaben zur Verteilung von X gemacht werden, verwenden wir die Ungleichung von Tschebyschev in der alternativen Darstellung (vgl. (3.37)): P (|X − μ| < c) ≥ 1 −

Var(X) c2

Das betrachtete Intervall [10, 20] liegt symmetrisch um E(X) = μ = 15 und 10 ≤ X ≤ 20 ist ¨ aquivalent zu |X −15| ≤ 5. Es ergibt sich die gesuchte Wahrscheinlichkeit als 4 21 P (|X − 15| ≤ 5) ≥ 1 − = = 0.84 . 25 25

A.3 Zuf¨ allige Variablen

407

b) Wir verwenden wieder die Ungleichung von Tschebyschev (vgl. (3.37)): P (|X − μ| < c) ≥ 0.9 = 1 −

Var(X) . c2

Die Bestimmungsgleichung f¨ ur c lautet also: 1−

Var(X) = 0.9 c2 Var(X) 4 c2 = = = 40 0.1 0.1 √ c = ± 40 = ±6.325

Das gesuchte Intervall [μ − c; μ + c] lautet damit [15 − 6.325; 15 + 6.325] = [8.675; 21.325]. L¨osung zu Aufgabe 3.11: a) Ereignis A: Es tritt genau einmal Wappen auf“. Dies kann im ersten ” Wurf, im zweiten, im dritten oder im vierten Wurf geschehen. Es gilt also A = {(W, Z, Z, Z), (Z, W, Z, Z), (Z, Z, W, Z), (Z, Z, Z, W )}. F¨ ur jedes der vier Teilereignisse Ai von A gilt  3  4 1 1 1 = . P (Ai ) = 2 2 2 4 Damit ist P (A) = 4 · ( 12 )4 = 16 = 14 . Ereignis B: Es tritt mindestens zweimal Wappen auf“. Wir berechnen ” diese Wahrscheinlichkeit u ¨ber das Gegenereignis.

P (mindestens 2 Wappen) = 1 − P (kein Wappen) − P (genau 1 Wappen) Die Wahrscheinlichkeit f¨ ur genau einmal Wappen haben wir bereits bestimmt, die Wahrscheinlichkeit f¨ ur kein Wappen ergibt sich analog zu  4 1 . P (kein Wappen) = 1 · 2 Wir erhalten insgesamt P (mind. 2 Wappen) = 1 −

1 1 5 11 − =1− = . 4 16 16 16

Ereignis C: Es tritt h¨ ochstens einmal Wappen auf“. Dieses Ereignis hat” ten wir gerade als Komplement¨ arereignis zur Berechnung von B: minde” stens zweimal Wappen“ verwendet. Damit gilt P (h¨ochstens einmal Wappen) = 1 − P (mind. 2 Wappen) = 1 −

5 11 = . 16 16

408

¨ A. L¨ osungen zu den Ubungsaufgaben

b) Wir verwenden das Gegenereignis zur Berechnung der gesuchten Wahrscheinlichkeit.  n 1 . P (nie Wappen) = 2 Damit erh¨alt man P (mindestens einmal Wappen) = 1 − ( 12 )n . Die Forderung an n lautet also 1 − ( 21 )n > 0.9, bzw. umgeformt  n 1 < 0.1 . 2

Wir logarithmieren:   1 n ln < ln(0.1) 2 ln(0.1) = 3.32 n> ln( 12 ) Das gesuchte minimale n ist also n = 4. Die M¨ unze m¨ ußte mindestens 4-mal geworfen werden. L¨osung zu Aufgabe 3.12: a) Die Zufallsvariable X : Kosten des Gespr¨achs“ ist diskret. Mit (3.14) ” berechnen wir ihren Erwartungswert: 1 1 1 E(X) = 12 + 24 + . . . + 72 2 4 48 = 6 + 6 + 2.25 + 4 + 5 + 1.5 = 24.75 . Mit dem Verschiebungssatz f¨ ur die Varianz (vgl. (3.26)) erhalten wir: Var(X) = E(X 2 ) − [E(X)]2 1 1 1 = 122 + 242 + . . . + 722 − 24.752 2 4 48 = 72 + 144 + 81 + 192 + 300 + 108 − 24.752 = 897 − 24.752 = 284.4375 .

Analog h¨atten wir auch (3.20) verwenden k¨onnen, um Var(X) direkt zu berechnen: Var(X) = E[X − E(X)]2 1 1 = (12 − 24.75)2 + . . . + (72 − 24.75)2 2 48 1 1 1 1 1 = (−12.75)2 + (−0.75)2 + 11.252 + 23.252 + 35.252 + 2 4 16 12 12 1 +47.252 48 = 284.4375

A.3 Zuf¨ allige Variablen

409

· 100% = 7.6% b) Die relative Preis¨ anderung betr¨ agt 24.75−23 23 c) Aus der angegebenen Kostenstruktur und dem daraus folgenden Zusammenhang zwischen der diskreten Zufallsvariablen X und der stetigen Zufallsvariablen Y berechnen wir 1 2 P (Y > 180) = P (X > 12 + 12) = P (X > 24) = P (X = 36) + P (X = 48) + P (X = 60) + P (X = 72) 1 1 1 1 1 = + + + = . 16 12 12 48 4 P (Y ≤ 90) = P (X = 12) =

Alternativ k¨onnen wir auch das Gegenereignis zur Berechnung verwenden P (Y > 180) = 1 − P (X ≤ 24) = 1 − P (X = 12) − P (X = 24) 1 1 1 = 1− − = . 2 4 4 d) Nein. Es gilt E(Y ) = E(X) · 90 12 , denn X ist diskret, Y aber stetig! Wie Y innerhalb der 90–Sekunden–Intervalle verteilt ist, ist unbekannt. L¨osung zu Aufgabe 3.13: a) Die gemeinsame Verteilung kann aus den Angaben abgelesen werden.

X

−1 2

0 0.3 0.1

Y 1 0.2 0.1

2 0.2 0.1

Die beiden Randverteilungen erhalten wir durch zeilenweises Summieren u ¨ ber Y bzw. spaltenweises Summieren u ¨ber X als X P(X=x)

−1 0.7

2 0.3

Y P(Y=y)

0 0.4

1 0.3

2 0.3

b) Unabh¨angigkeit von X und Y ist ¨ aquivalent zu der Bedingung P (X = x, Y = y) = P (X = x)P (Y = y) ∀x, y . In unserem Fall gilt aber z.B.: P (X = −1, Y = 0) = 0.3 = P (X = −1) · P (Y = 0) = 0.7 · 0.4 = 0.28 , so dass X und Y nicht unabh¨ angig sind. c) Aus der gemeinsamen Verteilung ergibt sich f¨ ur die Verteilung der Summe U = X + Y die Wahrscheinlichkeitsfunktion k P (U = k)

−1 0.3

0 0.2

1 0.2

2 0.1

3 0.1

4 0.1

410

¨ A. L¨ osungen zu den Ubungsaufgaben

Daraus und aus den Ergebnissen unter a) berechnen wir die Erwartungswerte E(U ) =

4 

k=−1

k · P (U = k) = 0.8

E(X) = (−1)0.7 + 2 · 0.3 = −0.1

E(Y ) = 0 · 0.4 + 1 · 0.3 + 2 · 0.3 = 0.9 .

Der Erwartungswert einer Summe von Zufallsvariablen ist stets gleich der Summe der Erwartungswerte. Es gilt also auch hier E(X) + E(Y ) = −0.1 + 0.9 = 0.8 = E(U ). Die Varianzen werden u ¨ber den Verschiebungssatz berechnet Var(U ) = E(U 2 ) − [E(U )]2 = 3.4 − (0.8)2 = 2.76

Var(X) = E(X 2 ) − [E(X)]2 = 1.9 − (−0.1)2 = 1.89 Var(Y ) = E(Y 2 ) − [E(Y )]2 = 1.5 − (0.9)2 = 0.69 . Hier gilt Var(U ) = Var(X) + Var(Y ), denn die Varianz einer Summe von Zufallsvariablen ist nur dann gleich der Summe der Varianzen, wenn die Kovarianz Null ist (vgl. (3.42)). Wir k¨onnen hier damit nicht ’genau dann wenn’ verwenden. L¨osung zu Aufgabe 3.14: a) Beim Ziehen mit Zur¨ ucklegen sind X und Y unabh¨angig. Dies wird klar, wenn man bedenkt, dass im zweiten Zug durch das Zur¨ ucklegen die gleichen Bedingungen herrschen wie im ersten Zug. Der erste Zug beeinflusst den Ausgang des zweiten Zugs nicht. Wir u ufen Definition 3.4.2 f¨ ur das Ziehen ohne Zur¨ ucklegen. Hier ¨berpr¨ gilt 1 1 P (X = 2, Y = 2) = 0 = P (X = 2) · P (Y = 2) = · . 8 8 Wird im ersten Zug eine rote Kugel gezogen, so ist beim Ziehen ohne Zur¨ ucklegen keine rote Kugel mehr in der Urne und der erste Zug beeinflusst somit den zweiten Zug. Beim Ziehen ohne Zur¨ ucklegen sind X und Y also abh¨angig. b) Wir bestimmen die gemeinsame Verteilung aus der bedingten Verteilung Y |X und der Randverteilung von X gem¨ aß folgendem Schema. P (Y = 1, X = 1) = P (Y = 1|X = 1)P (X = 1) =

6 2 3 · = 7 8 56

P (Y = 1, X = 2) = P (Y = 1|X = 2)P (X = 2) =

3 1 3 · = 7 8 56

...

3 4 12 · = 7 8 56 Als gemeinsame Verteilung erhalten wir schließlich folgende Werte: P (Y = 3, X = 3) = P (Y = 3|X = 3)P (X = 3) =

A.3 Zuf¨ allige Variablen

Y 2

1 1 2 3

X

6 56 3 56 12 56

3 56

0 4 56

411

3 12 56 4 56 12 56

F¨ ur die Erwartungswerte erhalten wir 3 1 4 17 +2· +3· = 8 8 8 8 17 E(Y ) = E(X) = . 8 Um die Varianz mit Hilfe des Verschiebungssatzes berechnen zu k¨onnen, bestimmen wir zun¨ achst E(X 2 ) und E(Y 2 ). E(X) = 1 ·

43 1 4 3 + 22 + 32 = 8 8 8 8 43 2 2 E(Y ) = E(X ) = . 8 Damit erhalten wir die Varianzen  2 43 17 55 Var(X) = E(X 2 ) − [E(X)]2 = − = 8 8 64 55 . Var(Y ) = Var(X) = 64 Wir benutzen (3.42), um Cov(X, Y ) = E(XY ) − E(X) E(Y ) zu bestimmen. Zu den oben bereits berechneten Gr¨ oßen ben¨otigen wir nun noch E(XY ). E(X 2 ) = 12

3 12 3 4 12 4 12 6 +2 +3 +2 +4·0+6 +3 +6 +9 56 56 56 56 56 56 56 56 246 = . 56 Mit (3.45) erhalten wir schließlich E(XY ) = 1

246 289 Cov(X, Y ) 56 − 64 ρ=  = # = −0.143 . 55 55 Var(X) · Var(Y ) · 64 64

L¨osung zu Aufgabe 3.15: Aus den Angaben bilden wir die gemeinsame Verteilung: Y

X

−1 1

−2 1 6 1 6 2 6

0 0 1 6 1 6

1 2 6

0 2 6

2 0 1 6 1 6

3 6 3 6

412

¨ A. L¨ osungen zu den Ubungsaufgaben

Unkorreliertheit erfordert Cov(X, Y ) = 0, dies ist nach (3.42) ¨aquivalent zu E(XY ) = E(X) · E(Y ). Wir berechnen:  E(XY ) = xi yj pij i

j

2 1 1 1 1 = (−1)(−2) + (−1) + (−2) + 1 · 0 · + 2 · 6 6 6 6 6 2 2 2 2 = − − + =0 6 6 6 6 3 3 E(X) = −1 · + 1 · = 0 6 6 2 2 1 E(Y ) = −2 · + 1 · + 2 · = 0 6 6 6

Also gilt E(XY ) = E(X) · E(Y ), d.h. X und Y sind unkorreliert. Die Unabh¨angigkeit zweier Zufallsvariablen erfordert die G¨ ultigkeit von P (X = xi , Y = yj ) = P (X = xi )P (Y = yj ) f¨ ur alle i, j. Nun gilt aber z.B.: 3 1 3 · = , 6 6 36 d.h. X und Y sind zwar unkorreliert, jedoch nicht unabh¨angig. L¨osung zu Aufgabe 3.16: P (X = −1, Y = 0) = 0 = P (X = −1)P (Y = 0) =

a) Die Zufallsvariable X kann die Werte (-6, 0, 4, 6) annehmen. Es handelt sich um eine diskrete Zufallsvariable. b) Das Spiel wir u unzwurf’ entschieden. Eine ¨ ber das Zufallsexperiment ’M¨ faire M¨ unze mit den Ereignissen K: Kopf und Z: Zahl hat die Elementarwahrscheinlichkeiten P (K) = P (Z) = 0.5. Mehrmaliges Werfen einer M¨ unze ist ein unabh¨ angiges Zufallsexperiment, da kein M¨ unzwurf den folgenden M¨ unzwurf beeinflusst. Betrachten wir dazu ein Baumdiagramm. Wir sehen in der Grafik, dass wir drei M¨oglichkeiten f¨ ur das Ereignis {K, Z, Z} und f¨ ur das Ereignis {K, K, Z} haben (die Reihenfolge von Kopf oder Zahl ist hier egal). Die Ereignisse {K, K, K} und {Z, Z, Z} sind jeweils nur auf einem Weg m¨ oglich. Damit erhalten wir folgende Tabelle ¨ f¨ ur die Wahrscheinlichkeiten. Ubertragen auf unser Spiel und die jeweiEreignis {K, K, K} {K, K, Z} {K, Z, Z} {Z, Z, Z}

Wahrscheinlichkeit ( 12 )3 = 18 3 · ( 21 )3 = 83 3 8 1 8

ligen Auszahlungen ergibt das die folgende Wahrscheinlichkeitsfunktion. Hinweis: Die Wahrscheinlichkeiten k¨ onnen auch mit Hilfe der in Kapitel 4 diskutierten Binomialverteilung bestimmt werden.

A.3 Zuf¨ allige Variablen

413

Wurf 1 0.5

0.5

Zahl

Kopf

Wurf 2

Kopf

Zahl

Kopf

Zahl

Wurf 3

Kopf

Zahl

Zahl

Kopf

i 1 2 3 4

xi -6 0 4 6

Kopf

Zahl

Kopf

Zahl

P (X = xi ) 3 8 1 8 3 8 1 8

c) Durch Aufsummieren der einzelnen Wahrscheinlichkeiten erhalten wir die Verteilungsfunktion. x −∞ < x < −6 −6 ≤ x < 0 0≤x 2) = 1 − P (Y ≤ 2) = 1 − (P (Y = 0) + P (Y = 1) + P (Y = 2)) = 1 − (0.0025 + 0.0149 + 0.0446) = 0.9380 . P (Y = 2) =

416

¨ A. L¨ osungen zu den Ubungsaufgaben

F¨ ur die Exponentialverteilung gilt mit (4.18)

20 1 1 1 − 10 1 x e e− 10 x dx P (X ≤ 20) = dx = 10 10 0 0 ;20 1 1 : − 10 x = (−10)e = −e−2 + 1 = 0.865 . 10 0

20

L¨osung zu Aufgabe 4.3: Aus der Aufgabenstellung entnehmen wir die Zufallsvariable X : Nudell¨ ange, f¨ ur die X ∼ N (μ, σ2 ) mit σ 2 = 4 gelte. a) Die Wahrscheinlichkeit f¨ ur eine Unterschreitung von mehr als 3 mm ist P (X < 47). Zur Berechnung verwenden wir eine Transformation auf die N (0, 1)-Verteilung, um die tabellierten Werte verwenden zu k¨onnen:   X − 50 47 − 50 P (X < 47) = P < = Φ(−1.5) = 1 − Φ(1.5) = 0.0668 . 2 2 b) μ ist so zu w¨ ahlen, dass P (X ≤ 60) = 0.99 gilt. Dies bedeutet     X −μ 60 − μ 60 − μ ≤ P = 0.99, also Φ = 0.99. 2 2 2 Wir entnehmen aus der Tabelle B.1: Φ(2.33) = 0.99010. Daraus folgt 60−µ = 2.33, also μ = 55.34. 2 Die Maschine ist also mit μ = 55.34 zu justieren. L¨osung zu Aufgabe 4.4: F¨ ur eine diskrete Zufallsvariable X mit dem Tr¨ager x1 , . . . , xn und der Wahrscheinlichkeitsfunktion p1 , . . . , pn mit i pi = 1 gilt E(X) =

n  i=1

xi pi ,

Var(X) =

n  i=1

(xi − E(X))2 · pi

a) Null-Eins-Verteilung Tr¨ ager: x1 = 1, x2 = 0 p1 = p, p2 = 1 − p E(X) = 1 · p + 0 · (1 − p) = p Var(X) = (1 − p)2 · p + (0 − p)2 · (1 − p) = p(1 − p) b) Die Binomialverteilung B(n; p) ist die Summe n unabh¨angiger, identischer B(1; p)-Verteilungen (B(1; p) ist eine Null-Eins-Verteilung.) Der Erwartungswert einer Summe von Zufallsvariablen ist stets die Summe der Erwartungswerte der einzelnen Summanden. Sei X ∼ B(n; p) und Xi ∼ B(1; p), so gilt also

A.4 Diskrete und stetige Standardverteilungen n 

E(X) =

417

E(Xi ) = np.

i=1

angig vorausgesetzt sind, gilt f¨ ur die Varianz Da die Xi ∼ B(1; p) als unabh¨ die Regel (3.27) (Additivit¨ at bei Unabh¨ angigkeit): Var(X) =

n  i=1

Var(Xi ) = np(1 − p).

L¨osung zu Aufgabe 4.5: Die Poissonverteilung ist diskret, wir haben f¨ ur X x den Tr¨ager (0, 1, 2, . . .) und P (X = x) = λx! e−λ . Den Erwartungswert von X berechnen wir gem¨ aß E(X) =



xP (X = x) =

{0,1,2,...}



∞  λx

x=0

x!

e−λ = λ

∞ 

∞ ∞   λx−1 −λ λx e x e−λ = λ x! (x − 1)! x=1 x=1

P (X = x) = λP (Ω) = λ.

x=0

F¨ ur die Bestimmung der Varianz von X wenden wir den Verschiebungssatz an Var(X) = E(X)2 − [E(X)]2 . Zun¨achst bestimmen wir (vgl. R¨ uger (1988), S.322) E[X(X − 1)] = E(X 2 ) − E(X) ∞  λx = x(x − 1) e−λ x! x=0 = λ2 = λ2

∞  λx−2 −λ e (x − 2)! x=2 ∞  λx

x=0

x!

e−λ = λ2 .

Damit ist E(X 2 ) − λ = λ2 , d.h.

Var(X) = E(X 2 ) − [E(X)]2 = [λ2 + λ] − λ2 = λ.

L¨osung zu Aufgabe 4.6: a) Die Zufallsgr¨oße X hat die Verteilung X ∼ B(10; 41 ) mit E(X) = np = 10 4 = 2.5 und Var(X) = n p q = 10 · 0.25 · 0.75 = 1.875.

418

¨ A. L¨ osungen zu den Ubungsaufgaben

Die gesuchte Wahrscheinlichkeit wird wie folgt berechnet P (0.5 ≤ X ≤ 4.5) = P (1 ≤ X ≤ 4)

= P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4)   10 P (X = 1) = 0.251 0.759 = 0.1877 1 P (X = 2) = 0.2816 P (X = 3) = 0.2503 P (X = 4) = 0.1460

Damit erhalten wir P (0.5 ≤ X ≤ 4.5) = 0.1877 + 0.2816 + 0.2503 + 0.1460 = 0.8656. b) Die Absch¨atzung mittels Tschebyschev-Ungleichung ergibt P (|X − μ| < 2) ≥ 1 −

1.875 = 0.53125. 22

L¨osung zu Aufgabe 4.7: Die Zufallsgr¨ oße Xi ist Bernoulli- bzw. Null-Eins¯ = 1 − p. Es werden n unabh¨angige Wiederverteilt mit P (A) = p und P (A) holungen durchgef¨ uhrt. a) F¨ ur Xi (i = 1, . . . , n) gilt E(Xi ) = 1 · p + 0 · (1 − p) = p

Var(Xi ) = E(Xi2 ) − [E(Xi )]2 = [12 p + 02 (1 − p)] − p2 = p − p2 = p(1 − p) . ¯ = 1 n Xi berechnen wir F¨ ur die Zufallsgr¨ oße X i=1 n   ¯ = E 1 (X1 + . . . + Xn ) E(X) n 1 1 = E(X1 + . . . + Xn ) = (E(X1 ) + E(X2 ) . . . + E(Xn )) n n 1 1 = (p + p + . . . + p) = np = p   n  n n-mal   1 ¯ Var(X) = Var (X1 + . . . + Xn ) n 1 1 1 = 2 Var(X1 + . . . + Xn ) = 2 np(1 − p) = p(1 − p). n n n

A.4 Diskrete und stetige Standardverteilungen

419

b) Nach der Tschebyschev-Ungleichung gilt ¯ ¯ − E(X)| ¯ < c) ≥ 1 − Var(X) P (|X 2 c 1 p(1 − p) p(1 − p) = 1− n =1− . c2 nc2 Es gilt stets

p(1 − p) ≤ 14 . Daraus folgt die Absch¨atzung

1 . 4nc2 Nun setzen wir c = 0.01 und die vorgegebene Wahrscheinlichkeit von 0.98 ein und erhalten 1 . 0.98 ≥ 1 − 4 · n · 0.012 Aufl¨osen nach n ergibt n ≥ 125000. ¯ − p| < c) ≥ 1 − P (|X

L¨osung zu Aufgabe 4.8: Gegeben ist: M weiße Kugeln N − M schwarze Kugeln n Kugeln ohne Zur¨ ucklegen ziehen  1 falls im i-ten Zug weiß, i = 1, . . . , n Die Zufallsgr¨ oße ist Xi = 0 sonst

a) F¨ ur den ersten Zug ist die Wahrscheinlichkeit gleich der relativen H¨aufigkeit der weißen Kugeln in der Urne, d.h. es gilt P (X1 = 1) = M N (vgl. auch (4.8)). b) Die beiden m¨ oglichen Ziehungen sind: (1. Kugel schwarz, 2. Kugel weiß) und (1. Kugel weiß, 2. Kugel weiß). Mit dem Satz von der totalen Wahrscheinlichkeit gilt: P (X2 = 1) =

1 

P (X2 = 1|X1 = k)P (X1 = k)

k=0

= P (X2 = 1|X1 = 0)P (X1 = 0)    1.Kugel schwarz 2.Kugel weiß

+ P (X2 = 1|X1 = 1)P (X1 = 1)    1.Kugel weiß 2.Kugel weiß

M N −M M −1M MN − M2 + M2 − M = + = N −1 N N −1 N N (N − 1) M (N − 1) M = = . N (N − 1) N c) Im ersten Zug ist eine weiße Kugel gezogen worden, es verbleiben M − 1 weiße Kugeln unter den N − 1 Kugeln vor der zweiten Ziehung. Damit ist die gesuchte Wahrscheinlichkeit gleich der relativen H¨aufigkeit, also P (X2 = 1|X1 = 1) = M−1 N −1 .

420

¨ A. L¨ osungen zu den Ubungsaufgaben

d) Mit dem Satz von der totalen Wahrscheinlichkeit gilt analog zu b): P (Xi = 1) =

i−1 

P (Xi = 1|Xi−1 = k)P (Xi−1 = k)

k=0

=

i−1 

k=0

=

M −k P (Xi−1 = k) N − (i − 1) i−1

 M P (Xi−1 = k) N − (i − 1) k=0    =1



1 N − (i − 1)

i−1 

k=0



k · P (Xi−1 = k) 

=E(Xi−1 )=(i−1) M N



1 (i − 1)M N M − (i − 1)M M − · = N − (i − 1) N − (i − 1) N [N − (i − 1)]N M (N − (i − 1)) M = = [N − (i − 1)]N N =

L¨osung zu Aufgabe 4.9: Wir haben die zuf¨ alligen Ereignisse A: 6 gew¨ urfelt und A¯ : keine 6 gew¨ urfelt. Die Zufallsgr¨ oße ist X : Anzahl der W¨ urfe bei n = 5 W¨ urfen, bei denen eine 6 erscheint. Damit gilt X ∼ B(n; p) mit n = 5 und p = 1/6 und mit (4.11) erhalten wir   x 1 5 1 (1 − )5−x . P (X = x) = 6 x 6 a) Die gesuchte Wahrscheinlichkeit ist P (X ≥ 2) = 1 − P (X < 2) = 1 − (P (X = 0) + P (X = 1)) $     5    1  4 % 0 5 1 5 1 5 1 1− + = 1− 1 0 6 6 6 6 % $   1  4 5 1 5 5 +5· = 1− 6 6 6  5 5 = 0.1962. = 1−2 6 b) F¨ ur den Erwartungswert gilt mit (4.13) E(X) = n p = 5 61 = 56 .

A.4 Diskrete und stetige Standardverteilungen

421

L¨osung zu Aufgabe 4.10: Die Zufallsgr¨ oße ist X : Anzahl der Sch¨ uler, die an der Klassenfahrt teilnehmen. Damit ist X ∼ B(n; p) mit n = 20 und p = 0.7. Die gesuchte Wahrscheinlichkeit ist P (X ≥ 10) = 1 − P (X ≤ 9) 9    20 = 1− 0.7x (1 − 0.7)20−x x x=0 = 1 − 0.01714481 = 0.98285519

L¨osung zu Aufgabe 4.11: Die Zufallsgr¨ oße X: Augensumme beim zweimaligen W¨ urfelwurf kann die Werte xi = 2, . . . , xi = 12 annehmen (vgl. folgende Tabelle): 1 2 3 4 5 6

1 2 3 4 5 6 7

2 3 4 5 6 7 8

3 4 5 6 7 8 9

4 5 6 7 8 9 10

5 6 7 8 9 10 11

6 7 8 9 10 11 12

a) Sei A1 : Augensumme ungerade und A2 : Augensumme gerade. A1 , A2 bilden eine vollst¨ andige Zerlegung von Ω mit p1 = P (A1 ) = P (1. W¨ urfel gerade, 2. W¨ urfel ungerade) + P (1. W¨ urfel ungerade, 2. W¨ urfel gerade) 11 11 1 = + = 22 22 2 1 p2 = P (A2 ) = 1 − p1 = . 2 Sei X1 : Anzahl von A1 in der Stichprobe bzw. X2 : Anzahl von A2 in der Stichprobe. Der Zufallsvektor X = (X1 , X2 ) besitzt eine Multinomialverteilung (vgl.(4.17)), die wegen k = 2 (Anzahl der disjunkten Ereignisse) mit der Binomialverteilung u ¨ bereinstimmt: (X1 , X2 ) ∼ M (n; p1 , p2 ) = M (4; 0.5, 0.5) = B(4; 0.5). Damit erhalten wir die gesuchte Wahrscheinlichkeit:    2  2 4 1 1 · = 0.375 . P (X1 = 2) = 2 2 2 b) Seien nun drei zuf¨ allige Ereignisse definiert: B1 : Augensumme ≤ 4

B2 : Augensumme ≥ 8 B3 : Augensumme < 8 und > 4

422

¨ A. L¨ osungen zu den Ubungsaufgaben

mit (vgl. obige Tabelle) 1 6 = 36 6 5 15 p2 = P (B2 ) = = 36 12 5 15 p3 = 1 − p1 − p2 = = . 36 12 p1 = P (B1 ) =

5 5 Damit gilt f¨ ur die Multinomialverteilung M (4; 16 , 12 , 12 ) gem¨aß (4.17):

n! px 1 px 2 px 3 x1 ! · x2 ! · x3 ! 1 2 3  1  3  0 5 5 4! 1 = 0.0482 . = 1!3!0! 6 12 12

P (X1 = 1, X2 = 3, X3 = 0) =

L¨osung zu Aufgabe 4.12: Gegeben sind eine normalverteilte Zufallsgr¨oße X ∼ alligen Ereignisse A = {X ≤ 3} N (μ, σ2 ) mit μ = 2 und σ 2 = 4 und die zuf¨ und B = {X ≥ −0.9}. a) Das Ereignis A ∩ B bedeutet −0.9 ≤ X ≤ 3. Damit gilt

P (A ∩ B) = P (−0.9 ≤ X ≤ 3) = P (X ≤ 3) − P (X ≤ −0.9) = F (3) − F (−0.9) . Standardisieren von X gem¨ aß Z = F (3) = P (X ≤ 3) = P ( = P (Z ≤

X−µ σ

∼ N (0, 1) f¨ uhrt zu

3−μ 3−2 X −μ ≤ ) = P (Z ≤ ) σ σ 2

1 ) = Φ(0.5) = 0.6915 2

X −μ −0.9 − 2 ≤ ) = P (Z ≤ −1.45) σ 2 = Φ(−1.45) = 1 − Φ(1.45) = 1 − 0.9265 = 0.0735 .

F (−0.9) = P (X ≤ −0.9) = P (

b)

Damit erhalten wir schließlich P (−0.9 ≤ X ≤ 3) = 0.6915 − 0.0735 = 0.6180. P (A ∪ B) = P (X ≤ 3 ∪ X ≥ −0.9) = P (−∞ ≤ X ≤ ∞) = 1

L¨osung zu Aufgabe 4.13: Sei Z ∼ N (0, 1) eine standardnormalverteilte Zufallsgr¨oße. Gesucht ist eine Zahl c ≥ 0 , so dass P (−c ≤ Z ≤ c) = 0.97 gilt. Allgemein gilt: P (−c ≤ Z ≤ c) = Φ(c) − Φ(−c)

= Φ(c) − [1 − Φ(c)] = Φ(c) + Φ(c) − 1 = 2Φ(c) − 1 .

A.4 Diskrete und stetige Standardverteilungen

423

Hier gilt: !

2Φ(c) − 1 = 0.97 ⇔ 2Φ(c) = 1.97 ⇔ Φ(c) = 0.985 ⇔ c = 2.17

c = 2.17 ist das 0.985-Quantil der N (0, 1)-Verteilung. L¨osung zu Aufgabe 4.14: a) Zuf¨allige und unabh¨ angige Ankunftprozesse sind Poissonverteilt, x P (X = x) = λx! e−λ mit λ = 10 Passagiere pro Minute. Die gesuchte Wahrscheinlichkeit ist demnach P (X = 0) = e−10 = 0.00005. b) Das Besondere der Poissonverteilung ist, dass sowohl Erwartungswert als auch Varianz durch den Parameter λ beschrieben werden. •  V ar(X) = 10√ • V ar(X) = 10 c) F¨ ur die Wahrscheinlichkeit, dass h¨ ochstens 2 Passagiere in einer Minute ankommen, m¨ ussen wir die Verteilungsfunktion an der Stelle 2 bestimmen. 2  10i −10 = 0.00277. So erhalten wir P (X ≤ 2) = F (2) = i! e i=0

d) Wenn 10 Passagiere im Mittel pro Minute ankommen, dann kommen 2.5 Passagiere im Mittel pro 15 Sekunden an. Die gesuchte Wahrscheinlichkeit ist dann P (X = 0) = e−2.5 = 0.082. e) Die Wahrscheinlichkeit f¨ ur mindestens einen Passagier in 15 Sekunden erhalten wir u ¨ ber die Gegenwahrscheinlichkeit P (X ≥ 1) = 1 − 0.082 = 0.918.

424

¨ A. L¨ osungen zu den Ubungsaufgaben

A.5 Grenzwerts¨ atze und Approximationen L¨osung zu Aufgabe 5.1: Eine Folge {Xn }n∈N von Zufallsvariablen konvergiert stochastisch a) gegen Null, wenn f¨ ur beliebiges ǫ > 0 lim P (|Xn | > ǫ) = 0

n→∞

gilt, b) gegen eine Konstante c, wenn {Xn − c}n∈N stochastisch gegen Null konvergiert, c) gegen eine Zufallsvariable X, wenn {Xn − X}n∈N stochastisch gegen Null konvergiert. L¨osung zu Aufgabe 5.2: Das Gesetz der großenZahlen beschreibt die Kon¯n = 1 Xi einer i.i.d. Stichprobe vergenz des arithmetischen Mittels X n X1 , . . . Xn mit E(Xi ) = μ, Var(Xi ) = σ 2 einer beliebigen Zufallsvariablen X. Es gilt ¯ n − μ| < c) = 1 ∀c > 0. lim P (|X n→∞

¯ n die relative H¨aufigkeit W¨ahlt man die Xi als Null-Eins-verteilt, so ist X und μ die Wahrscheinlichkeit, so dass die obige Beziehung das Gesetz von Bernoulli darstellt. L¨osung zu Aufgabe 5.3: Nach dem Zentralen Grenzwertsatz gilt f¨ ur die Zu¯ (arithmetisches Mittel) einer i.i.d. Stichprobe X1 , . . . , Xn fallsvariable X 2

¯ n ∼ N (μ, σ ). X n L¨osung zu Aufgabe 5.4: Die Zufallsvariable gerade Zahl gew¨ urfelt“ ist bino” mialverteilt: X ∼ B(500; 0.5) mit E(X) = n p = 250. Wir nutzen die Approximation der Binomialverteilung durch die Normalverteilung X ∼ N (250, 125), da n p (1 − p) ≥ 9 gilt. Ohne Stetigkeitskorrektur erhalten wir:     225 − 250 275 − 250 √ √ −Φ P (225 ≤ X ≤ 275) = Φ 125 125       25 −25 25 √ √ √ =Φ −Φ = 2Φ −1 125 125 125 = 2 · 0.987323 − 1 = 0.974646 Mit Stetigkeitskorrektur erhalten wir:

A.5 Grenzwerts¨ atze und Approximationen

425

   275 + 0.5 − 250 225 − 0.5 − 250 √ √ P (225 ≤ X ≤ 275) = Φ −Φ 125 125       −25.5 25.5 25.5 −Φ √ = 2Φ √ −1 =Φ √ 125 125 125 = 2 · 0.988725 − 1 = 0.97745 . 

Die exakte L¨ osung (mit SPSS) lautet P (225 ≤ X ≤ 275) = 0.9746038. L¨osung zu Aufgabe 5.5: Wir verwenden die Ungleichung von Tschebyschev ¯ n − p| < c) ≥ 1 − α = P (|X

p(1 − p) . nc2

Aufl¨osen nach n und Einsetzen von c = 0.1 ergibt: n≥

0.5 · 0.5 p(1 − p) = = 2500. αc2 0.01 · 0.12

L¨osung zu Aufgabe 5.6: Aus der Aufgabenstellung ersehen wir, dass p = 0.2, n = 100, k = 10 gilt, X also nach B(100; 0.2) verteilt ist. Es gilt E(X) = np = 20. a) Die Wahrscheinlichkeit f¨ ur das zuf¨ allige Ereignis X = 10 der diskreten Zufallsvariablen X ∼ B(100; 0.2) l¨ aßt sich mit Hilfe der Verteilungsfunktion schreiben als P (X = 10) = P (X ≤ 10) − P (X ≤ 9) = F (10) − F (9) .

Wegen n p (1 − p) = 16 > 9 ist die Normalapproximation m¨oglich. Damit wird die Verteilungsfunktion F (·) der Binomialverteilung ersetzt durch die Verteilungsfunktion der N (20, 16)-Verteilung. Wir erhalten nach Standardisierung auf die N (0, 1)-Verteilung:     9 − 20 10 − 20 11 √ P (X = 10) = Φ −Φ √ = Φ(−2.5) − Φ(− ) 4 16 16 11 11 = 1 − Φ(2.5) − 1 + Φ( ) = Φ( ) − Φ(2.5) 4 4 = 0.00323 . Exakt (mit SPSS gerechnet) gilt:   100 P (X = 10) = 0.210 0.890 = 0.00336 . 10 b) Hier erhalten wir analog zu a) wieder mit der Normalapproximation

426

¨ A. L¨ osungen zu den Ubungsaufgaben

P (3 ≤ X ≤ 10) = P (X ≤ 10) − P (2 ≤ X) 2 − 20 10 − 20 = Φ( √ ) − Φ( √ ) = Φ(−2.5) − Φ(−4.5) 16 16 = Φ(4.5) − Φ(2.5) = 0.00621 . (Es gilt n¨aherungsweise Φ(4.5) = 1 nach Tabelle B.1 im Buch.) Exakt (mit SPSS berechnet) gilt: P (3 ≤ X ≤ 10) = 0.005696 . L¨osung zu Aufgabe 5.7: Unter Verwendung der Approximation P o(λ) ∼ N (λ, λ) erhalten wir a) 10 − 32 22 x−λ ) = 1 − Φ( √ ) ≈ 0 P (X ≤ 10) = Φ( √ ) = Φ( √ 32 32 λ

b)

Φ( √2232 ) = Φ(3.89) ist nicht in Tabelle B.1 enthalten, es wird n¨aherungsweise gleich 1 gesetzt. Exakt (mit SPSS gerechnet) gilt: P (X ≤ 10) = 0.00000561 . 24 − 32 2 8 30 − 32 ) − Φ( √ ) = Φ( √ ) − Φ( √ ) P (25 ≤ X ≤ 30) = Φ( √ 32 32 32 32 = Φ(1.41) − Φ(0.35) = 0.2839

c)

Exakt (mit SPSS gerechnet) gilt: P (25 ≤ X ≤ 30) = 0.3180 . 54 − 32 22 P (X ≥ 55) = 1 − Φ(X ≤ 54) = 1 − Φ( √ ) = 1 − Φ( √ ) 32 32 ≈0 Exakt (mit SPSS gerechnet) gilt: P (X ≥ 55) = 1−P (X ≤ 54) = 0.000138.

L¨osung zu Aufgabe 5.8: Wir haben folgende Angaben: N = 10000 (wahlberechtigte B¨ urger) Stichprobe mit n = 200 (ohne Zur¨ ucklegen zuf¨allig ausw¨ahlen) M = 0.4 · 10000 = 4000 (CSU-W¨ahler) N − M = 6000 (Nicht-CSU-W¨ahler)

Die Zufallsvariable X : Anzahl der CSU-W¨ahler unter den n = 200 ” ausgew¨ahlten W¨ ahlern“ folgt einer hypergeometrischen Verteilung (da die Stimmabgabe eines B¨ urgers nur einmal erfolgt, also ein Ziehen ohne Zur¨ ucklegen vorliegt), d.h. es gilt

A.5 Grenzwerts¨ atze und Approximationen

X ∼ H(n, M, N ) mit P (X = k) =

427

M N −M  k

Nn−k  . n

Gesucht ist die Wahrscheinlichkeit P (X < 0.35 · 200) = P (X < 70) = P (X ≤ 69). P (X ≤ 69) ist nur sehr aufwendig exakt zu berechnen. Deshalb w¨ahlen wir die Approximation der hypergeometrischen Verteilung durch die Binomialverteilung. Die Bedingungen: n ≤ 0.1M und n ≤ 0.1(N − M ) sind erf¨ ullt. Es gilt ), also H(200, 4000, 10000) ≈ B(200; 0.4). B(200; 0.4) H(n, M, N ) ≈ B(n; M N ist ebenfalls nicht vertafelt, deshalb w¨ ahlen wir als weiteren Schritt die Approximation der Binomialverteilung durch die Normalverteilung. Die Bedingung (np(1 − p) ≥ 9) ist erf¨ ullt, damit gilt B(n; p) ≈ N (np, np(1 − p)), also B(200; 0.4) ≈ N (80, 48) . Damit erhalten wir schließlich   69 − 80 X − 80 √ ≤ √ P (X ≤ 69) = P = Φ(−1.59) = 1 − Φ(1.59) = 0.0559. 48 48 L¨osung zu Aufgabe 5.9: Die Zufallsgr¨ oße X : Anzahl der Kranken“ folgt ei” ner hypergeometrischen Verteilung X ∼ H(n, M, N ) mit N : Gesamtbev¨olkerung, M : Kranke in der Gesamtbev¨ olkerung (M = N · 0.01), n = 1000. F¨ ur großes N, M und N − M und im Vergleich dazu kleines n stimmt die hypergeometrische Verteilung H(n, M, N ) ann¨ahernd mit der Binomialverteilung B(n; M ¨ berein. Die Voraussetzung n ≤ 0.1M und n ≤ 0.1(N − M ) N) u ist erf¨ ullt. Damit erhalten wir    x  n−x M n M M 1− mit P (X = x) = = 0.01. x N N N a) P (X ≥ 3) = 1 − P (X ≤ 2) = 1 − (P (X = 0) + P (X = 1) + P (X = 2))     1000 1000 0.0100.991000 + = 1− 0.011 0.99999 0 1    1000 + 0.012 0.99998 2 = 1 − 0.00268 = 0.99732 b)   1000 P (X = 4) = 0.014 0.99996 = 0.0186 4

428

¨ A. L¨ osungen zu den Ubungsaufgaben

L¨osung zu Aufgabe 5.10: Die Zufallsgr¨ oße X : Anzahl der verdorbenen ” Orangen in der Stichprobe“ folgt einer hypergeometrischen Verteilung X ∼ H(n, M, N ) mit N = 20, M = 2, n = 4. a) Mit (4.8) berechnen wir P (X = 2) = =

220−2 2

204−2  4 18! 2!·16! = 20! 4!·16!

  1 · 18 = 202 4

12 = 0.03158 . 380

b) Mit (4.9) und (4.10) erhalten wir M 2 =4 = 0.4 N 20   M 4 M N −n 2 20 − 4 Var(X) = n (1 − ) = 1− N N N −1 10 20 20 − 1 4 9 16 = = 0.3032. 10 10 19 E(X) = n

A.6 Sch¨ atzung von Parametern

429

A.6 Sch¨ atzung von Parametern L¨osung zu Aufgabe 6.1: Sei T (X) eine Sch¨ atzfunktion f¨ ur einen unbekannten Parameter θ . a) T (X) heißt erwartungstreu, falls Eθ (T (X)) = θ f¨ ur alle θ ∈ Θ gilt. b) Sei T (X) erwartungstreu, so ist MSEθ (T (X); θ) = Varθ (T (X)), d.h. der MSE reduziert sich auf die Varianz von T (X). c) Eine Sch¨atzfolge (T(n) (X))n∈N heißt konsistent f¨ ur θ, falls lim P (|T(n) (X) − θ| < ǫ) = 1 ∀ǫ > 0

n→∞

gilt, d.h. falls die Folge T(n) (X) stochastisch gegen θ konvergiert. L¨osung zu Aufgabe 6.2: Seien zwei Sch¨ atzfolgen T1 (X) und T2 (X) gegeben. ur die beiden MSE-Ausdr¨ ucke Dann heißt T1 (X) MSE-besser als T2 (X), falls f¨ gilt MSEθ (T1 (X); θ) ≤ MSEθ (T2 (X); θ) f¨ ur alle θ.

L¨osung zu Aufgabe 6.3: Sei X ∼ N (μ, σ 2 ) und x = (x1 , . . . , xn ) eine konkrete Stichprobe. a) Die Punktsch¨ atzung f¨ ur μ (bei σ 2 unbekannt) lautet n

x ¯=

1 xi . n i=1

atzung f¨ ur σ 2 (μ unbekannt) lautet b) Die Punktsch¨ n

s2 =

1  (xi − x ¯)2 . n − 1 i=1

c) Die Konfidenzsch¨ atzungen f¨ ur μ zum Niveau 1 − α lauten σ σ [¯ x − z1−α/2 · √ , x¯ + z1−α/2 · √ ] (σ bekannt) n n s s bzw. [¯ x − tn−1;1− α2 √ , x¯ + tn−1;1− α2 √ ] (σ unbekannt). n n L¨osung zu Aufgabe 6.4: Sei X ∼ B(n; p), p ∈ (0; 1), so bestimmt man die ML-Sch¨atzung von p durch Maximierung der Likelihoodfunktion, d. h. durch Ableiten nach p, Nullsetzen der Ableitung und Aufl¨osen nach dem unbekannten Parameter p. Es gilt   P P n L(p; x1 , · · · , xn ) =  p xi (1 − p)n− xi . xi

430

¨ A. L¨ osungen zu den Ubungsaufgaben

a) Erste Ableitung: Wir bilden die erste Ableitung nach p   P P n ∂ xi p xi −1 (1 − p)n− xi L(p; x1 , · · · , xn ) =  xi ∂p   P    P n xi (−1) . +  p xi (1 − p)n− xi −1 n − xi Wir klammern einen gemeinsamen Faktor aus und erhalten   P P n =  p xi −1 (1 − p)n− xi −1 · xi    >0

:     ; · (1 − p) xi − n − xi p .

b) Nullsetzen der ersten Ableitung: Zur Bestimmung von pˆ wird die Ableitung gleich Null gesetzt und dann nach dem unbekannten Parameter p aufgel¨ost.    ∂ L(p; x1 , · · · , xn ) = 0 ⇔ xi − p xi − np + p xi = 0 ∂p  ⇔ xi − np = 0 1 ⇔ pˆ = ¯ xi = x n

Man u ˆ= x ¯ einen ¨berzeugt sich, dass die zweite Ableitung an der Stelle Pp xi ¯. Wert < 0 besitzt, die ML-Sch¨ atzung von p lautet also pˆ = n = x iid

L¨osung zu Aufgabe 6.6: Sei Xi ∼ P o(λ)verteilt, i = 1, . . . , n . Die Likelihoodfunktion lautet: L(Θ; x) =

n &

i=1

f (xi ; Θ) =

n & λxi

i=1

xi !

e

−λ

P

λ =
9, dann gilt die N¨ aherung (vgl. (6.24))  * * pˆ(1 − pˆ) pˆ(1 − pˆ) . ; pˆ + z1−α/2 pˆ − z1−α/2 n n Die Bedingung np(1 − p) > 9 ist erf¨ ullt bei p ∈ [0.1; 0.9], falls n > 100 gilt. Dies ist hier erf¨ ullt. Wir bestimmen

A.6 Sch¨ atzung von Parametern

433

1 1 1428 = 0.476 Xi = n 3000 pˆ(1 − pˆ) = 0.476 · 0.524 = 0.249 z1−α/2 = z0.99 = 2.33 . ¯ = pˆ = X

F¨ ur das Konfidenzintervall gilt dann: [0.476 − 0.021; 0.476 + 0.021] = [0.455; 0.497] . Lösung zu Aufgabe 6.10: Die Zufallsvariable ist X: Füllgewicht; X ∼ N (μ, σ 2 ); μ, σ unbekannt. Es liegt eine i.i.d. Stichprobe vor mit n = 16, x ¯ = 245 und sx = 10.   √ ¯ ¯ ∼ N μ, σ2 und X−µ a) Es gilt X n ∼ tn−1 . n Sx Das Konfidenzintervall zum Vertrauensgrad 1 − α = 0.95 hat die Gestalt (vgl. (6.20))     sx sx 10 10 ¯ + t15;0.975 √ x¯ − t15;0.975 √ , x = 245 − 2.13 , 245 + 2.13 n n 4 4 = [239.675; 250.325] . b) Die Unsicherheit nimmt ab, das Konfidenzintervall wird schmaler. Statt t15;0.975 = 2.13 wird z0.975 = 1.96 verwendet. Das Konfidenzintervall lautet damit [245 − 1.96

10 10 , 245 + 1.96 ] = [240.100, 249.900] . 4 4

434

¨ A. L¨ osungen zu den Ubungsaufgaben

A.7 Pru ¨fen statistischer Hypothesen L¨osung zu Aufgabe 7.1: Bei einem parametrischen Testproblem wird der Hypothesenraum in einen zur Nullhypothese geh¨orenden Bereich Θ0 und einen dazu disjunkten Bereich Θ1 (zur Alternativhypothese geh¨orend) aufgeteilt. Bei einem Signifikanztest grenzt“ die Hypothese H0 direkt an die Alterna” tive H1 in dem Sinne, dass der minimale Abstand zwischen beiden Parameterr¨aumen gleich Null ist. Der Signifikanztest legt die Wahrscheinlichkeit f¨ ur den Fehler 1. Art P (H1 |H0 ) ≤ α fest; α heißt Signifikanzniveau. Man konstruiert eine Testgr¨ oße T (X) und zerlegt ihren Wertebereich in zwei dis¯ (Annahmebereich). Falls junkte Teilbereiche K (kritischer Bereich) und K T (x1 , . . . , xn ) ∈ K, wird H0 abgelehnt (und damit H1 best¨atigt zum Niveau 1 − α), im anderen Fall wird H0 nicht abgelehnt. L¨osung zu Aufgabe 7.2: a) Die Mensa geht bei der Pr¨ ufung des Semmelgewichts von der Arbeitshypothese μ < 45g aus. Das Testproblem lautet also H0 : μ ≥ 45g gegen H1 : μ < 45g. b) Die Zufallsvariable ist X: Gewicht einer Semmel. F¨ ur X gilt X ∼ N (μ; σ 2 ), μ0 = 45g, σ = 2g Das Pr¨ ufen des Mittelwertes bei bekannter Varianz erfolgt nach dem Gauss–Test mit der Teststatistik T (X) =

¯ − μ0 √ H0 X n ∼ N (0; 1) . σ

H0 wird nicht abgelehnt, falls ¯ − μ0 √ X n ≥ −z1−α σ ¯ ≥ μ0 − z1−α √σ , X n d.h. der Annahmebereich lautet: ¯ = [μ0 − z1−α √σ ; ∞) = [45 − 1.64 √2 ; ∞) = [44.34; ∞) . K n 25 c) x ¯ = 44 liegt außerhalb dieses Bereichs, d.h. H0 ist einseitig abzulehnen, die Alternativhypothese H1 : μ < 45g ist damit statistisch signifikant best¨atigt. L¨osung zu Aufgabe 7.3: X : Die F¨ ullmenge je Flasche ist die Zufallsvariable. Wir haben n = 150, x ¯ = 498.8, s = 3.5. Ziel ist das Pr¨ ufen des Mittelwerts bei unbekannter Varianz mittels t–Test . Die Quantile entnehmen wir Tabelle B4.

A.7 Pr¨ ufen statistischer Hypothesen

a) Hier pr¨ ufen wir einseitig H0 : μ ≥ μ0 T (X) =

435

gegen H1 : μ < μ0 . Es ist

¯ − μ0 √ H0 X n ∼ tn−1 . S

Der kritische Bereich (vgl. H1 : μ < μ0 ) besteht aus kleinen“ Werten der ” realisierten Teststatistik. Wir berechnen t=

498.8 − 500 √ 150 = −4.199 < −2.355 = −t149;0.99 . 3.5

Die Entscheidung lautet also: H0 ablehnen. Damit ist H1 : μ < μ0 best¨atigt. Der Verdacht der Gastst¨ atte war also begr¨ undet. b) Der zweiseitige Test auf H0 : μ = μ0 gegen H1 : μ = μ0 ergibt f¨ ur die Realisierung der Testgr¨ oße |t| = |

x ¯ − μ0 √ n| = | − 4.199| > 2.614 = t149;0.995 . s

Die Entscheidung lautet also: H0 ablehnen. Die Behauptung des Brauereibesitzers ist also widerlegt. c) n = 20, x ¯ = 498.1, s = 3.7 ergeben x¯ − μ0 √ n s 498.1 − 500 √ = 20 = −2.296 3.7

t=

F¨ ur den einseitigen Test von H0 : μ ≥ μ0 gegen H1 : μ < μ0 gilt: t = −2.296 > −2.54 = t19;0.01 , f¨ ur den zweiseitigen Test von H0 : μ = μ0 gegen H1 : μ = μ0 gilt: |t| = 2.296 < 2.86 = t19;0.995 . Damit ist H0 ein- und zweiseitig nicht abzulehnen. L¨osung zu Aufgabe 7.4: Es ist ein Test auf Gleichheit der Varianzen bei zwei unabh¨angigen Stichproben mit nX = nY = 41, α = 0.05 durchzuf¨ uhren: 2 H0 : σX = σY2

2 gegen H1 : σX = σY2

Die realisierte Teststatistik lautet (vgl. (7.8)) t=

s2x 41068 = 1.0467 < 1.88 = f40,40,0.975 . = 2 sy 39236

Die Entscheidung lautet: H0 nicht ablehnen. Bemerkung: Das F-Quantil ist in der Tabelle B6 enthalten.

¨ A. L¨ osungen zu den Ubungsaufgaben

436

L¨osung zu Aufgabe 7.5: Aus der Aufgabenstellung entnehmen wir: A-Personen: nA = 15, x ¯A = 102, s2A = 37 B-Personen: nB = 17, x ¯B = 86, s2B = 48 Wir testen H0 : μA − μB ≤ 10 = d0 gegen H1 : μA − μB > 10 = d0 . 2 2 a) Wir haben unbekannte Varianzen, jedoch σA = σB , d.h. der doppelte t-Test ist anzuwenden. Die Teststatistik ist (vgl. (7.13), dort ist d0 = 0!):

¯A − X ¯ B − d0 X T (X) = # ( n1A + n1B )S 2

mit

S2 =

(nA − 1)s2A + (nB − 1)s2B . n+m−2

F¨ ur die Stichprobe erhalten wir als Realisierung von S 2 s2 = Mit

(15 − 1)37 + (17 − 1)48 = 42.87 . 15 + 17 − 2

102 − 86 − 10 t= # = 2.587 > 1.70 = t30;0.95 1 1 ( 15 + 17 )42.87

ist H0 zugunsten von H1 abzulehnen. Die h¨ ohere Wirksamkeit von Pr¨aparat A ist damit nachgewiesen. b) Hier sind die Varianzen bekannt, d.h. der doppelte Gauss-Test ist anzuwenden. Die realisierte Teststatistik lautet (vgl. (7.11), dort ist d0 = 0!) t=

102 − 86 − 10 # = 2.66 > 1.65 = z0.95 32 50 + 15 17

Damit ist H0 zugunsten von H1 abzulehnen. Die h¨ohere Wirksamkeit von Pr¨aparat A ist auch hier nachgewiesen. L¨osung zu Aufgabe 7.6: Wir haben zwei unabh¨angige Stichproben: X1 , . . .,Xn 2 ∼ N (μX ; σX ), Y1 , . . . , Ym ∼ N (μY ; σY2 ) Der Vergleich der Mittelwerte μx und μy bei unabh¨angigen Stichproben 2 2 mit σX , σY2 unbekannt und σX = σY2 erfolgt mit dem Welch-Test (vgl. (7.14)). Das Testproblem lautet: H0 : μX = μY oder ¨aquivalent H0 : μX − μY = d0 = 0 gegen H1 : d0 = μX − μY > 0. Die Teststatistik ist: ¯ − Y¯ − d0 H0 X T (X, Y ) = # 2 ∼ tv;1−α . 2 SX SY + n m

Wir berechnen aus der Stichprobe:

A.7 Pr¨ ufen statistischer Hypothesen

1  2 ( x − n¯ x2 ) = n−1 i i 1  2 ( y − n¯ y2) = s2Y = n−1 i i

s2X =

437

1 (5.5022 − 10 · 0.7382) = 0.0062 9 1 (4.4292 − 10 · 0.6622) = 0.0052 9

Mit (7.15) erhalten wir die korrigierten Freiheitsgrade: v=



0.0062 0.0052 + 10 10

2  0.0062 2 2 ( 10 ) ( 0.0052 10 ) / + = 17.86 . 9 9

Damit wird die realisierte Teststatistik zu 0.076 0.738 − 0.662 − 0 = 2.251 > 1.73 = t18;0.95 . = √ t= # 0.0062 0.0052 0.00114 + 10 10

Wir m¨ ussen H0 zugunsten von H1 ablehnen, d.h. es kann auf einen signifikanten Einfluss des Medikaments auf die Reaktionszeit geschlossen werden. L¨osung zu Aufgabe 7.7: Es liegt eine verbundene Stichprobe vor und es ist der paired t–Test anzuwenden. Wir bilden die Zufallsvariable D = X − Y (Differenz der Ertr¨ age). Das Testproblem lautet: H0 : μx ≥ μy bzw. H0 : μD ≥ 0 gegen H1 : μD < 0. Die Teststatistik ist (vgl. (7.16)) T (X; Y ) = T (D) = 2 mit SD =

Feld X Y di di − d¯

P

¯ 2 (Di −D) . n−1

1 7.1 7.3 -0.2 0.7

¯ √ D n SD

Wir berechnen:

2 6.4 5.1 1.3 2.2

3 6.8 8.6 -1.8 -0.9

4 8.8 9.8 -1 -0.1

−9 d¯ = = −0.9, 10

5 7.2 7.9 -0.7 0.2 s2d =

6 9.1 8.0 1.1 2

7 7.4 9.2 -1.8 -0.9

8 5.2 8.5 -3.3 -2.4

9 5.1 6.4 -1.3 -0.4

10 5.9 7.2 -1.3 -0.4

17.08 = 1.898 , 9

−0.9 √ t= √ 10 = −2.06 < −1.83 = −t9;0.95 . 1.898 Damit ist H0 abzulehnen. Die h¨ ohere Wirksamkeit des neuen D¨ ungemittels ist damit nachgewiesen, da D die Differenz Ertrag altes minus Ertrag neues ” D¨ ungemittel“ ist mit d¯ = −0.9.

438

¨ A. L¨ osungen zu den Ubungsaufgaben

L¨osung zu Aufgabe 7.8: Der doppelte t-Test wird zum Mittelwertsvergleich 2 zweier unabh¨angiger Stichproben X1 , . . . , Xn mit Xi ∼ N (μX , σX ) und 2 2 2 Y1 , . . . , Ym mit Yj ∼ N (μY , σY ) bei Annahme σX = σY angewendet. Liegt eine verbundene Stichprobe vor (n = m), so ist die interessierende Zufallsvariable die Differenz D = X − Y der beiden Zufallsvariablen. X und Y sind als stetig aber nicht notwendigerweise normalverteilt vorauszusetzen. Die neue Variable D wird dagegen als normalverteilt angenommen. Die Hypothese μX = μY geht u ¨ber in μD = 0. Damit liegt ein Einstichprobenproblem f¨ ur die neue Zufallsvariable D (Differenz von X und Y ) vor. L¨osung zu Aufgabe 7.9: Mit den Zufallsvariablen  1 falls i-tes Baby M¨adchen Xi = 0 sonst  bilden wir die Zufallsvariable X = Xi ∼ B(n; p) (X: Anzahl der M¨adchen bei n Geburten). Wegen p0 = 0.5, n = 3000, folgt np0 (1 − p0 ) = 750 > 9. Damit ist die Normalverteilungsapproximation m¨oglich: X ∼ N (np0 ; np0 (1 − p0 )). Das Testproblem H0 : p = p0 gegen H1 : p = p0 wird u ¨ ber die folgende Teststatistik (vgl. (7.19)) gepr¨ uft:

also mit der Realisierung

√ pˆ − p0 n, T (X) =  p0 (1 − p0 )

0.476 − 0.5 √ t= √ 3000 0.5 · 0.5 = | − 2.63| > 1.96 = z0.975 . H0 muß damit abgelehnt werden, die Wahrscheinlichkeit f¨ ur eine M¨adchengeburt ist signifikant von 0.5 verschieden. L¨osung zu Aufgabe 7.10: Es handelt sich um einen einfachen Binomialtest, da das Ergebnis der letzten Wahl als theoretischer Wert p0 = 0.48 angesehen werden kann. Wir pr¨ ufen: H0 : p = p0 gegen H1 : p = p0 . Mit np0 (1 − p0 ) = 3000·0.48·0.52 = 748.8 > 9 ist die Approximation durch die Normalverteilung zul¨assig. Mit (7.19) erhalten wir √ pˆ − p0 n, T (X) =  p0 (1 − p0 )

die Realisierung der Testgr¨ oße ergibt also

√ | 1312 3000 − 0.48| |t| = √ 3000 = | − 4.68| > 1.96 = z0.975 . 0.48 · 0.52 H0 ist abzulehnen. Der W¨ ahleranteil f¨ ur den Kandidaten hat sich signifikant gegen¨ uber den fr¨ uheren 48% ver¨ andert.

A.7 Pr¨ ufen statistischer Hypothesen

439

L¨osung zu Aufgabe 7.11: Zur L¨ osung des Problems verwenden wir den exakten Test von Fisher f¨ ur Binomialwahrscheinlichkeiten, da die Stichprobenumf¨ange zu klein sind, um approximative Verfahren anzuwenden. Wir testen H0 : p1 = p2 = p gegen H1 : p1 = p2 . Der kritische Bereich ergibt sich gem¨ aß Abschnitt 7.6.3 zu K = {0, . . . , ku − 1} ∪ {ko + 1, . . . , t} mit P (X > ko |X + Y = t) ≤ α/2, P (X < ku |X + Y = t) ≤ α/2. k .. . 4 5 6 7 8 9 10 11 .. .

P (X ≤ k|X + Y = 14) .. . 0.00000 0.00000 0.06863 0.38235 0.79412 0.97712 1.00000 1.00000 .. .

Aus der Tabelle entnehmen wir K = {0, . . . , 5}∪{10, . . . , 18}. Da X = 7 ∈ / K, ist H0 nicht abzulehnen. L¨osung zu Aufgabe 7.12: Das Problem ist das Pr¨ ufen der Gleichheit zweier Binomialwahrscheinlichkeiten aus zwei unabh¨ a ngigen Stichproben.   Mit X = Xi = 100, n1 = 400, Y = Yi = 252, n2 = 900, α = 0.01 berechnen wir (vgl. (7.24)) als Sch¨ atzung von p 100 + 252 352 X +Y = = = 0.27 n1 + n2 1300 1300 X Y D= − = 0.25 − 0.28 = −0.03 . n1 n2 pˆ =

Die Teststatistik (7.26)

hat den Wert t= #

D T (X, Y ) = # pˆ(1 − pˆ)( n11 + −0.03

352 948 1 1300 1300 ( 400

+

1 900 )

1 n2 )

= −1.123 > −2.58 = z0.005 .

Damit ist H0 nicht abzulehnen. Die Ausschussanteile beider Firmen sind als gleich anzusehen.

440

¨ A. L¨ osungen zu den Ubungsaufgaben

L¨osung zu Aufgabe 7.13: Sei X : Anzahl der verdorbenen Eier, so ist X ∼ B(100; 0.04) verteilt. Wir pr¨ ufen H0 : p ≥ 0.04 gegen H1 : p < 0.04. Da p sehr klein ist, verwenden wir die Approximation der Binomial- durch die Poisson-Verteilung. Mit n=100 und p0 =0.04 gilt f¨ ur die Verteilung (unter H0 ) B(100; 0.04) die Approximation: B(100; 0.04) ≈ P o(4) (vgl. (5.14)). Die Faustregel f¨ ur die Approximation p ≤ 0.1, n ≥ 30 ist erf¨ ullt. Mit dieser Approximation erh¨ alt man: 40 exp(−4) = 0.0183 , 0! 1 4 P (X = 1) = exp(−4) = 0.0733 . 1!

P (X = 0) =

Die Wahrscheinlichkeit P (X = 0) ist kleiner als α = 0.05, also geh¨ort X = 0 zum kritischen Bereich. Die m¨ ogliche Hinzunahme von X = 1 zum kritischen Bereich f¨ uhrt wegen P (X = 0) + P (X = 1) = 0.0183 + 0.0733 = 0.0916 > ¨ 0.05 zu einer Uberschreitung der Irrtumswahrscheinlichkeit. Damit ist der Ablehnbereich K = 0. Die Behauptung des Lieferanten konnte also nicht signifikant nachgewiesen werden. L¨osung zu Aufgabe 7.14: Sei Y : Zugfestigkeit fr¨ uher; X: Zugfestigkeit jetzt mit X, Y jeweils normalverteilt. Die i.i.d. Stichproben ergeben: ny = 15 Y : sy = 80 X: sx = 128 nx = 25 Wir testen H0 : σx2 ≤ σy2 gegen H1 : σx2 > σy2 . Die Teststatistik lautet (vgl. (7.7)): S2 H T (X, Y ) = x2 ∼0 F24,14 Sy Der kritische Bereich enth¨ alt große Werte von T (X, Y ), d.h. K = (f24,14;0.95 , ∞) = (2.35, ∞) . Die Realisierung der Testgr¨ oße ergibt: 2  128 = 1.62 = 2.56 ∈ K, t= 80 d.h. H0 wird zugunsten von H1 abgelehnt. L¨osung zu Aufgabe 7.15: Es liegt bin¨ arer Response im matched-pair Design vor. Wir pr¨ ufen mit dem McNemar-Test H0 : p1 = p2 gegen H1 : p1 = p2 . Wegen D + C = 15 + 25 = 40 > 20 ist die Normalapproximation m¨oglich. Die Testgr¨oße (7.30) hat also den Wert (b − c)2 (15 − 25)2 100 (2c − (b + c))2 = = = = 2.5 < 3.84 = c1;0.95 . b+c b+c 40 40 Damit ist H0 : p1 = p2 nicht abzulehnen, der Einfluss von Kaffee auf die Leistung ist nicht nachgewiesen. z2 =

A.8 Nichtparametrische Tests

441

A.8 Nichtparametrische Tests L¨osung zu Aufgabe 8.1: Wir verwenden den Chi-Quadrat-Anpassungstest zum Pr¨ ufen von H0 : X (Augenzahl) ist auf der Menge {1,2,. . . ,6} gleichverteilt, gegen H1 : Es liegt irgendeine andere Verteilung von X vor. Die Teststatistik ist nach (8.1) T (X) =

6  (Ni − npi )2 i=1

npi

mit Ni : beobachtete H¨ aufigkeit, npi : unter H0 zu erwartende H¨aufigkeit. ur i = 1, . . . , 6. Der W¨ urfel wird n = 300 Unter H0 ist pi = P (X = i) = 61 f¨ mal geworfen. Daher lauten die unter H0 zu erwartenden Besetzungszahlen: npi = 300

1 = 50 f¨ ur i = 1, . . . , 6 6

Daraus erhalten wir als Realisierung von T (X) t=

6  (ni − npi )2 i=1

=

npi

1 730 (121 + 64 + 81 + 0 + 64 + 400) = = 14.6 > 11.1 = c5,0.95 50 50

Hinweis: Die Zahl der Freiheitsgrade ist Anzahl der Klassen minus 1 minus Anzahl der gesch¨ atzten Parameter (hier: Null), also 6 − 1 = 5. H0 ist abzulehnen, d.h. die Annahme, dass nicht alle Augenzahlen dieselbe Wahrscheinlichkeit besitzen, kann best¨ atigt werden. L¨osung zu Aufgabe 8.2: Mit dem Chi-Quadrat-Anpassungstest pr¨ ufen wir H0 : Stimmenanteil ist gleichgeblieben gegen H1 : Stimmenanteil hat sich ver¨andert.

A B C sonstige 

Beobachtete H¨ aufigkeiten ni 1984 911 1403 702

Unter H0 zu erwartende Anteile H¨ aufigkeiten pi npi 0.42 2100 0.15 750 0.27 1350 0.16 800

(ni −npi )2 npi

6.41 34.56 2.08 12.01 55.06

2 4 i) Es ist t = i=1 (ni −np = 55.06 > 11.3 = c(4−1);0.99 , damit wird H0 npi abgelehnt, die Ver¨ anderung der Stimmenverteilung ist signifikant.

442

¨ A. L¨ osungen zu den Ubungsaufgaben

L¨osung zu Aufgabe 8.3: Wir f¨ uhren den Test auf Normalverteilung mit dem χ2 -Anpassungstest durch. Dazu m¨ ussen wir zun¨achst die Parameter μ und σ 2 aus der Stichprobe sch¨ atzen. Das Sch¨ atzen von μ und σ 2 ergibt: 4

μ ˆ = x¯ =

1 1 ai f i = 1415 = 9.43 , n i=1 150 4

σ ˆ 2 = s2 =

1  fi (ai − x ¯)2 = 30.47 = 5.522 . n − 1 i=1

Die Hypothesen lauten: H0 : Die Zufallsgr¨ oße X : Gewicht der Kaffeepakete folgt einer Normalverteilung gegen H1 : es liegt keine Normalverteilung vor. Durch Standardisieren unter Verwendung der Stichprobenwerte μ ˆ = 9.43 und σ ˆ = 5.52 erhalten wir folgende Intervallgrenzen 0−5 : 5 − 10 : 10 − 15 : 15 − 20 :

0−9.43 5−9.43 5.52 , 5.52

−1.7 ; −0.8 −0.8 ; 0.1 0.1 ; 1.0 1.0 ; 1.9

Die Wahrscheinlichkeiten f¨ ur die unter H0 erwarteten Klassenbesetzungen lauten: p1 p2 p3 p4

= = = =

pi Φ(−0.8) − Φ(−1.7) Φ(0.1) − Φ(−0.8) Φ(1.0) − Φ(0.1) Φ(1.9) − Φ(1.0)

= = = =

0.21 − 0.04 = 0.17 0.54 − 0.21 = 0.33 0.84 − 0.54 = 0.3 0.97 − 0.84 = 0.13

npi 25.5 49.5 45.0 19.5

Damit wird die Realisierung von T (X) (vgl. (8.1)) zu t=

k  (ni − npi )2

npi (30 − 19.5)2 (43 − 25.5)2 (36 − 49.5)2 (41 − 45)2 + + + = 25.5 49.5 45 19.5 = 12 + 3.68 + 0.36 + 5.65 = 21.69 > 3.84 = c1;0.95

H0 ist abzulehnen. Die Zufallsvariable X folgt damit keiner Normalverteilung, sondern irgend einer anderen Verteilung. (Hinweis: Wir haben k = 4 Klassen und r = 2 zu sch¨ atzende Parameter, also ist die Zahl der Freiheitsgrade 4 − 1 − 2 = 1. ) L¨osung zu Aufgabe 8.4: Es liegt ein Zweistichprobenproblem vor. Wir setzen i.i.d. i.i.d. voraus: X1 , . . . , X10 ∼ F und Y1 , . . . , Y10 ∼ G und pr¨ ufen H0 : F (z) = G(z) gegen H1 : F (z) = G(z), z ∈ R. Der erste Schritt ist es, die Stichproben zu ordnen:

A.8 Nichtparametrische Tests

i x(i) y(i)

1 0.6 2.0

2 1.2 2.3

3 1.6 3.0

4 1.7 3.2

5 1.7 3.2

6 2.1 3.4

7 2.8 3.5

8 2.9 3.8

9 3.1 4.6

443

10 3.3 7.2

Damit bestimmen wir die empirischen Verteilungsfunktionen geordnete Stichprobe x(1) = 0.6 x(2) = 1.2 x(3) = 1.6 (x(4) , x(5) ) = 1.7 y(1) = 2.0 x(6) = 2.1 y(2) = 2.3 x(7) = 2.8 x(8) = 2.9 y(3) = 3.0 x(9) = 3.1 (y(4) , y(5) ) = 3.2 x(10) = 3.3 y(6) = 3.4 y(7) = 3.5 y(8) = 3.8 y(9) = 4.6 y(10) = 7.2

Fˆ (x) 1/10 2/10 3/10 5/10 5/10 6/10 6/10 7/10 8/10 8/10 9/10 9/10 1 1 1 1 1 1

ˆ G(y) 0 0 0 0 1/10 1/10 2/10 2/10 2/10 3/10 3/10 5/10 5/10 6/10 7/10 8/10 9/10 1

ˆ |Fˆ (x) − G(y)| 1/10 2/10 3/10 5/10 4/10 5/10 4/10 5/10 6/10 5/10 6/10 4/10 5/10 4/10 3/10 2/10 1/10 0

Die Teststatistik (vgl. (8.3)) ergibt als maximalen Abstand der beiden empirischen Verteilungsfunktionen ˆ K = max |Fˆ (x) − G(y)| = 6/10 ≤ 0.6 = k10,10;0.95 , d.h. wir k¨onnen H0 nicht ablehnen. L¨osung zu Aufgabe 8.5: orpergr¨ oße X ist N (μ; σ 2 )-verteilt mit μ = a) Wir pr¨ ufen zun¨ achst H0 : K¨ 2 169, σ = 16 gegen H1 : X ist nicht N (169; 16)-verteilt. i) Chi-Quadrat-Test Wir nehmen folgende Klasseneinteilung vor: j Gj = [aj−1 , aj ) Klassenmitte mj nj 1 (−∞; 158.5) − 0 2 [158.5; 161.5) 160 3 3 [161.5; 164.5) 163 10 4 [164.5; 167.5) 166 8 5 [167.5; 170.5) 169 10 6 [170.5; 173.5) 172 9 7 [173.5; 176.5) 175 7 8 [176.5; 179.5) 178 3 9 [179.5; +∞) − 0

444

¨ A. L¨ osungen zu den Ubungsaufgaben

Die unter H0 zu erwartenden Wahrscheinlichkeiten pj f¨ ur die einzelnen Gruppen werden mit Hilfe der N (169; 16)-Verteilung und durch Standardisierung berechnet: p1 p2 p3 p4 p5 p6 p7 p8 p9 j 1 2 3 4 5 6 7 8 9 

) = Φ(−2.63) = 0.0043 = Φ( 158.5−169 4 = Φ( 161.5−169 ) − Φ(−2.63) = 0.0301 − 0.0043 = 0.0258 4 = Φ( 164.5−169 ) − Φ(−1.88) = 0.1292 − 0.0301 = 0.0991 4 = Φ( 167.5−169 ) − Φ(−1.13) = 0.352 − 0.1292 = 0.2228 4 = Φ(0.38) − Φ(−0.38) = 0.6480 − 0.352 = 0.296 = Φ(1.13) − Φ(0.38) = 0.8708 − 0.6480 = 0.2228 = Φ(1.88) − Φ(1.13) = 0.9699 − 0.8708 = 0.0991 = Φ(2.63) − Φ(1.88) = 0.9957 − 0.9699 = 0.0258 = 1 − Φ(2.63) = = 0.0043 G′j = [a′j−1 , a′j ) (−∞; −2.63)

pj 0.0043

npj 0.215

[−2.63; −1.88) [−1.88; −1.13) [−1.13; −0.38) [−0.38; 0.38) [0.38; 1.13) [1.13; 1.88)

0.0258 0.0991 0.2228 0.2960 0.2228 0.0991

1.29 4.955 11.14 14.8 11.14 4.955

[1.88; 2.63) [2.63; ∞)

0.0258 0.0043

1.29 0.215

(npj )

nj

(nj −npj )2 npj

@

13

6.621

8 10 9

0.885 1.557 0.411

10

1.940

@

6.46

6.46

11.414

Da f¨ ur die Klassen 1,2,3 und 7,8,9 die Faustregel (npj > 5) verletzt w¨ urde, wurden diese Gruppen zu jeweils einer Gruppe zusammengefaßt. Damit bleiben 5 Gruppen, was 4 Freiheitsgrade ergibt. Somit ist t = 11.414 > 9.49 = c4;0.95 und wir m¨ ussen H0 ablehnen. Die Zufallsgr¨oße X folgt in diesem Datensatz nicht einer N (169; 16)-Verteilung. ii) Kolmogorov-Smirnov-Test Mit den bereits beim Chi-Quadrat-Test berechneten Werten  bilden wir die unter H0 erwarteten Summenh¨aufigkeiten Fj (E) = npj und ebenso die beobachteten Summenh¨aufigkeiten Fj (B) = nj :

A.8 Nichtparametrische Tests

F1 (E) F2 (E) F3 (E) F4 (E) F5 (E) F6 (E) F7 (E) F8 (E) F9 (E)

= = = = = = = = =

0.215 1.505 6.46 17.6 32.4 43.54 48.495 49.785 50

F1 (B) F2 (B) F3 (B) F4 (B) F5 (B) F6 (B) F7 (B) F8 (B) F9 (B)

= = = = = = = = =

0 3 13 21 31 40 47 50 50

|F1 (B) − F1 (E)| |F2 (B) − F2 (E)| |F3 (B) − F3 (E)| |F4 (B) − F4 (E)| |F5 (B) − F5 (E)| |F6 (B) − F6 (E)| |F7 (B) − F7 (E)| |F8 (B) − F8 (E)| |F9 (B) − F9 (E)|

= = = = = = = = =

445

0.215 1.495 6.54 3.4 1.4 3.54 1.495 0.215 0

Die Teststatistik (8.3) hat als Realisierung 1.36 ˆ = 6.54 = 0.1308 < 0.192 = √ D = d50;0.95 , 50 50 d.h. mit dem Kolmogorov-Smirnov-Test wird H0 nicht abgelehnt. oße ist N (μ; σ 2 )-verteilt bei beliebigen μ und σ 2 gegen H1 : b) H0 : K¨orpergr¨ Es liegt keine Normalverteilung vor i) Chi-Quadrat-Test Sch¨atzen der unbekannten Parameter: 1 nj mj = 168.7 n  1 nj (mj − μ ˆ)2 = 24.93 σ ˆ2 = n μ ˆ=

Die Sch¨atzwerte pˆj f¨ ur die unter H0 g¨ ultigen Wahrscheinlichkeiten pj f¨ ur die einzelnen Gruppen werden mit Hilfe der N (168.7; 24.93)Verteilung und Standardisierung berechnet: pˆ1 pˆ2 pˆ3 pˆ4 pˆ5 pˆ6 pˆ7 pˆ8 pˆ9

= = = = = = = = =

Φ(−2.04) = 1 − 0.9793 = Φ(−1.44) − Φ(−2.04) = 0.0749 − 0.0207 = Φ(−0.84) − Φ(−1.44) = 0.2005 − 0.0749 = Φ(−0.24) − Φ(−0.84) = 0.4052 − 0.2005 = Φ(0.36) − Φ(−0.24) = 0.6406 − 0.4052 = Φ(0.96) − Φ(0.36) = 0.8315 − 0.6406 = Φ(1.56) − Φ(0.96) = 0.9406 − 0.8315 = Φ(2.16) − Φ(1.56) = 0.9846 − 0.9406 = 1 − Φ(2.16) = 1 − 0.9846 =

0.0207 0.0542 0.1256 0.2047 0.2354 0.1909 0.1091 0.044 0.0154

446

¨ A. L¨ osungen zu den Ubungsaufgaben

j 1 2 3 4 5 6 7 8 9 

G′j = [a′j−1 , a′j ) (−∞; −2.04)

pj 0.0207

npj 1.035

[−2.04; −1.44) [−1.44; −0.84) [−0.84; −0.24) [−0.24; 0.36) [0.36; 0.96) [0.96; 1.56)

0.0542 0.1256 0.2047 0.2354 0.1909 0.1091

2.71 6.28 10.235 11.77 9.545 5.455

[1.56; 2.16) [2.16; ∞)

0.044 0.0154

2.2 0.77

(npj ) @

10.03

@

8.43

nj

(nj −npj )2 npj

13

0.879

8 10 9

0.488 0.266 0.031

10

0.292 1.956

t = 1.956 < 5.99 = c2;0.95

d.h. wir werden H0 nicht ablehnen. (Hinweis: Die Zahl der Freiheitsgrade ist 5 (Gruppen) −1 − 2 (gesch¨ atzte Parameter) = 2.) ii) Kolmogorov-Smirnov-Test Wir gehen analog zu Teilaufgabe a) vor und bilden erneut die Summenh¨aufigkeiten: F1 (E) F2 (E) F3 (E) F4 (E) F5 (E) F6 (E) F7 (E) F8 (E) F9 (E)

= = = = = = = = =

1.035 3.745 10.025 20.26 32.03 41.575 47.03 49.23 50

F1 (B) F2 (B) F3 (B) F4 (B) F5 (B) F6 (B) F7 (B) F8 (B) F9 (B)

= = = = = = = = =

0 3 13 21 31 40 47 50 50

|F1 (B) − F1 (E)| |F2 (B) − F2 (E)| |F3 (B) − F3 (E)| |F4 (B) − F4 (E)| |F5 (B) − F5 (E)| |F6 (B) − F6 (E)| |F7 (B) − F7 (E)| |F8 (B) − F8 (E)| |F9 (B) − F9 (E)|

= = = = = = = = =

1.035 0.745 2.975 0.74 1.03 1.575 0.03 0.77 0

ˆ = 2.975 = 0.0595 < 0.192 = d50;0.95 , D 50 d.h. H0 wird nicht abgelehnt. L¨osung zu Aufgabe 8.6: Der Mann-Whitney-U-Test erfordert die Rangvergabe, wobei auf Bindungen zu achten ist. Wert 17 33 37 44 45 45 49 51 51 53 62 62 Gruppe A B A A B B A A B A A B Rang 1 2 3 4 5.5 5.5 7 8.5 8.5 10 11.5 11.5 Wert 73 74 87 89 Gruppe B A B B Rang 13 14 15 16 Daraus folgt f¨ ur die beiden Rangsummen und die Teststatistiken (vgl. (8.4) und (8.5))

A.8 Nichtparametrische Tests

447

RA+ = 59 RB+ = 77 8·9 − 59 = 41 2 8·9 UB = 8 · 8 + − 77 = 23 2 UA = 8 · 8 +

Da Bindungen vorliegen, ist die korrigierte Teststatistik (vgl. (8.7)) anzuwenden, wobei man f¨ ur U den kleineren der beiden Werte UA , UB , also UB nimmt. Wir haben r = 3 Gruppen von jeweils gleichen Werten mit jeweils ti = 2 Elementen (je 2mal 5.5, 8.5, 11.5). Damit erhalten wir als Realisierung der Testgr¨oße Z z= # = #

8·8 16·15

64 15·16

23 − ( 163 −16 12

8·8 2



23 − 32 ( 4096−16 12

−9 = √ = −0.95 90.27

 23 −2 



12

6 12

·3

·3

)

)

Da die Bedingung n1 , n2 ≥ 8 erf¨ ullt ist, kann die Normalapproximation Z ∼ N (0, 1) verwendet werden. Mit |z| = |0.95| < 1.64 = z0.95 wird H0 : μX = μY im zweiseitigen Test nicht abgelehnt, ein Unterschied in der Blattl¨ange als Ergebnis unterschiedlicher D¨ ungung ist nicht nachweisbar. L¨osung zu Aufgabe 8.7: Der Wilcoxon-Test f¨ ur verbundene Stichproben pr¨ uft folgende Hypothesen u ¨ ber den Median M : H0 : M ≤ 0 gegen H1 : M > 0 (einseitig). Wir bestimmen in der Tabelle die Werte di der Differenz D und der Variablen  1 di > 0 Zi = 0 sonst. Student 1 2 3 4 5 6 7

vorher 17 18 25 12 19 34 29

nachher 25 45 37 10 21 27 29

di 8 27 12 -2 2 -7 0

zi 1 1 1 0 1 0

R(|di |) 4 6 5 1.5 1.5 3

Da beim 7. Studenten eine Nulldifferenz auftritt, ist diese Beobachtung wegzulassen. Damit ergibt sich als Teststatistik der Wert (vgl. (8.8))

¨ A. L¨ osungen zu den Ubungsaufgaben

448

W

+

=

6  i=1

zi R(|di |) = 16.5 .

Der kritische Wert f¨ ur α = 0.05 berechnet sich nach B¨ uning und Trenkler (1994) als n(n + 1) − w0.05 = 21 − 2 = 19, w0.95 = 2 so dass wir H0 nicht ablehnen, da W + < w0.95 ist. L¨osung zu Aufgabe 8.8: a) Die Zufallsgr¨oße ist X: Schraubendurchmesser mit X ∼ N (3, 0.012 ). Wir standardisieren: Z = (X−3) 0.01 ∼ N (0, 1). Eine Abweichung um 0.0196 vom Mittelwert nach unten bedeutet, dass X kleiner als μ − 0.0196 sein muß. Damit erhalten wir   X −3 3 − 0.0196 − 3 P (A) = P (X < 3 − 0.0196) = P < 0.01 0.01 = P (Z < −1.96) = 1 − P (Z ≤ 1.96) = 1 − 0.975 = 0.025 . Analog gilt P (B) = P (3 − 0.0196 < X < 3 + 0.0196) = P (|Z| < 1.96) = 0.95

und P (C) = P (X > 3 + 0.0196) = P (Z > 1.96) = 1 − P (Z ≤ 1.96) = 1 − 0.975

= 0.025 .

b) Wir pr¨ ufen H0 : X ∼ N (3, 0.012) gegen H1 : X folgt keiner Normalver” teilung“ mit dem Chi-Quadrat-Anpassungstest bei drei Klassen: Klasse:

zu schmal“ ”

tolerabel“ ”

zu breit“ ”

beobachtete H¨aufigkeiten

5

185

10

erwartete H¨aufigkeiten unter H0

200 · 0.025 = 5

200 · 0.95 = 190

200 · 0.025 = 5

Die Testgr¨oße (8.1) lautet: T (X) =

 ( beobachtete − erwartete H¨aufigkeiten )2 H0 ∼ χ23−1 . erwartete H¨ aufigkeiten

A.8 Nichtparametrische Tests

449

Der kritische Bereich enth¨ alt große Werte, d. h. es ist K = (χ22,0.95 , ∞) = (5.99, ∞). Die Realisierung ergibt den Wert: t=

25 25 + = 5.132 ∈ K, 5 190

d.h. H0 wird nicht abgelehnt. Dies bedeutet, dass nichts gegen die Annahme einer Normalverteilung f¨ ur die Zufallsgr¨oße X spricht (wir haben jedoch nicht nachgewiesen, dass X normalverteilt ist!)!

450

¨ A. L¨ osungen zu den Ubungsaufgaben

A.9 Lineare Regression L¨osung zu Aufgabe 9.1: Wir berechnen aus der folgenden Arbeitstabelle x ¯= 77.8, y¯ = 179.5, Sxy = 1255, Sxx = 1993.6. yi 188 160 172 198 189 177 175 188 165 183

yi − y¯ 8.5 -19.5 -7.5 18.5 9.5 -2.5 -4.5 8.5 -14.5 3.5

xi 80 50 58 100 85 78 88 90 76 73

xi − x ¯ 2.2 -27.8 -19.8 22.2 7.2 0.2 10.2 12.2 -1.8 -4.8

Damit erhalten wir die Parametersch¨ atzungen Sxy βˆ1 = = 0.63 Sxx βˆ0 = y¯ − βˆ1 x¯ = 179.50 − 0.63 · 77.8 = 130.49 .

Damit k¨onnen wir die gesch¨ atzten Werte yˆi = βˆ0 + βˆ1 xi bestimmen: i 1 2 3 4 5 6 7 8 9 10

yˆi 180.89 161.99 167.03 193.49 184.04 179.63 185.93 187.19 178.37 176.48

 1 Damit erhalten wir die Sch¨ atzung s2 = n−2 (yi − yˆi )2 = 472.46 . L¨osung zu Aufgabe 9.2: Wir haben ein Regressionsmodell y = β0 + β1 X + ǫ mit einer Einflussgr¨ oße X (Variable(s) Entered on Step Number 1. . . X) Der F -Test pr¨ uft H0 : β1 = 0 gegen H1 : β1 = 0. Der F -Wert lautet F1,48 = 0.203 und hat eine Signifikanz (p-value) von 0.654. Die Nullhypothese wird also nicht abgelehnt, d. h. das Modell“ y = β0 + ǫ wird nicht abgelehnt. ” Der Einfluss von X auf y im Rahmen des linearen Modells ist nicht signifikant. Das Bestimmtheitsmaß R2 = r2 = 0.004 und der von ihm gemessene Anteil durch die Regression erkl¨ arte Anteil an der Gesamtvariabilit¨at ist fast Null: SQT otal = SQRegression + SQResidual = 1.754 + 414.600 .

A.9 Lineare Regression

451

L¨osung zu Aufgabe 9.3: Es liegt ein multiples Regressionsmodell mit vier Regressoren und einer Konstante vor. Der F -Test (F = 488.824, Significance =0.0000) lehnt H0 : βBEGIN N IN GSALARY = βJOBSEN IORIT Y = βAGEOF EMP LOY EE = βW ORKEXP ERIEN CE = 0 ab. Diese Paramter sind uglich der uni–bis auf βW ORKEXP ERIEN CE (Significance=0.051)– auch bez¨ variaten t-Tests signifikant von Null verschieden. Man w¨ urde also im zweiten Schritt den Regressor WORK EXPERIENCE weglassen und die Modellanpassung erneut vornehmen und dann eine endg¨ ultige Entscheidung treffen. L¨osung zu Aufgabe 9.4: a) Diese Ergebnisse sollten Sie mit ihrem Vorwissen einfach best¨atigen k¨onnen. • a = 0.96 nicht sinnvoll interpretierbar (Trinkgeld beim Rechnungsbetrag von 0) • b = 0.1 → steigt der Betrag um 1 Euro so steigt das Trinkgeld um 0.1 Euro. b) Zun¨achst ben¨ otigen wir eine Sch¨ atzung f¨ ur σ 2 , Dazu die Residuen der gesch¨atzten Gerade eˆi = yi − (0.96 + 0.1xi ). Das ergibt die folgenden Werte: 0.037, -0.976, -1.473, 0.789, 0.766, 0.521, -0.982, 2.527, -1.215, 0.005 Die gesch¨atzte Varianz des Fehlers ist: σˆ2 =

1 n−2

10 

eˆi 2 =

i=1

13.43 8

= 1.68.

Damit bekommen wir die Varianz von ˆb: (Sxx = 2428.125 sollten Sie in a) bestimmt haben.) V ar(b) =

1.68 2428.125

= 0.00069.

c) Die Hypothesen lauten: H0 : b = 0 (Der Rechnungsbetrag hat keinen Einfluss) H1 : b = 0 Die Teststatistik ergibt sich als: T =√

ˆ b V ar(ˆ b)

= 3.81.

Wir lehnen H0 ab, falls | T |> tn−2,0.975 = 2.3 Die ist hier der Fall. Der Rechnungsbetrag hat einen signifikanten Einfluss auf die Trinkgeldh¨ohe. d) • H0 : b ≥ 0.15 H1 : b < 0.15 Teststatistik: T = 0.1−0.15 0.0263 = −1.9 H0 ablehnen falls T < −tn−2,0.95 = −1.86, H0 wird abgelehnt, b ist kleiner als 0.15.

452

¨ A. L¨ osungen zu den Ubungsaufgaben

• H0 : b ≤ 0.1 H1 : b > 0.1 Teststatistik: 0.1−0.1 0.0263

=0 H0 ablehnen falls T > tn−2,0.95 = 1.86, H0 wird nicht abgelehnt, es kann weiter davon ausgegangen werden, dass b h¨ochstens 0.1 ist. T =

A.10 Varianzanalyse

453

A.10 Varianzanalyse L¨osung zu Aufgabe 10.1: Wir erg¨ anzen zun¨ achst die Tafel der Varianzanalyse. Der einzige Faktor A (D¨ unger) liegt in a = 3 Stufen vor, also ist df (A) = a − 1 = 2 die Freiheitsgradzahl von Faktor A. Wegen df (A) + df (Residual) = df (T otal) erhalten wir df (Residual) = 32 − 2 = 30. Analog ist SQResidual = SQT otal − SQRegression = 350 − 50 = 300. Damit erhalten wir die erg¨ anzte Tabelle Faktor A Residual Total

df 2 30 32

SQ 50 300 350

MQ 25 10

F FA =

25 10

= 2.5

Die Nullhypothese lautet: H0 : Faktor A ist ohne Einfluss auf den Response. Mit dem einfaktoriellen Modell der Varianzanalyse yij = μ + αi + ǫij l¨asst sich H0 schreiben als H0 : α1 = α2 = α3 = 0 . Die Alternativhypothese lautet H1 : mindestens ein αi = 0. Die Teststatistik folgt unter H0 einer F2,30 -Verteilung, der kritische Wert lautet F2,30,0.95 = 3.32 (Tabelle B5). Wegen FA = 2.5 < 3.32 ist H0 nicht abzulehnen, d. h. ein Effekt des D¨ ungers ist nicht nachweisbar. L¨osung zu Aufgabe 10.2: Wir haben drei unabh¨angige Stichproben. Unter der Annahme y1 ∼ N (μ1 , σ 2 ) (Punktwerte Gruppe 1), y2 ∼ N (μ2 , σ 2 ) (Punktwerte Gruppe 2), y3 ∼ N (μ3 , σ 2 ) (Punktwerte Gruppe 3) f¨ uhren wir den Mittelwertsvergleich der drei Gruppen mit der einfaktoriellen Varianzanalyse durch. Der Faktor A ist durch die Gruppeneinteilung mit den drei Stufen 1,2,3 gegeben. Es ist a = 3 (Anzahl der Stufen von A) und n = n1 + n2 + n3 = 8 + 6 + 8 = 22. Wir berechnen zun¨ achst die Mittelwerte in den Gruppen und das Gesamtmittel: 8

y1+ =

431 1 1 = 53.875 y1j = · (32 + . . . + 85) = 8 j=1 8 8 6

y2+ =

302 1 1 = 50.333 y2j = · (34 + . . . + 75) = 6 j=1 6 6 8

y3+ = y++ =

457 1 1 = 57.125 y3j = · (38 + . . . + 95) = 8 j=1 8 8

431 + 302 + 457 1190 8y1+ + 6y2+ + 8y3+ = = = 54.09 22 22 22

454

¨ A. L¨ osungen zu den Ubungsaufgaben

Mit den Formeln (10.12) bis (10.14) berechnen wir mit y++ = 54.09 SQT otal =

ni 3   i=1 j=1

2 2 yij − ny++

= 6443.82 3  2 2 SQA = ni yi+ − ny++ i=1

= 158.735

und daraus SQResidual = SQT otal − SQA = 6285.085 .

Die Nullhypothese H0 : μ1 = μ2 = μ3 wird mit der Statistik F2,19 =

SQA /a − 1 = SQResidual /n − a

158.735 2 6285.085 19

= 0.240

gepr¨ uft (vgl. Tabelle 10.3). Der kritische Wert F2,19,0.95 betr¨ agt 3.52 (Tabelle B5). Damit gilt F = 0.240 < 3.52 = F2,19,0.95 , so dass H0 : μ1 = μ2 = μ3 nicht abgelehnt wird. Die beobachteten Unterschiede in den mittleren Punktzahlen der drei Gruppen (y1+ = 53.875, y2+ = 50.333, y3+ = 57.125) sind als statistisch nicht signifikant sondern als zuf¨ allig einzusch¨ atzen. L¨osung zu Aufgabe 10.3: Gem¨ aß der hierarchischen Modellbildung sind bei signifikanter Wechselwirkung auch die beiden Haupteffekte im Modell zu belassen. Die Modelle lauten also a) b) c) d) e)

yijk = μ + αi + βj + (αβ)ij + ǫijk yijk = μ + αi + βj + ǫijk wie a) wie a) yjk = μ + βj + ǫjk

L¨osung zu Aufgabe 10.4: Wir erg¨ anzen die Tabelle durch Angabe der Werte f¨ ur M Q = SQ/df und der F -Statistiken: Faktor A

df 1

SQ 130

MQ 130/1=130

FA =

130 8.33

= 15.61

Faktor B

2

630

630/2=315

FB =

315 8.33

= 37.81

2 18

40 150

40/2=20 150/18=8.33

FA×B =

Wechselwirkung A × B Residual

F

20 8.33

= 2.40

Der erste Test pr¨ uft die Wechselwirkung A × B. Die F -Statistik zum Pr¨ ufen von H0 : Wechselwirkung gleich Null“ hat 2 bzw. 18 Freiheitsgra” de. Der kritische Wert (vgl. Tabelle B5) lautet F2,18,0.95 = 3.55. Wegen

A.10 Varianzanalyse

455

FA×B = 2.40 < 3.55, wird H0 nicht abgelehnt, d. h. die Wechselwirkung ist nicht signifikant und wird aus dem Modell entfernt. Die Fehlerquadratsumme SQA×B wird zu SQResidual addiert, die Freiheitsgrade von SQA×B gehen in die Freiheitsgrade von SQResidual ein: Faktor A

df 1

SQ 130

MQ 130

Faktor B Residual

2 20

630 190

315 9.5

F FA =

130 9.5

= 13.68

FB =

315 9.5

= 33.16

Wir haben nun das Modell mit den Haupteffekten A und B und pr¨ ufen H0 : αA = 0 gegen H1 : αA = 0 mit FA = 13.68 > 4.35 = F1,20,0.95 . Damit wird H0 abgelehnt, Faktor A hat signifikanten Einfluss auf den Response. Wir pr¨ ufen H0 : αB = 0 gegen H1 : αB = 0. Mit FB = 33.16 > 3.49 = F2,20,0.95 wird H0 abgelehnt, Faktor B hat ebenfalls signifikanten Einfluss auf den Response. Als Ergebnis erhalten wir ein zweifaktorielles Modell mit signifikanten Haupteffekten A und B aber ohne Wechselwirkung. L¨osung zu Aufgabe 10.5: Die Zielvariable y ist SALNOW, die Faktoren A und B sind JOBCAT (7 Stufen, DF=6) und MINORITY (2 Stufen, DF=1). Die Wechselwirkung ist signifikant von Null verschieden (Sig. 0.041), so dass das zweifaktorielle Modell mit Wechselwirkung g¨ ultig ist: SALN OW = μ+JOBCAT +M IN ORIT Y +(JOBCAT )×(M IN ORIT Y ) . Eine Reduzierung auf ein Modell mit Haupteffekten ist also nicht m¨oglich.

456

¨ A. L¨ osungen zu den Ubungsaufgaben

A.11 Analyse von Kontingenztafeln L¨osung zu Aufgabe 11.1: Zun¨ achst berechnen wir die bei Unabh¨angigkeit zu erwartenden H¨aufigkeiten gem¨ aß m ˆ ij = nˆ πij = ni+nn+j :

X

1 2 n+j

1 13.33 66.67 80

Y 3 40 200 240

2 35 175 210

4 50 250 300

5 41.67 208.33 250

ni+ 180 900 n = 1080

Pearson’s χ2 -Statistik berechnet sich mit c=

2  5  (nij − m ˆ ij )2 m ˆ ij i=1 j=1

zu c = 3.85. Ein Test mit Signifikanzniveau 0.05 lehnt daher die Hypothese der Unabh¨angigkeit nicht ab, da der kritische Wert c(I−1)(J−1);1−α = c4;0.95 = 9.49 ist, also c < c4;0.95 . F¨ ur die spaltenweise G2 -Analyse analysieren wir die folgenden 2×2-Tafeln bez¨ uglich ihres G2 -Wertes: Y 1 X 2

1 X 2

1 X 2

1 X 2

1 10 70

2 30 180

˜ 2 = 0.158 G 1

Y 1+2 3 40 40 250 200 Y 1+2+3 80 450

Y 1+2+3+4 130 700

˜ 2 = 0.843 G 2

4 50 250 5 50 200

˜ 2 = 0.356 G 3

˜ 24 = 2.516 G

˜2 + G ˜2 + G ˜2 + G ˜ 2 = 0.158 + 0.843 + 0.356 + Wir erhalten damit G2 = G 1 2 3 4 2.516 = 3.873. Man erh¨ alt ein homogeneres Bild, wenn man beispielsweise die folgende Zusammenfassung f¨ ur Y w¨ ahlt: Kategorie 1 und Kategorie 2 ˜ 2 den kleinsten Beitrag zu G2 leistet. Kategorie werden zusammengefaßt, da G 1

A.11 Analyse von Kontingenztafeln

457

5 bleibt f¨ ur sich, da die vierte betrachtete Tafel den gr¨oßten Beitrag zu G2 liefert. Die 2 × 2 Tafel, die die Kategorien 3 und 4 f¨ ur sich betrachtet, h¨atte einen Odds Ratio von 1. Wir fassen daher diese beiden auch noch zusammen. Wir erhalten als eine M¨ oglichkeit die 2 × 3-Tafel

X

1 2

1+2 40 250

Y 3+4 90 450

5 50 200

mit c = 3.72 und G2 = 3.71. L¨osung zu Aufgabe 11.2: Pearson’s χ2 -Statistik berechnet sich zu c = 9.52. Zum Signifikanzniveau 0.05 betr¨ agt der kritische Wert c1;0.95 = 3.84. Die Hy= = (40 · 80)/(60 · pothese H0 wird daher abgelehnt. Der Odds Ratio ist OR 20) = 2.67, also gr¨ oßer als 1. D.h. es besteht ein positiver statistischer Zusammenhang zwischen Rauchen und Krankheit. F¨ ur den Test w¨ahlt man den Weg u atzung: ¨ ber den ln OR und dessen Varianzsch¨ = = θˆ0 = 0.98 ln OR 1 1 1 1 σ ˆθ2ˆ = + + + = 0.104 0 40 60 20 80 σ ˆθˆ0 = 0.323 Man erh¨alt damit den z-Wert z =

θˆ0 σ ˆθˆ

= 3.04 > 1.96 = z0.95 . Daher wird H0

0

= oder abgelehnt. Alternativ berechnet man ein Konfidenzintervall f¨ ur ln OR = F¨ = erh¨ OR. ur ln OR alt man [0.98 − 1.96 · 0.323; 0.98 + 1.96 · 0.323] = [0.35; 1.61] ,

= entsprechend f¨ ur den OR

[exp(0.35); exp(1.61)] = [1.42; 5.00] .

In beiden F¨allen kann man H0 verwerfen: im ersten Fall wird der Wert 0 nicht vom Konfidenzintervall u ¨ berdeckt (ln OR = 0 entspricht Unabh¨angigkeit), im zweiten Fall wird der Wert 1 nicht u ¨ berdeckt. L¨osung zu Aufgabe 11.3: Wie in der L¨ osung zur vorhergehenden Aufgabe = oder ln OR. = Zur einfacheren Interpretierbarkeit kann man verwenden wir OR zun¨achst die Spalten der Tafel vertauschen. nachher vorher

Produkte einwandfrei mangelhaft 80 20 60 40

= = 2.67. Man erh¨ Damit ist OR alt im u ur die ¨ brigen die gleichen Werte f¨ Sch¨atzungen wie in der vorherigen Aufgabe. Damit hat die Einf¨ uhrung des ISO 9001 Standards die Produktion signifikant verbessert.

458

¨ A. L¨ osungen zu den Ubungsaufgaben

L¨osung zu Aufgabe 11.4: Wir verwenden die χ2 -Statistik. Man erh¨alt c = 3499 > c2;0.95 = 5.99. Also liegt ein signifikanter Zusammenhang zwischen Erwerbst¨atigkeit und Geschlecht vor. Machen wir nun die vorgeschlagene Unterscheidung, erhalten wir die folgende Tafel: m¨annlich weiblich

Erwerbsperson 18000 11900

Nichterwerbspersonen 11780 20200

Wir verwenden jetzt wieder den Odds Ratio: = = 2.59 OR = = θˆ0 = 0.95 ln OR 1 1 1 1 σ ˆθ2ˆ = + + + = 2.74 · 10−4 0 18000 11780 11900 20200 σ ˆθˆ0 = 0.017 = Damit erh¨alt man als 95%-Konfidenzintervall f¨ ur den ln OR:

[0.95 − 1.96 · 0.017; 0.95 + 1.96 · 0.017] = [0.92; 0.98] .

Damit ist auch dieser Zusammenhang signifikant positiv, das heißt M¨anner sind eher Erwerbspersonen als Frauen. L¨osung zu Aufgabe 11.5: Da es sich um einen Fall mit geringen Stichprobenumf¨angen handelt, sollten die f¨ ur große Stichprobenumf¨ange gedachten Tests und auch der Test mittels des Odds Ratios nicht verwendet werden. Besser ist es in diesem Fall, den exakten Test von Fisher zu verwenden. Dazu stellen wir uns vor, wir h¨ atten 2 Gesamtheiten, eine von 0 bis 12 Uhr und die andere von 12 bis 24 Uhr (vergleiche Beispiel 7.6.3, dort Strategie A und Strategie B). Man definiert dann die beiden bedingten Wahrscheinlichkeiten p1 = P (Baby ist m¨ annlich|das Baby kam zwischen 0 und 12 Uhr zur Welt) und p2 = P (Baby ist m¨ annlich|das Baby kam zwischen 12 und 24 Uhr zur Welt) . Die Anzahl der m¨ annlichen Babies unter der Bedingung, dass sie zwischen 0 und 12 Uhr zur Welt kamen, kann als binomialverteilt B(8; p1 ) aufgefaßt werden, die Anzahl der m¨ annlichen Babies unter der Bedingung, dass sie zwischen 12 und 24 Uhr zur Welt kamen, als B(11; p2 ). Die Unabh¨angigkeitshypothese kann dann ersetzt werden durch die Annahme der Gleichheit der bedingten Wahrscheinlichkeiten p1 und p2 . In Analogie zum Beispiel 7.6.3 erhalten wir also n1 = 8, n2 = 11, t1 = 5, t2 = 8, n = n1 + n2 = 19 und t = t1 + t2 = 13. Damit ergibt sich exakt die gleiche Konstellation wie in Beispiel 7.6.3 mit dem entsprechend gleichen Resultat: H0 : p1 = p2 und damit auch H0′ : “Tageszeit und Geschlecht sind unabh¨angig“ k¨onnen nicht abgelehnt werden.

A.11 Analyse von Kontingenztafeln

459

L¨osung zu Aufgabe 11.6: Die entscheidende Frage, die sich hier zun¨achst stellt, ist: sind der Stichprobenumfang und die Zellh¨aufigkeiten groß genug, um den χ2 -Test oder den Likelihood-Quotienten-Test (G2 ) durchzuf¨ uhren, oder sollte man etwas vorsichtiger sein und den exakten Test von Fisher durchf¨ uhren? Dies f¨ uhrt in diesem Fall zu folgender Situation: w¨ahlt man als Signifikanzniveau den Wert 0.05, so lehnen sowohl der χ2 -Test (c = 4.8, pWert < 0.05), als auch der Likelihood-Quotienten-Test (G2 = 5.063, p-Wert < 0.05) die Unabh¨ angigkeitshypothese ab. Der zu diesen Tests vergleichbare exakte Test von Fischer ist der f¨ ur die zweiseitige Fragestellung. Dieser lehnt aber die Hypothese der Unabh¨ angigkeit nicht ab (p-Wert “two tail“ > 0.05). Man erh¨ alt also je nach Wahl des Tests (und diese Wahl mag in diesem Beispiel nicht ganz eindeutig sein) eine andere statistische Aussage. L¨osung zu Aufgabe 11.7: W¨ urde man hier unmittelbar einen χ2 -Test durchf¨ uhren, erhielte man c = 7.33 (G2 = 7.48), wobei c2;0.99 = 9.21, was zum Nichtablehnen der Nullhypothese f¨ uhrt. M¨ oglich ist es, die F¨alle aus der Analyse herauszunehmen, wo sich keinerlei Wirkung des neuen Mittels feststellen l¨asst (Bezeichnung “0“). Das heißt, man analysiert die folgende Tafel: M¨ anner Frauen

+ 11 22

− 17 17

Hierf¨ ur erh¨alt man c = 1.91, G2 = 1.92 und damit c, G2 < c1;0.99 = 6.63. In beiden F¨allen ist also kein Unterschied in der Wirkung auf M¨anner und Frauen nachweisbar. L¨osung zu Aufgabe 11.8: Man erh¨ alt c = 1637.5 oder G2 = 1416.8. Beide Werte sind gr¨oßer als der kritische Wert c(I−1)(J−1);0.99 = c8;0.99 = 20.1. Es besteht offenbar ein Zusammenhang zwischen dem (prim¨aren) Hobby und dem Studienfach.

460

¨ A. L¨ osungen zu den Ubungsaufgaben

A.12 Lebensdaueranalyse L¨osung zu Aufgabe 12.1: Bezeichnen f (t) und F (t) die Dichte und Verteilungsfunktion der Zufallsvariablen T , so lassen sich Hazardrate λ(t) und Survivorfunktion S(t) definieren als f (t) 1 − F (t) S(t) = 1 − F (t) . λ(t) =

¨ Die bedingte Uberlebenswahrscheinlichkeit zum Zeitpunkt t wurde nur im Zusammenhang mit der Kaplan-Meier-Sch¨ atzung eingef¨ uhrt. Betrachtet man das k-te Zeitintervall, so ist die Hazardrate die bedingte Ereigniswahrscheinlichkeit λ(k) = P (Xk = 1|X1 = . . . Xk−1 = 0) , also die Wahrscheinlichkeit eines Objekts, im k-ten Zeitintervall ein Ereignis zu haben, gegeben dass das Objekt in den vorherigen Intervallen kein Ereignis ¨ hatte. Die bedingte Uberlebenswahrscheinlichkeit p(k) bezieht sich auf das Gegenereignis, also im k-ten Zeitintervall kein Ereignis zu haben, gegeben dass das Objekt auch in den vorherigen Intervallen kein Ereignis hatte, und ist damit gegeben durch p(k) = 1 − λ(k) = P (Xk = 0|X1 = . . . Xk−1 = 0) . L¨osung zu Aufgabe 12.2: Es liegen keine zensierten Daten vor. Die gesch¨atzte Survivalfunktion f¨ allt daher bis zum Wert 0. In jedem Intervall findet ein Ereignis statt. Daher sinkt die Risikomenge gleichm¨aßig und die Survivalfunktion f¨allt gleichm¨ aßig in 1/10-Schritten ab. Tabelle A.1. Kaplan-Meier-Sch¨ atzung k 0 1 2 3 4 5 6 7 8 9 10

t(k) 0 10 20 30 40 50 60 70 80 90 100

R(k) 10 10 9 8 7 6 5 4 3 2 1

dk 0 1 1 1 1 1 1 1 1 1 1

ˆk λ 0 1/10 1/9 1/8 1/7 1/6 1/5 1/4 1/3 1/2 1

pˆk 1 9/10 8/9 7/8 6/7 5/6 4/5 3/4 2/3 1/2 0

ˆ (k) ) S(t 1 9/10 8/10 7/10 6/10 5/10 4/10 3/10 2/10 1/10 0

A.12 Lebensdaueranalyse

461

L¨osung zu Aufgabe 12.3: Die Log-Rank-Statistik weist keinen signifikanten Unterschied bez¨ uglich des Alters (Haltbarkeit) der beiden Maschinentypen Stanze“ und Presse“ aus. Ein Blick auf die Abbildung macht jedoch offen” ” sichtlich, dass ein Log-Rank-Test in dieser Datensituation unangebracht ist, da die Voraussetzung, dass sich die zwei Survivalkurven nicht u ¨berschneiden, nicht erf¨ ullt ist.

B. Tabellenanhang

464

B. Tabellenanhang

Tabelle B.1. Verteilungsfunktion Φ(z) der Standardnormalverteilung N (0, 1) z 0.0 0.1 0.2 0.3 0.4 0.5

.00 0.500000 0.539828 0.579260 0.617911 0.655422 0.691462

.01 0.503989 0.543795 0.583166 0.621720 0.659097 0.694974

.02 0.507978 0.547758 0.587064 0.625516 0.662757 0.698468

.03 0.511966 0.551717 0.590954 0.629300 0.666402 0.701944

.04 0.515953 0.555670 0.594835 0.633072 0.670031 0.705401

0.6 0.7 0.8 0.9 1.0

0.725747 0.758036 0.788145 0.815940 0.841345

0.729069 0.761148 0.791030 0.818589 0.843752

0.732371 0.764238 0.793892 0.821214 0.846136

0.735653 0.767305 0.796731 0.823814 0.848495

0.738914 0.770350 0.799546 0.826391 0.850830

1.1 1.2 1.3 1.4 1.5

0.864334 0.884930 0.903200 0.919243 0.933193

0.866500 0.886861 0.904902 0.920730 0.934478

0.868643 0.888768 0.906582 0.922196 0.935745

0.870762 0.890651 0.908241 0.923641 0.936992

0.872857 0.892512 0.909877 0.925066 0.938220

1.6 1.7 1.8 1.9 2.0

0.945201 0.955435 0.964070 0.971283 0.977250

0.946301 0.956367 0.964852 0.971933 0.977784

0.947384 0.957284 0.965620 0.972571 0.978308

0.948449 0.958185 0.966375 0.973197 0.978822

0.949497 0.959070 0.967116 0.973810 0.979325

2.1 2.2 2.3 2.4 2.5

0.982136 0.986097 0.989276 0.991802 0.993790

0.982571 0.986447 0.989556 0.992024 0.993963

0.982997 0.986791 0.989830 0.992240 0.994132

0.983414 0.987126 0.990097 0.992451 0.994297

0.983823 0.987455 0.990358 0.992656 0.994457

2.6 2.7 2.8 2.9 3.0

0.995339 0.996533 0.997445 0.998134 0.998650

0.995473 0.996636 0.997523 0.998193 0.998694

0.995604 0.996736 0.997599 0.998250 0.998736

0.995731 0.996833 0.997673 0.998305 0.998777

0.995855 0.996928 0.997744 0.998359 0.998817

B. Tabellenanhang

465

Tabelle B.1. Verteilungsfunktion Φ(z) der Standardnormalverteilung N (0, 1) z 0.0 0.1 0.2 0.3 0.4 0.5

.05 0.519939 0.559618 0.598706 0.636831 0.673645 0.708840

.06 0.523922 0.563559 0.602568 0.640576 0.677242 0.712260

.07 0.527903 0.567495 0.606420 0.644309 0.680822 0.715661

.08 0.531881 0.571424 0.610261 0.648027 0.684386 0.719043

.09 0.535856 0.575345 0.614092 0.651732 0.687933 0.722405

0.6 0.7 0.8 0.9 1.0

0.742154 0.773373 0.802337 0.828944 0.853141

0.745373 0.776373 0.805105 0.831472 0.855428

0.748571 0.779350 0.807850 0.833977 0.857690

0.751748 0.782305 0.810570 0.836457 0.859929

0.754903 0.785236 0.813267 0.838913 0.862143

1.1 1.2 1.3 1.4 1.5

0.874928 0.894350 0.911492 0.926471 0.939429

0.876976 0.896165 0.913085 0.927855 0.940620

0.879000 0.897958 0.914657 0.929219 0.941792

0.881000 0.899727 0.916207 0.930563 0.942947

0.882977 0.901475 0.917736 0.931888 0.944083

1.6 1.7 1.8 1.9 2.0

0.950529 0.959941 0.967843 0.974412 0.979818

0.951543 0.960796 0.968557 0.975002 0.980301

0.952540 0.961636 0.969258 0.975581 0.980774

0.953521 0.962462 0.969946 0.976148 0.981237

0.954486 0.963273 0.970621 0.976705 0.981691

2.1 2.2 2.3 2.4 2.5

0.984222 0.987776 0.990613 0.992857 0.994614

0.984614 0.988089 0.990863 0.993053 0.994766

0.984997 0.988396 0.991106 0.993244 0.994915

0.985371 0.988696 0.991344 0.993431 0.995060

0.985738 0.988989 0.991576 0.993613 0.995201

2.6 2.7 2.8 2.9 3.0

0.995975 0.997020 0.997814 0.998411 0.998856

0.996093 0.997110 0.997882 0.998462 0.998893

0.996207 0.997197 0.997948 0.998511 0.998930

0.996319 0.997282 0.998012 0.998559 0.998965

0.996427 0.997365 0.998074 0.998605 0.998999

466

B. Tabellenanhang Tabelle B.2. Dichtefunktion φ(z) der N (0, 1)-Verteilung z 0.0 0.2 0.4 0.6 0.8 1.0

.00 0.3989 0.3910 0.3814 0.3332 0.2897 0.2419

.02 0.3989 0.3894 0.3653 0.3292 0.2850 0.2371

.04 0.3986 0.3876 0.3621 0.3251 0.2803 0.2323

.06 0.3982 0.3857 0.3589 0.3209 0.2756 0.2275

.08 0.3977 0.3836 0.3555 0.3166 0.2709 0.2226

1.2 1.4 1.6 1.8 2.0

0.1942 0.1497 0.1109 0.0789 0.0539

0.1895 0.1456 0.1074 0.0761 0.0519

0.1849 0.1415 0.1039 0.0734 0.0498

0.1804 0.1374 0.1006 0.0707 0.0478

0.1758 0.1334 0.0973 0.0681 0.0459

2.2 2.4 2.6 2.8 3.0

0.0355 0.0224 0.0136 0.0059 0.0044

0.0339 0.0213 0.0167 0.0075 0.0024

0.0325 0.0203 0.0122 0.0071 0.0012

0.0310 0.0194 0.0116 0.0067 0.0006

0.0296 0.0184 0.0110 0.0063 0.0003

B. Tabellenanhang Tabelle B.3. (1 − α)-Quantile cdf ;1−α der χ2 -Verteilung 1−α 0.05 0.95 0.004 3.84 0.103 5.99 0.352 7.81 0.711 9.49 1.15 11.1

df 1 2 3 4 5

0.01 0.0001 0.020 0.115 0.297 0.554

0.025 0.001 0.051 0.216 0.484 0.831

0.975 5.02 7.38 9.35 11.1 12.8

0.99 6.62 9.21 11.3 13.3 15.1

6 7 8 9 10

0.872 1.24 1.65 2.09 2.56

1.24 1.69 2.18 2.70 3.25

1.64 2.17 2.73 3.33 3.94

12.6 14.1 15.5 16.9 18.3

14.4 16.0 17.5 19.0 20.5

16.8 18.5 20.1 21.7 23.2

11 12 13 14 15

3.05 3.57 4.11 4.66 5.23

3.82 4.40 5.01 5.63 6.26

4.57 5.23 5.89 6.57 7.26

19.7 21.0 22.4 23.7 25.0

21.9 23.3 24.7 26.1 27.5

24.7 26.2 27.7 29.1 30.6

16 17 18 19 20

5.81 6.41 7.01 7.63 8.26

6.91 7.56 8.23 8.91 9.59

7.96 8.67 9.39 10.1 10.9

26.3 27.6 28.9 30.1 31.4

28.8 30.2 31.5 32.9 34.2

32.0 33.4 34.8 36.2 37.6

25 30 40 50

11.5 15.0 22.2 29.7

13.1 16.8 24.4 32.4

14.6 18.5 26.5 34.8

37.7 43.8 55.8 67.5

40.6 47.0 59.3 71.4

44.3 50.9 63.7 76.2

60 70 80 90 100

37.5 45.4 53.5 61.8 70.1

40.5 48.8 57.2 65.6 74.2

43.2 51.7 60.4 69.1 77.9

79.1 90.5 101.9 113.1 124.3

83.3 95.0 106.6 118.1 129.6

88.4 100.4 112.3 124.1 135.8

467

468

B. Tabellenanhang Tabelle B.4. (1 − α)-Quantile tdf ;1−α der t-Verteilung df 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100 200 300 400 500

0.95 6.3138 2.9200 2.3534 2.1318 2.0150 1.9432 1.8946 1.8595 1.8331 1.8125 1.7959 1.7823 1.7709 1.7613 1.7531 1.7459 1.7396 1.7341 1.7291 1.7247 1.6973 1.6839 1.6759 1.6706 1.6669 1.6641 1.6620 1.6602 1.6525 1.6499 1.6487 1.6479

1−α 0.975 0.99 12.706 31.821 4.3027 6.9646 3.1824 4.5407 2.7764 3.7469 2.5706 3.3649 2.4469 3.1427 2.3646 2.9980 2.3060 2.8965 2.2622 2.8214 2.2281 2.7638 2.2010 2.7181 2.1788 2.6810 2.1604 2.6503 2.1448 2.6245 2.1314 2.6025 2.1199 2.5835 2.1098 2.5669 2.1009 2.5524 2.0930 2.5395 2.0860 2.5280 2.0423 2.4573 2.0211 2.4233 2.0086 2.4033 2.0003 2.3901 1.9944 2.3808 1.9901 2.3739 1.9867 2.3685 1.9840 2.3642 1.9719 2.3451 1.9679 2.3388 1.9659 2.3357 1.9647 2.3338

0.995 63.657 9.9248 5.8409 4.6041 4.0321 3.7074 3.4995 3.3554 3.2498 3.1693 3.1058 3.0545 3.0123 2.9768 2.9467 2.9208 2.8982 2.8784 2.8609 2.8453 2.7500 2.7045 2.6778 2.6603 2.6479 2.6387 2.6316 2.6259 2.6006 2.5923 2.5882 2.5857

Tabelle B.5. (1 − α)-Quantile fdf1 ,df2 ;1−α der F -Verteilung f¨ ur α = 0.05. df1 in den Zeilen, df2 in den Spalten 1 161.44 199.50 215.70 224.58 230.16 233.98 236.76 238.88 240.54 241.88 242.98 243.90 244.68 245.36 245.94 246.46 246.91 247.32 247.68 248.01 250.09 251.14 251.77 252.19 252.49 252.72 252.89 253.04

2 18.512 19.000 19.164 19.246 19.296 19.329 19.353 19.370 19.384 19.395 19.404 19.412 19.418 19.424 19.429 19.433 19.436 19.440 19.443 19.445 19.462 19.470 19.475 19.479 19.481 19.483 19.484 19.485

3 10.127 9.5520 9.2766 9.1171 9.0134 8.9406 8.8867 8.8452 8.8122 8.7855 8.7633 8.7446 8.7286 8.7148 8.7028 8.6922 8.6829 8.6745 8.6669 8.6601 8.6165 8.5944 8.5809 8.5720 8.5655 8.5607 8.5569 8.5539

4 7.7086 6.9442 6.5913 6.3882 6.2560 6.1631 6.0942 6.0410 5.9987 5.9643 5.9358 5.9117 5.8911 5.8733 5.8578 5.8441 5.8319 5.8211 5.8113 5.8025 5.7458 5.7169 5.6994 5.6877 5.6793 5.6729 5.6680 5.6640

5 6.6078 5.7861 5.4094 5.1921 5.0503 4.9502 4.8758 4.8183 4.7724 4.7350 4.7039 4.6777 4.6552 4.6357 4.6187 4.6037 4.5904 4.5785 4.5678 4.5581 4.4957 4.4637 4.4444 4.4313 4.4220 4.4149 4.4094 4.4050

6 5.9873 5.1432 4.7570 4.5336 4.3873 4.2838 4.2066 4.1468 4.0990 4.0599 4.0274 3.9999 3.9763 3.9559 3.9380 3.9222 3.9082 3.8957 3.8844 3.8741 3.8081 3.7742 3.7536 3.7397 3.7298 3.7223 3.7164 3.7117

df2 7 5.5914 4.7374 4.3468 4.1203 3.9715 3.8659 3.7870 3.7257 3.6766 3.6365 3.6030 3.5746 3.5503 3.5292 3.5107 3.4944 3.4798 3.4668 3.4551 3.4445 3.3758 3.3404 3.3188 3.3043 3.2938 3.2859 3.2798 3.2748

8 5.3176 4.4589 4.0661 3.8378 3.6874 3.5805 3.5004 3.4381 3.3881 3.3471 3.3129 3.2839 3.2590 3.2373 3.2184 3.2016 3.1867 3.1733 3.1612 3.1503 3.0794 3.0427 3.0203 3.0053 2.9944 2.9862 2.9798 2.9746

9 5.1173 4.2564 3.8625 3.6330 3.4816 3.3737 3.2927 3.2295 3.1788 3.1372 3.1024 3.0729 3.0475 3.0254 3.0061 2.9889 2.9736 2.9600 2.9476 2.9364 2.8636 2.8259 2.8028 2.7872 2.7760 2.7675 2.7608 2.7555

10 4.9646 4.1028 3.7082 3.4780 3.3258 3.2171 3.1354 3.0716 3.0203 2.9782 2.9429 2.9129 2.8871 2.8647 2.8450 2.8275 2.8120 2.7980 2.7854 2.7740 2.6995 2.6608 2.6371 2.6210 2.6095 2.6007 2.5939 2.5884

11 4.8443 3.9822 3.5874 3.3566 3.2038 3.0946 3.0123 2.9479 2.8962 2.8536 2.8179 2.7875 2.7614 2.7386 2.7186 2.7009 2.6850 2.6709 2.6580 2.6464 2.5704 2.5309 2.5065 2.4901 2.4782 2.4692 2.4622 2.4565

12 4.7472 3.8852 3.4902 3.2591 3.1058 2.9961 2.9133 2.8485 2.7963 2.7533 2.7173 2.6866 2.6601 2.6371 2.6168 2.5988 2.5828 2.5684 2.5554 2.5435 2.4662 2.4258 2.4010 2.3841 2.3719 2.3627 2.3555 2.3497

13 4.6671 3.8055 3.4105 3.1791 3.0254 2.9152 2.8320 2.7669 2.7143 2.6710 2.6346 2.6036 2.5769 2.5536 2.5331 2.5149 2.4986 2.4840 2.4708 2.4588 2.3803 2.3391 2.3138 2.2965 2.2841 2.2747 2.2673 2.2613

14 4.6001 3.7388 3.3438 3.1122 2.9582 2.8477 2.7641 2.6986 2.6457 2.6021 2.5654 2.5342 2.5072 2.4837 2.4630 2.4446 2.4281 2.4134 2.4000 2.3878 2.3082 2.2663 2.2405 2.2229 2.2102 2.2006 2.1930 2.1869

B. Tabellenanhang

df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100

469

470

Tabelle B.5. (1 − α)-Quantile fdf1 ,df2 ;1−α der F -Verteilung f¨ ur α = 0.05. df1 in den Zeilen, df2 in den Spalten 15 4.5430 3.6823 3.2873 3.0555 2.9012 2.7904 2.7066 2.6407 2.5876 2.5437 2.5068 2.4753 2.4481 2.4243 2.4034 2.3848 2.3682 2.3533 2.3398 2.3275 2.2467 2.2042 2.1779 2.1601 2.1471 2.1373 2.1296 2.1234

16 4.4939 3.6337 3.2388 3.0069 2.8524 2.7413 2.6571 2.5910 2.5376 2.4935 2.4563 2.4246 2.3972 2.3733 2.3522 2.3334 2.3167 2.3016 2.2879 2.2755 2.1938 2.1507 2.1239 2.1058 2.0926 2.0826 2.0747 2.0684

17 4.4513 3.5915 3.1967 2.9647 2.8099 2.6986 2.6142 2.5479 2.4942 2.4499 2.4125 2.3806 2.3530 2.3289 2.3076 2.2887 2.2718 2.2566 2.2428 2.2303 2.1477 2.1039 2.0768 2.0584 2.0450 2.0348 2.0268 2.0204

18 4.4138 3.5545 3.1599 2.9277 2.7728 2.6613 2.5767 2.5101 2.4562 2.4117 2.3741 2.3420 2.3143 2.2900 2.2686 2.2495 2.2325 2.2171 2.2032 2.1906 2.1071 2.0628 2.0353 2.0166 2.0030 1.9926 1.9845 1.9780

19 4.3807 3.5218 3.1273 2.8951 2.7400 2.6283 2.5435 2.4767 2.4226 2.3779 2.3402 2.3079 2.2800 2.2556 2.2340 2.2148 2.1977 2.1822 2.1682 2.1554 2.0711 2.0264 1.9985 1.9795 1.9657 1.9552 1.9469 1.9403

20 4.3512 3.4928 3.0983 2.8660 2.7108 2.5989 2.5140 2.4470 2.3928 2.3478 2.3099 2.2775 2.2495 2.2249 2.2032 2.1839 2.1667 2.1511 2.1370 2.1241 2.0390 1.9938 1.9656 1.9463 1.9323 1.9216 1.9133 1.9065

df2 30 4.1708 3.3158 2.9222 2.6896 2.5335 2.4205 2.3343 2.2661 2.2106 2.1645 2.1255 2.0920 2.0629 2.0374 2.0148 1.9946 1.9764 1.9601 1.9452 1.9316 1.8408 1.7917 1.7608 1.7395 1.7239 1.7120 1.7026 1.6950

40 4.0847 3.2317 2.8387 2.6059 2.4494 2.3358 2.2490 2.1801 2.1240 2.0772 2.0375 2.0034 1.9737 1.9476 1.9244 1.9037 1.8851 1.8682 1.8528 1.8388 1.7444 1.6927 1.6600 1.6372 1.6205 1.6076 1.5974 1.5892

50 4.0343 3.1826 2.7900 2.5571 2.4004 2.2864 2.1992 2.1299 2.0733 2.0261 1.9860 1.9515 1.9214 1.8949 1.8713 1.8503 1.8313 1.8141 1.7984 1.7841 1.6871 1.6336 1.5994 1.5756 1.5580 1.5444 1.5336 1.5249

60 4.0011 3.1504 2.7580 2.5252 2.3682 2.2540 2.1665 2.0969 2.0400 1.9925 1.9522 1.9173 1.8870 1.8602 1.8364 1.8151 1.7958 1.7784 1.7625 1.7479 1.6491 1.5942 1.5590 1.5343 1.5160 1.5018 1.4905 1.4813

70 3.9777 3.1276 2.7355 2.5026 2.3455 2.2311 2.1434 2.0736 2.0166 1.9688 1.9282 1.8932 1.8626 1.8356 1.8116 1.7901 1.7707 1.7531 1.7370 1.7223 1.6220 1.5660 1.5299 1.5045 1.4856 1.4710 1.4593 1.4498

80 3.9603 3.1107 2.7187 2.4858 2.3287 2.2141 2.1263 2.0563 1.9991 1.9512 1.9104 1.8752 1.8445 1.8173 1.7932 1.7715 1.7519 1.7342 1.7180 1.7031 1.6017 1.5448 1.5080 1.4821 1.4627 1.4477 1.4357 1.4258

90 3.9468 3.0976 2.7058 2.4729 2.3156 2.2010 2.1130 2.0429 1.9855 1.9375 1.8966 1.8613 1.8304 1.8032 1.7789 1.7571 1.7374 1.7195 1.7032 1.6882 1.5859 1.5283 1.4909 1.4645 1.4447 1.4294 1.4170 1.4069

100 3.9361 3.0872 2.6955 2.4626 2.3053 2.1906 2.1025 2.0323 1.9748 1.9266 1.8856 1.8502 1.8192 1.7919 1.7675 1.7456 1.7258 1.7079 1.6914 1.6764 1.5733 1.5151 1.4772 1.4503 1.4302 1.4146 1.4020 1.3917

B. Tabellenanhang

df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100

Tabelle B.6. (1 − α/2)-Quantile fdf1 ,df2 ;1−α/2 der F -Verteilung f¨ ur α = 0.05/2. df1 in den Zeilen, df2 in den Spalten 1 647.78 799.50 864.16 899.58 921.84 937.11 948.21 956.65 963.28 968.62 973.02 976.70 979.83 982.52 984.86 986.91 988.73 990.34 991.79 993.10 1001.4 1005.5 1008.1 1009.8 1011.0 1011.9 1012.6 1013.1

2 38.506 39.000 39.165 39.248 39.298 39.331 39.355 39.373 39.386 39.397 39.407 39.414 39.421 39.426 39.431 39.435 39.439 39.442 39.445 39.447 39.464 39.472 39.477 39.481 39.483 39.485 39.486 39.487

3 17.443 16.044 15.439 15.100 14.884 14.734 14.624 14.539 14.473 14.418 14.374 14.336 14.304 14.276 14.252 14.231 14.212 14.195 14.180 14.167 14.080 14.036 14.009 13.992 13.979 13.969 13.962 13.956

4 12.217 10.649 9.9791 9.6045 9.3644 9.1973 9.0741 8.9795 8.9046 8.8438 8.7935 8.7511 8.7149 8.6837 8.6565 8.6325 8.6113 8.5923 8.5753 8.5599 8.4612 8.4111 8.3807 8.3604 8.3458 8.3348 8.3263 8.3194

5 10.006 8.4336 7.7635 7.3878 7.1463 6.9777 6.8530 6.7571 6.6810 6.6191 6.5678 6.5245 6.4875 6.4556 6.4277 6.4031 6.3813 6.3618 6.3443 6.3285 6.2268 6.1750 6.1436 6.1225 6.1073 6.0960 6.0871 6.0799

6 8.8131 7.2598 6.5987 6.2271 5.9875 5.8197 5.6954 5.5996 5.5234 5.4613 5.4097 5.3662 5.3290 5.2968 5.2686 5.2438 5.2218 5.2021 5.1844 5.1684 5.0652 5.0124 4.9804 4.9588 4.9434 4.9317 4.9226 4.9154

df2 7 8.0726 6.5415 5.8898 5.5225 5.2852 5.1185 4.9949 4.8993 4.8232 4.7611 4.7094 4.6658 4.6284 4.5960 4.5677 4.5428 4.5206 4.5007 4.4829 4.4667 4.3623 4.3088 4.2763 4.2543 4.2386 4.2267 4.2175 4.2100

8 7.5708 6.0594 5.4159 5.0526 4.8172 4.6516 4.5285 4.4332 4.3572 4.2951 4.2434 4.1996 4.1621 4.1296 4.1012 4.0760 4.0537 4.0337 4.0157 3.9994 3.8940 3.8397 3.8067 3.7844 3.7684 3.7563 3.7469 3.7393

9 7.2092 5.7147 5.0781 4.7180 4.4844 4.3197 4.1970 4.1019 4.0259 3.9638 3.9120 3.8682 3.8305 3.7979 3.7693 3.7440 3.7216 3.7014 3.6833 3.6669 3.5604 3.5054 3.4719 3.4493 3.4330 3.4207 3.4111 3.4034

10 6.9367 5.4563 4.8256 4.4683 4.2360 4.0721 3.9498 3.8548 3.7789 3.7167 3.6649 3.6209 3.5831 3.5504 3.5216 3.4962 3.4736 3.4533 3.4351 3.4185 3.3110 3.2553 3.2213 3.1984 3.1818 3.1693 3.1595 3.1517

11 6.7241 5.2558 4.6300 4.2750 4.0439 3.8806 3.7586 3.6638 3.5878 3.5256 3.4736 3.4296 3.3917 3.3588 3.3299 3.3043 3.2816 3.2612 3.2428 3.2261 3.1176 3.0613 3.0268 3.0035 2.9867 2.9740 2.9640 2.9561

12 6.5537 5.0958 4.4741 4.1212 3.8911 3.7282 3.6065 3.5117 3.4358 3.3735 3.3214 3.2772 3.2392 3.2062 3.1772 3.1515 3.1286 3.1081 3.0895 3.0727 2.9632 2.9063 2.8714 2.8477 2.8307 2.8178 2.8077 2.7996

13 6.4142 4.9652 4.3471 3.9958 3.7666 3.6042 3.4826 3.3879 3.3120 3.2496 3.1974 3.1531 3.1150 3.0818 3.0527 3.0269 3.0038 2.9832 2.9645 2.9476 2.8372 2.7796 2.7443 2.7203 2.7030 2.6899 2.6797 2.6714

14 6.2979 4.8566 4.2417 3.8919 3.6634 3.5013 3.3799 3.2852 3.2093 3.1468 3.0945 3.0501 3.0118 2.9785 2.9493 2.9233 2.9002 2.8794 2.8607 2.8436 2.7323 2.6742 2.6384 2.6141 2.5966 2.5833 2.5729 2.5645

B. Tabellenanhang

df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100

471

472

Tabelle B.6. (1 − α/2)-Quantile fdf1 ,df2 ;1−α/2 der F -Verteilung f¨ ur α = 0.05/2. df1 in den Zeilen, df2 in den Spalten 15 6.1995 4.7650 4.1528 3.8042 3.5764 3.4146 3.2933 3.1987 3.1227 3.0601 3.0078 2.9632 2.9249 2.8914 2.8620 2.8360 2.8127 2.7919 2.7730 2.7559 2.6437 2.5850 2.5487 2.5242 2.5064 2.4929 2.4824 2.4739

16 6.1151 4.6866 4.0768 3.7294 3.5021 3.3406 3.2194 3.1248 3.0487 2.9861 2.9336 2.8890 2.8505 2.8170 2.7875 2.7613 2.7379 2.7170 2.6980 2.6807 2.5678 2.5085 2.4719 2.4470 2.4290 2.4154 2.4047 2.3961

17 6.0420 4.6188 4.0111 3.6647 3.4379 3.2766 3.1555 3.0609 2.9848 2.9221 2.8696 2.8248 2.7862 2.7526 2.7230 2.6967 2.6733 2.6522 2.6331 2.6157 2.5020 2.4422 2.4052 2.3801 2.3618 2.3480 2.3372 2.3285

18 5.9780 4.5596 3.9538 3.6083 3.3819 3.2209 3.0998 3.0052 2.9291 2.8663 2.8137 2.7688 2.7301 2.6964 2.6667 2.6403 2.6167 2.5955 2.5764 2.5590 2.4445 2.3841 2.3468 2.3214 2.3029 2.2890 2.2780 2.2692

19 5.9216 4.5075 3.9034 3.5587 3.3327 3.1718 3.0508 2.9562 2.8800 2.8172 2.7645 2.7195 2.6807 2.6469 2.6171 2.5906 2.5669 2.5457 2.5264 2.5089 2.3937 2.3329 2.2952 2.2695 2.2509 2.2367 2.2256 2.2167

20 5.8714 4.4612 3.8586 3.5146 3.2890 3.1283 3.0074 2.9127 2.8365 2.7736 2.7208 2.6758 2.6369 2.6029 2.5730 2.5465 2.5227 2.5014 2.4820 2.4644 2.3486 2.2873 2.2492 2.2233 2.2045 2.1902 2.1789 2.1699

df2 30 5.5675 4.1820 3.5893 3.2499 3.0264 2.8666 2.7460 2.6512 2.5746 2.5111 2.4577 2.4120 2.3724 2.3377 2.3071 2.2798 2.2554 2.2333 2.2133 2.1951 2.0739 2.0088 1.9680 1.9400 1.9195 1.9038 1.8915 1.8815

40 5.4239 4.0509 3.4632 3.1261 2.9037 2.7443 2.6237 2.5288 2.4519 2.3881 2.3343 2.2881 2.2481 2.2129 2.1819 2.1541 2.1292 2.1067 2.0863 2.0677 1.9429 1.8751 1.8323 1.8027 1.7810 1.7643 1.7511 1.7405

50 5.3403 3.9749 3.3901 3.0544 2.8326 2.6735 2.5529 2.4579 2.3808 2.3167 2.2626 2.2162 2.1758 2.1404 2.1090 2.0809 2.0557 2.0329 2.0122 1.9932 1.8659 1.7962 1.7519 1.7211 1.6984 1.6809 1.6671 1.6558

60 5.2856 3.9252 3.3425 3.0076 2.7863 2.6273 2.5067 2.4116 2.3344 2.2701 2.2158 2.1691 2.1286 2.0929 2.0613 2.0330 2.0076 1.9845 1.9636 1.9444 1.8152 1.7440 1.6985 1.6667 1.6432 1.6251 1.6107 1.5990

70 5.2470 3.8902 3.3089 2.9747 2.7537 2.5948 2.4742 2.3791 2.3017 2.2373 2.1828 2.1360 2.0953 2.0594 2.0276 1.9992 1.9736 1.9504 1.9292 1.9099 1.7792 1.7068 1.6604 1.6279 1.6037 1.5851 1.5702 1.5581

80 5.2183 3.8643 3.2840 2.9503 2.7295 2.5707 2.4501 2.3549 2.2774 2.2130 2.1584 2.1114 2.0705 2.0345 2.0026 1.9740 1.9483 1.9249 1.9037 1.8842 1.7523 1.6790 1.6318 1.5986 1.5739 1.5548 1.5396 1.5271

90 5.1962 3.8442 3.2648 2.9315 2.7108 2.5521 2.4315 2.3362 2.2587 2.1942 2.1395 2.0924 2.0514 2.0153 1.9833 1.9546 1.9287 1.9053 1.8839 1.8643 1.7314 1.6574 1.6095 1.5758 1.5507 1.5312 1.5156 1.5028

100 5.1785 3.8283 3.2496 2.9165 2.6960 2.5374 2.4168 2.3214 2.2438 2.1792 2.1244 2.0773 2.0362 2.0000 1.9679 1.9391 1.9132 1.8896 1.8682 1.8485 1.7148 1.6401 1.5916 1.5575 1.5320 1.5121 1.4962 1.4832

B. Tabellenanhang

df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100

Tabelle B.7. (1 − α)-Quantile fdf1 ,df2 ;1−α der F -Verteilung f¨ ur α = 0.01. df1 in den Zeilen, df2 in den Spalten 1 4052.1 4999.5 5403.3 5624.5 5763.6 5858.9 5928.3 5981.0 6022.4 6055.8 6083.3 6106.3 6125.8 6142.6 6157.3 6170.1 6181.4 6191.5 6200.5 6208.7 6260.6 6286.7 6302.5 6313.0 6320.5 6326.1 6330.5 6334.1

2 98.502 99.000 99.166 99.249 99.299 99.332 99.356 99.374 99.388 99.399 99.408 99.415 99.422 99.427 99.432 99.436 99.440 99.443 99.446 99.449 99.465 99.474 99.479 99.482 99.484 99.486 99.488 99.489

3 34.116 30.816 29.456 28.709 28.237 27.910 27.671 27.489 27.345 27.228 27.132 27.051 26.983 26.923 26.872 26.826 26.786 26.750 26.718 26.689 26.504 26.410 26.354 26.316 26.289 26.268 26.252 26.240

4 21.197 18.000 16.694 15.977 15.521 15.206 14.975 14.798 14.659 14.545 14.452 14.373 14.306 14.248 14.198 14.153 14.114 14.079 14.048 14.019 13.837 13.745 13.689 13.652 13.625 13.605 13.589 13.576

5 16.258 13.273 12.059 11.391 10.967 10.672 10.455 10.289 10.157 10.051 9.9626 9.8882 9.8248 9.7700 9.7222 9.6801 9.6428 9.6095 9.5796 9.5526 9.3793 9.2911 9.2378 9.2020 9.1763 9.1570 9.1419 9.1299

6 13.745 10.924 9.7795 9.1483 8.7458 8.4661 8.2599 8.1016 7.9761 7.8741 7.7895 7.7183 7.6574 7.6048 7.5589 7.5185 7.4827 7.4506 7.4218 7.3958 7.2285 7.1432 7.0914 7.0567 7.0318 7.0130 6.9984 6.9866

df2 7 12.246 9.5465 8.4512 7.8466 7.4604 7.1914 6.9928 6.8400 6.7187 6.6200 6.5381 6.4690 6.4100 6.3589 6.3143 6.2750 6.2400 6.2088 6.1808 6.1554 5.9920 5.9084 5.8576 5.8235 5.7990 5.7806 5.7662 5.7546

8 11.258 8.6491 7.5909 7.0060 6.6318 6.3706 6.1776 6.0288 5.9106 5.8142 5.7342 5.6667 5.6089 5.5588 5.5151 5.4765 5.4422 5.4116 5.3840 5.3590 5.1981 5.1156 5.0653 5.0316 5.0073 4.9890 4.9747 4.9632

9 10.561 8.0215 6.9919 6.4220 6.0569 5.8017 5.6128 5.4671 5.3511 5.2565 5.1778 5.1114 5.0545 5.0052 4.9620 4.9240 4.8901 4.8599 4.8326 4.8079 4.6485 4.5666 4.5167 4.4830 4.4588 4.4406 4.4264 4.4149

10 10.044 7.5594 6.5523 5.9943 5.6363 5.3858 5.2001 5.0566 4.9424 4.8491 4.7715 4.7058 4.6496 4.6008 4.5581 4.5204 4.4869 4.4569 4.4298 4.4053 4.2469 4.1652 4.1154 4.0818 4.0576 4.0394 4.0251 4.0137

11 9.6460 7.2057 6.2167 5.6683 5.3160 5.0692 4.8860 4.7444 4.6315 4.5392 4.4624 4.3974 4.3416 4.2932 4.2508 4.2134 4.1801 4.1502 4.1233 4.0990 3.9411 3.8595 3.8097 3.7760 3.7518 3.7335 3.7192 3.7077

12 9.3302 6.9266 5.9525 5.4119 5.0643 4.8205 4.6395 4.4993 4.3875 4.2960 4.2198 4.1552 4.0998 4.0517 4.0096 3.9723 3.9392 3.9094 3.8827 3.8584 3.7007 3.6191 3.5692 3.5354 3.5111 3.4927 3.4783 3.4668

13 9.0738 6.7009 5.7393 5.2053 4.8616 4.6203 4.4409 4.3020 4.1910 4.1002 4.0245 3.9603 3.9052 3.8573 3.8153 3.7782 3.7451 3.7155 3.6888 3.6646 3.5070 3.4252 3.3751 3.3412 3.3168 3.2983 3.2839 3.2722

14 8.8615 6.5148 5.5638 5.0353 4.6949 4.4558 4.2778 4.1399 4.0296 3.9393 3.8640 3.8001 3.7452 3.6975 3.6556 3.6186 3.5856 3.5561 3.5294 3.5052 3.3475 3.2656 3.2153 3.1812 3.1566 3.1380 3.1235 3.1118

B. Tabellenanhang

df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100

473

474

Tabelle B.7. (1 − α)-Quantile fdf1 ,df2 ;1−α der F -Verteilung f¨ ur α = 0.01. df1 in den Zeilen, df2 in den Spalten 15 8.6831 6.3588 5.4169 4.8932 4.5556 4.3182 4.1415 4.0044 3.8947 3.8049 3.7299 3.6662 3.6115 3.5639 3.5221 3.4852 3.4523 3.4227 3.3960 3.3718 3.2141 3.1319 3.0813 3.0471 3.0223 3.0036 2.9890 2.9772

16 8.5309 6.2262 5.2922 4.7725 4.4374 4.2016 4.0259 3.8895 3.7804 3.6909 3.6161 3.5526 3.4980 3.4506 3.4089 3.3720 3.3391 3.3095 3.2829 3.2587 3.1007 3.0182 2.9674 2.9330 2.9081 2.8893 2.8745 2.8626

17 8.3997 6.1121 5.1849 4.6689 4.3359 4.1015 3.9267 3.7909 3.6822 3.5930 3.5185 3.4551 3.4007 3.3533 3.3116 3.2748 3.2419 3.2123 3.1857 3.1615 3.0032 2.9204 2.8694 2.8348 2.8097 2.7907 2.7759 2.7639

18 8.2854 6.0129 5.0918 4.5790 4.2478 4.0146 3.8406 3.7054 3.5970 3.5081 3.4337 3.3706 3.3162 3.2688 3.2272 3.1904 3.1575 3.1280 3.1013 3.0770 2.9185 2.8354 2.7841 2.7493 2.7240 2.7049 2.6899 2.6779

19 8.1849 5.9258 5.0102 4.5002 4.1707 3.9385 3.7652 3.6305 3.5225 3.4338 3.3596 3.2965 3.2422 3.1949 3.1533 3.1164 3.0836 3.0540 3.0273 3.0031 2.8442 2.7607 2.7092 2.6742 2.6488 2.6295 2.6144 2.6023

20 8.0959 5.8489 4.9381 4.4306 4.1026 3.8714 3.6987 3.5644 3.4566 3.3681 3.2941 3.2311 3.1768 3.1295 3.0880 3.0511 3.0182 2.9887 2.9620 2.9377 2.7784 2.6947 2.6429 2.6077 2.5821 2.5627 2.5475 2.5353

df2 30 7.5624 5.3903 4.5097 4.0178 3.6990 3.4734 3.3044 3.1726 3.0665 2.9790 2.9056 2.8430 2.7890 2.7418 2.7001 2.6631 2.6300 2.6002 2.5732 2.5486 2.3859 2.2992 2.2450 2.2078 2.1807 2.1601 2.1438 2.1307

40 7.3140 5.1785 4.3125 3.8282 3.5138 3.2910 3.1237 2.9929 2.8875 2.8005 2.7273 2.6648 2.6107 2.5634 2.5216 2.4844 2.4510 2.4210 2.3937 2.3688 2.2033 2.1142 2.0581 2.0194 1.9910 1.9693 1.9522 1.9383

50 7.1705 5.0566 4.1993 3.7195 3.4076 3.1864 3.0201 2.8900 2.7849 2.6981 2.6250 2.5624 2.5083 2.4608 2.4189 2.3816 2.3480 2.3178 2.2903 2.2652 2.0975 2.0065 1.9489 1.9090 1.8796 1.8571 1.8392 1.8247

60 7.0771 4.9774 4.1258 3.6490 3.3388 3.1186 2.9530 2.8232 2.7184 2.6317 2.5586 2.4961 2.4418 2.3943 2.3522 2.3147 2.2811 2.2506 2.2230 2.1978 2.0284 1.9360 1.8771 1.8362 1.8060 1.7828 1.7643 1.7493

70 7.0113 4.9218 4.0743 3.5996 3.2906 3.0712 2.9060 2.7765 2.6718 2.5852 2.5121 2.4495 2.3952 2.3476 2.3055 2.2679 2.2341 2.2035 2.1757 2.1504 1.9797 1.8861 1.8263 1.7845 1.7536 1.7298 1.7108 1.6953

80 6.9626 4.8807 4.0362 3.5631 3.2550 3.0361 2.8712 2.7419 2.6373 2.5508 2.4777 2.4151 2.3607 2.3131 2.2708 2.2331 2.1992 2.1686 2.1407 2.1152 1.9435 1.8489 1.7883 1.7458 1.7144 1.6900 1.6706 1.6548

90 6.9251 4.8490 4.0069 3.5349 3.2276 3.0091 2.8445 2.7153 2.6108 2.5243 2.4512 2.3886 2.3342 2.2864 2.2441 2.2064 2.1724 2.1417 2.1137 2.0881 1.9155 1.8201 1.7588 1.7158 1.6838 1.6590 1.6393 1.6231

100 6.8953 4.8239 3.9836 3.5126 3.2058 2.9876 2.8232 2.6942 2.5898 2.5033 2.4302 2.3675 2.3131 2.2653 2.2230 2.1851 2.1511 2.1203 2.0922 2.0666 1.8932 1.7971 1.7352 1.6917 1.6593 1.6342 1.6141 1.5976

B. Tabellenanhang

df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100

Tabelle B.8. (1 − α/2)-Quantile fdf1 ,df2 ;1−α der F -Verteilung f¨ ur α = 0.01/2. df1 in den Zeilen, df2 in den Spalten 1 16210 19999 21614 22499 23055 23437 23714 23925 24091 24224 24334 24426 24504 24571 24630 24681 24726 24767 24803 24835 25043 25148 25211 25255 25285 25307 25324 25338

2 198.50 199.00 199.16 199.24 199.29 199.33 199.35 199.37 199.38 199.39 199.40 199.41 199.42 199.42 199.43 199.43 199.44 199.44 199.44 199.44 199.46 199.47 199.47 199.48 199.48 199.48 199.48 199.48

3 55.551 49.799 47.467 46.194 45.391 44.838 44.434 44.125 43.882 43.685 43.523 43.387 43.271 43.171 43.084 43.008 42.940 42.880 42.826 42.777 42.465 42.308 42.213 42.149 42.103 42.069 42.042 42.021

4 31.332 26.284 24.259 23.154 22.456 21.974 21.621 21.351 21.139 20.966 20.824 20.704 20.602 20.514 20.438 20.370 20.311 20.258 20.210 20.167 19.891 19.751 19.667 19.610 19.570 19.539 19.515 19.496

5 22.784 18.313 16.529 15.556 14.939 14.513 14.200 13.960 13.771 13.618 13.491 13.384 13.293 13.214 13.146 13.086 13.032 12.984 12.942 12.903 12.655 12.529 12.453 12.402 12.365 12.338 12.316 12.299

6 18.634 14.544 12.916 12.027 11.463 11.073 10.785 10.565 10.391 10.250 10.132 10.034 9.9501 9.8774 9.8139 9.7581 9.7086 9.6644 9.6246 9.5887 9.3582 9.2408 9.1696 9.1219 9.0876 9.0619 9.0418 9.0256

df2 7 16.235 12.403 10.882 10.050 9.5220 9.1553 8.8853 8.6781 8.5138 8.3803 8.2696 8.1764 8.0967 8.0278 7.9677 7.9148 7.8678 7.8258 7.7880 7.7539 7.5344 7.4224 7.3544 7.3087 7.2759 7.2512 7.2319 7.2165

8 14.688 11.042 9.5964 8.8051 8.3017 7.9519 7.6941 7.4959 7.3385 7.2106 7.1044 7.0149 6.9383 6.8721 6.8142 6.7632 6.7180 6.6775 6.6411 6.6082 6.3960 6.2875 6.2215 6.1771 6.1453 6.1212 6.1025 6.0875

9 13.613 10.106 8.7170 7.9558 7.4711 7.1338 6.8849 6.6933 6.5410 6.4171 6.3142 6.2273 6.1530 6.0887 6.0324 5.9828 5.9388 5.8993 5.8639 5.8318 5.6247 5.5185 5.4539 5.4104 5.3791 5.3555 5.3371 5.3223

10 12.826 9.4269 8.0807 7.3428 6.8723 6.5446 6.3024 6.1159 5.9675 5.8466 5.7462 5.6613 5.5886 5.5257 5.4706 5.4220 5.3789 5.3402 5.3054 5.2740 5.0705 4.9659 4.9021 4.8591 4.8282 4.8049 4.7867 4.7721

11 12.226 8.9122 7.6004 6.8808 6.4217 6.1015 5.8647 5.6821 5.5367 5.4182 5.3196 5.2363 5.1649 5.1030 5.0488 5.0010 4.9585 4.9205 4.8862 4.8552 4.6543 4.5508 4.4876 4.4450 4.4143 4.3911 4.3730 4.3585

12 11.754 8.5096 7.2257 6.5211 6.0711 5.7570 5.5245 5.3450 5.2021 5.0854 4.9883 4.9062 4.8358 4.7747 4.7213 4.6741 4.6321 4.5945 4.5606 4.5299 4.3309 4.2281 4.1653 4.1229 4.0923 4.0692 4.0512 4.0367

13 11.373 8.1864 6.9257 6.2334 5.7909 5.4819 5.2529 5.0760 4.9350 4.8199 4.7240 4.6428 4.5732 4.5128 4.4599 4.4132 4.3716 4.3343 4.3007 4.2703 4.0727 3.9704 3.9078 3.8655 3.8350 3.8120 3.7939 3.7795

14 11.060 7.9216 6.6803 5.9984 5.5622 5.2573 5.0313 4.8566 4.7172 4.6033 4.5084 4.4281 4.3591 4.2992 4.2468 4.2004 4.1591 4.1221 4.0887 4.0585 3.8619 3.7599 3.6975 3.6552 3.6247 3.6017 3.5836 3.5692

B. Tabellenanhang

df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100

475

476

Tabelle B.8. (1 − α/2)-Quantile fdf1 ,df2 ;1−α der F -Verteilung f¨ ur α = 0.01/2. df1 in den Zeilen, df2 in den Spalten 15 10.798 7.7007 6.4760 5.8029 5.3721 5.0708 4.8472 4.6743 4.5363 4.4235 4.3294 4.2497 4.1813 4.1218 4.0697 4.0237 3.9826 3.9458 3.9126 3.8825 3.6867 3.5849 3.5225 3.4802 3.4497 3.4266 3.4086 3.3940

16 10.575 7.5138 6.3033 5.6378 5.2117 4.9134 4.6920 4.5206 4.3838 4.2718 4.1785 4.0993 4.0313 3.9722 3.9204 3.8746 3.8338 3.7971 3.7641 3.7341 3.5388 3.4372 3.3747 3.3324 3.3018 3.2787 3.2605 3.2460

17 10.384 7.3536 6.1556 5.4966 5.0745 4.7789 4.5593 4.3893 4.2535 4.1423 4.0495 3.9708 3.9032 3.8444 3.7929 3.7472 3.7066 3.6701 3.6371 3.6073 3.4124 3.3107 3.2482 3.2058 3.1751 3.1519 3.1337 3.1191

18 10.218 7.2148 6.0277 5.3746 4.9560 4.6627 4.4447 4.2759 4.1409 4.0304 3.9381 3.8598 3.7925 3.7340 3.6827 3.6372 3.5967 3.5603 3.5274 3.4976 3.3030 3.2013 3.1387 3.0962 3.0654 3.0421 3.0239 3.0092

19 10.072 7.0934 5.9160 5.2680 4.8526 4.5613 4.3448 4.1770 4.0428 3.9328 3.8410 3.7630 3.6960 3.6377 3.5865 3.5412 3.5008 3.4645 3.4317 3.4020 3.2075 3.1057 3.0430 3.0003 2.9695 2.9461 2.9278 2.9130

20 9.9439 6.9864 5.8177 5.1742 4.7615 4.4721 4.2568 4.0899 3.9564 3.8470 3.7555 3.6779 3.6111 3.5530 3.5019 3.4567 3.4164 3.3801 3.3474 3.3177 3.1234 3.0215 2.9586 2.9158 2.8849 2.8614 2.8430 2.8282

df2 30 9.1796 6.3546 5.2387 4.6233 4.2275 3.9492 3.7415 3.5800 3.4504 3.3439 3.2547 3.1787 3.1132 3.0560 3.0057 2.9610 2.9211 2.8851 2.8526 2.8230 2.6277 2.5240 2.4594 2.4151 2.3829 2.3583 2.3390 2.3234

40 8.8278 6.0664 4.9758 4.3737 3.9860 3.7129 3.5088 3.3497 3.2219 3.1167 3.0284 2.9531 2.8880 2.8312 2.7810 2.7365 2.6966 2.6606 2.6280 2.5984 2.4014 2.2958 2.2295 2.1838 2.1504 2.1248 2.1047 2.0884

50 8.6257 5.9016 4.8258 4.2316 3.8486 3.5785 3.3764 3.2188 3.0920 2.9875 2.8996 2.8247 2.7598 2.7031 2.6531 2.6085 2.5686 2.5326 2.4999 2.4701 2.2716 2.1644 2.0967 2.0498 2.0154 1.9890 1.9681 1.9512

60 8.4946 5.7949 4.7289 4.1398 3.7599 3.4918 3.2911 3.1344 3.0082 2.9041 2.8166 2.7418 2.6771 2.6204 2.5704 2.5258 2.4859 2.4498 2.4170 2.3872 2.1874 2.0788 2.0099 1.9621 1.9269 1.8998 1.8783 1.8608

70 8.4026 5.7203 4.6612 4.0758 3.6980 3.4313 3.2315 3.0755 2.9497 2.8459 2.7586 2.6839 2.6193 2.5627 2.5126 2.4681 2.4280 2.3919 2.3591 2.3291 2.1282 2.0186 1.9488 1.9001 1.8642 1.8365 1.8145 1.7965

80 8.3346 5.6652 4.6112 4.0285 3.6523 3.3866 3.1875 3.0320 2.9066 2.8030 2.7158 2.6412 2.5766 2.5200 2.4700 2.4254 2.3853 2.3491 2.3162 2.2862 2.0844 1.9739 1.9033 1.8539 1.8174 1.7892 1.7667 1.7484

90 8.2822 5.6228 4.5728 3.9921 3.6172 3.3523 3.1538 2.9986 2.8734 2.7700 2.6829 2.6084 2.5439 2.4873 2.4372 2.3926 2.3525 2.3162 2.2833 2.2532 2.0507 1.9394 1.8680 1.8181 1.7811 1.7524 1.7296 1.7109

100 8.2406 5.5892 4.5423 3.9633 3.5894 3.3252 3.1271 2.9721 2.8472 2.7439 2.6569 2.5825 2.5179 2.4613 2.4112 2.3666 2.3264 2.2901 2.2571 2.2270 2.0238 1.9119 1.8400 1.7896 1.7521 1.7230 1.6998 1.6808

B. Tabellenanhang

df1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 30 40 50 60 70 80 90 100

Literatur

Agresti, A. (1990). Categorical Data Analysis, Wiley, New York. Bauer, H. (1991). Wahrscheinlichkeitstheorie, de Gruyter. Blossfeld, H.-P., Hamerle, A. und Mayer, K. U. (1986). Ereignisanalyse, Campus. B¨ uning, H. und Trenkler, G. (1994). Nichtparametrische statistische Methoden, de Gruyter. Cox, D. R. (1972). Regression models and life-tables (with discussion), Journal of the Royal Statistical Society, Series B 34: 187–202. Dalgaard, P. (2002). Introductory Statistics with R, Springer, Berlin. Draper, N. R. und Smith, H. (1966). Applied Regression Analysis, Wiley. Fahrmeir, L., K¨ unstler, R., Pigeot, I. und Tutz, G. (2003). Der Weg zur Datenanalyse, Springer–Verlag. Fisz, M. (1970). Wahrscheinlichkeitsrechnung und Mathematische Statistik, Akademie-Verlag. Glasser, M. (1967). Exponential survival with covariance, Journal of the American Statistical Association 62: 561–568. Gosset, W. S. (1908). The probable error of a mean, Biometrika 6: 1–25. Harris, E. K. und Albert, A. (1991). Survivorship Analysis for Clinical Studies, Dekker. Hollander, M. und Wolfe, D. A. (1973). Nonparametric Statistical Methods, Wiley. Kaplan, E. L. und Meier, P. (1958). Nonparametric estimation from incomplete observations, Journal of the American Statistical Association 53: 457–481. Kreyszig, E. (1979). Statistische Methoden und ihre Anwendungen, Vandenhoeck & Rupprecht. Kruskal, W. H. und Wallis, W. A. (1952). Use of ranks in one-criterion variance analysis, Journal of the American Statistical Association 47: 583–621. Lawless, J. F. (1982). Statistical Models and Methods for Lifetime Data, Wiley, New York. Ligges, U. (2007). Programmieren mit R, Springer, Berlin. Lilliefors, H. W. (1967). On Kolmogorov-Smirnov test for normality with mean and variance unknown, Journal of the American Statistical Association 62: 399–402. Lilliefors, H. W. (1969). On Kolmogorov-Smirnov test for exponential distribution with mean unknown, Journal of the American Statistical Association 64: 387– 389. Menges, G. (1968). Grundriß der Statistik Teil 1: Theorie, Westdeutscher Verlag. Miethke, R. R. (1973). Zahnbreiten und Zahnbreitenkorrelation, Deutsche Zahn¨ arztliche Zeitschrift 28: 1078–1084. Montgomery, D. C. (1976). Design and Analysis of Experiments, Wiley. M¨ uller, P. H. (ed.) (1983). Lexikon der Stochastik, Akademie-Verlag. Petersen, R. G. (1985). Design and Analysis of Experiments, Dekker. Pruscha, H. (1996). Angewandte Methoden der Mathematischen Statistik, Teubner.

478

Literatur

R Development Core Team (2007). R: A Language and Environment for Statistical Computing, R Foundation for Statistical Computing, Vienna, Austria. ISBN 3-900051-07-0. *http://www.R-project.org Rao, C. R. (1995). Was ist Zufall? Statistik und Wahrheit, Prentice Hall. Rao, C. R., Toutenburg, H., Shalabh und Heumann, C. (2008). Linear Models and Generalizations: Least Squares and Alternatives, 3rd Edition, Springer–Verlag. R¨ uger, B. (1988). Induktive Statistik: Einf¨ uhrung f¨ ur Wirtschafts- und Sozialwissenschaftler, Oldenbourg. R¨ uger, B. (1996). Induktive Statistik: Einf¨ uhrung f¨ ur Wirtschafts- und Sozialwissenschaftler, Oldenbourg. R¨ uger, B. (1999). Test- und Sch¨ atztheorie. Band I: Grundlagen, Oldenbourg. R¨ uger, B. (2002). Test- und Sch¨ atztheorie. Band II: Statistische Tests, Oldenbourg. Sachs, L. (1978). Angewandte Statistik, Springer–Verlag. Schlittgen, R. (1993). Einf¨ uhrung in die Statistik: Analyse und Modellierung von Daten, Oldenbourg. Stigler, S. M. (1986). The history of statistics: The measurement of uncertainty before 1900, Harvard University Press. Toutenburg, H. (1992a). Lineare Modelle, Physica. Toutenburg, H. (1992b). Moderne nichtparametrische Verfahren der Risikoanalyse, Physica, Heidelberg. Toutenburg, H. (1994). Versuchsplanung und Modellwahl, Physica. Toutenburg, H. (1995). Experimental Design and Model Choice, Physica. Toutenburg, H. (2002a). Lineare Modelle, Physica. Toutenburg, H. (2002b). Statistical Analysis of Designed Experiments, Springer– Verlag. Toutenburg, H. und Heumann, C. (2006). Deskriptive Statistik. Eine Einf¨ uhrung in Methoden und Anwendungen mit SPSS, Springer, Berlin. Toutenburg, H., Schomaker, M. und Wissmann, M. (2006). Arbeitsbuch zur deskriptiven und induktiven Statistik, Springer, Berlin. Venables, W. N. und Ripley, B. D. (2002). Modern Applied Statistics with S, Springer, Berlin. Vogel, F. (1995). Beschreibende und schließende Statistik, Oldenbourg. Weisberg, S. (1980). Applied Linear Regression, Wiley. Wilks, S. S. (1938). The large-sample distribution of the likelihood ratio for testing composite hypotheses, Annals of Mathematical Statistics 9: 60–62.

Sachverzeichnis

χ2 – Test f¨ ur die Varianz, 135 – Verteilung, 89 χ2 -Unabh¨ angigkeitstest, 270 Ad-hoc-Kriterium, 211 Additionssatz – f¨ ur χ2 -Verteilungen, 89 – f¨ ur beliebige Ereignisse, 18 – f¨ ur Binomialverteilungen, 73 – f¨ ur disjunkte Ereignisse, 17 – f¨ ur Normalverteilungen, 84 – f¨ ur Poissonverteilungen, 78 Annahmebereich, 126 Anpassung, perfekte, 280 Anpassungstests, 163 Ausgabefenster, 329 Auswahl von Elementen – geordnet, 2 – ungeordnet, 2 Baseline–Hazardrate, 299, 301 Baumdiagramm, 24 Bestimmtheitsmaß, 210 – adjustiertes, 212, 216 Bias, 109 Bindungen, 174, 182, 183 Binomialkoeffizient, 5 Binomialtest f¨ ur p, 147 Binomialverteilung, 72 Bonferroni, 242 Chi-Quadrat-Anpassungstest, 164 Cox–Modell, 299, 300 Data Mining, 351 Datenansicht, 328 Datenfenster, 328 DeMorgan, 15 Dichtefunktion, 40 Dispersion, 48 Dummykodierung, 221

Effektkodierung, 222 Effizienz, 110 Einpunktverteilung, 68 Einstichprobenproblem, 129 Elementarereignis, 12 Ereignisraum, 12 Ereignisse – Additionssatz, 17, 18 – disjunkte, 14 – elementare, 12 – komplement¨ are, 12 – Multiplikationssatz, 20 – paarweise disjunkte, 19 – sichere, 12 – unm¨ ogliche, 12 – zuf¨ allige, 12 – zusammengesetzte, 13 Erwartungstreue, 108 – asymptotisch, 110 Erwartungswert, 46 Exakter Test von Fisher, 151 – f¨ ur 2 × 2-Tafeln, 271 Experiment – Laplacesches, 16 – zuf¨ alliges, 11 Exponentialverteilung, 302 Extremwertverteilung, 304 F -Change, 212 F -Test, 137 F -Verteilung, 91 Fakult¨ at, 3 Fehlende Daten, 309 – bin¨ ares Merkmal, 312 – einzelnes Merkmal, 312 – Fehlendmuster, 320 – missing at random, 318 – missing completely at random, 316 – Normalverteilung, 319 – not missing at random, 318 – zwei Merkmale, 319

480

Sachverzeichnis

Fehlendmechanismus, 312 Fehler . Art, 127 . Art, 127 Fehlerquadratsumme, 236 Fisher’s exakter Test, 151 – f¨ ur 2 × 2-Tafeln, 271 Fragestellung – einseitige, 128 – zweiseitige, 128 G¨ utefunktion, 127 Gauss-Markov-Sch¨ atzung, 197 Gauss-Markov-Theorem, 197 Gauss-Test – doppelter, 141 – einfacher, 129 Geometrische Verteilung, 75 Gesetz – der großen Zahlen, 332 Gesetz der großen Zahlen, 96 Gleichverteilung – diskrete, 67 – stetige, 80 Grundraum, 12 H¨ aufigkeit – absolute, 15 – relative, 11, 15 Hazardrate, 289 Homogenit¨ atstest, 169, 177 Hypothese, 126 Hypothesenraum, 125 Informationsverlust, 310 Intervallsch¨ atzung, 107 Kaplan-Meier-Sch¨ atzung, 290 Kolmogorov, 17 Kolmogorov-Smirnov – Anpassungstest, 166 – Zweistichprobentest, 170 Kombinationen, 5 – mit Reihenfolge, 7, 8 – mit Wiederholung, 8 – ohne Reihenfolge, 5, 8 – ohne Wiederholung, 5, 7 Kombinatorik, 1 – Regeln, 9 Komplement¨ arereignis, 12 Konfidenzellipsoid, 209 Konfidenzgrenze, 115 Konfidenzintervalle, 207 Konfidenzmethode, 115

Konfidenzniveau, 115 Konfidenzsch¨ atzung, 107, 116 – f¨ ur μ, 116, 117 – f¨ ur σ 2 , 118 Konsistenz, 110 Kontingenztafel, 263 Kontinuum, 77 Konvergenz – nach Wahrscheinlichkeit, 95 – stochastische, 95 Korrelationskoeffizient, 61, 146 Kovarianz, 59 – Eigenschaften, 60 Kovarianzmatrix, 59 KQ-Sch¨ atzung – bedingte, 213, 253 Kriterien zur Modellwahl, 211 kritischer Bereich, 126 Kruskal-Wallis-Test, 244 kσ-Bereiche, 53 kσ-Regel f¨ ur die Normalverteilung, 86 Laplace-Experiment, 16 Laplace-Wahrscheinlichkeit, 16 Lebensdaueranalyse, 287 Likelihood, 111 Likelihood-Quotient, 202 Lineare Regression, 191 – induktive, 192 – Restriktionen, 201 Log-Rank-Test, 294 Logit, 280 Loglikelihoodfunktion, 111 Loglineares Modell, 280 loglineares Modell f¨ ur den relativen Hazard, 299 Mann-Whitney-U -Test, 172 Mantel-Haenszel, 297 MAR, 318 Matched-Pair Design, 177 Maximum-Likelihood-Prinzip, 110 Maximum-Likelihood-Sch¨ atzung, 110 – f¨ ur μ, 113 – f¨ ur σ 2 , 113 – f¨ ur p, 120 MCAR, 316 McNemar-Test, 153 Mean Square Error, 109 Median, 54 Mengenoperationen, 13 Merkmal – diskretes, 33

Sachverzeichnis – qualitatives, 33 – quantitatives, 33 – stetiges, 33 Missing at random, 318 Missing completely at random, 316 Mittelwertsvergleich – einfacher, 129, 133 – mehrfacher, 229 – zweifacher, 140, 143 Modalwert, 54 Modellierung der Hazardrate, 304 Modellwahl, 212 MSE-Kriterium, 109 Multinomialstichprobenschema, 267 Multinomialverteilung, 78 Multiplikationssatz, 20 M¨ achtigkeit einer Menge, 1 Nichtparametrische Tests, 163 Niveau-α-Test, 127 NMAR, 318 Normalregression, 198 Normalverteilung, 83 – Dichte, 83 – zweidimensionale, 87 Not missing at random, 318 Odds-Ratio, 276 Operationscharakteristik, 127 p-value, 129 Parameterraum, 108 Permutationen, 2 – mit Wiederholung, 4 – ohne Wiederholung, 2 Poissonstichprobenschema, 266 Poissonverteilung, 77 Produktmultinomialstichprobenschema, 268 Proportional–Hazard–Modell von Cox, 299 proportionaler Hazard, 299 Pr¨ ufen – der Korrelation, 145 – der Regression, 204 – linearer Hypothesen, 199 Prufen – der Rangkorrelation, 182 Punktsch¨ atzung, 107 Quantil, 54 Quartil, 54 R, 351

481

chi2 -Test, 372 Analyse von Kontingenztafeln, 381 Analyse von Lebensdauern, 381 Ein-Stichproben t-Test, 363 Einlesen von Daten, 362 exakter Binomialtest, 369 exakter Test von Fisher, 372 F-Test f¨ ur die Varianz, 367 Grafiken, 354 Grundaufbau, 351 Installation, 351 Kaplan–Meier Sch¨ atzung, 382 Kategorisierung von Variablen, 371 Kolmogorov–Smirnov Tests, 374 Korrelationstests, 368 Kruskal–Wallis Test, 380 Lineare Regression, 376 Log–Rank Test, 383 Modellierung von Ursache– Wirkungsbeziehungen, 376 – Nichtparametrische Tests, 374 – nichtparametrischer Korrelationstest, 376 – Paired t-Test, 367 – Praktische Beispiele, 358 – Programmiersprache, 353 – Simulation des zentralen Grenzwertsatzes, 360 – Statsistische Tests, 362 – Test vonMcNemar, 373 – Tests auf Binomialwahrscheinlichkeiten, 369 – Varianzanalyse, 380 – Verteilungen, 358 – Wilcoxon–Tests, 375 – Zeichnen von Funktionen, 357 – Zufallszahlen, 358 – Zwei-Stichproben t-Test, 365 – zweifaktorielle Varianzanalyse, 381 R Project, 351 Randdichte, 58 Randverteilung, 56, 58 Rangkorrelationskoeffizient, 182 Rangvarianzanalyse, 244 Rechenregeln – f¨ ur den Erwartungswert, 46 – f¨ ur die Varianz, 48 – f¨ ur Verteilungsfunktionen, 36 – f¨ ur Wahrscheinlichkeiten, 19 Referenzkategorie, 221 Regeln der Kombinatorik, 9 Regressionsanalyse, 191 relativer Hazard, 299 – – – – – – – – – – – – – – – – – – –

482

Sachverzeichnis

Risikofunktion, 197 Satz – Bayes, 21 – Bernoulli, 97 – Cochran, 272 – Gauss-Markov, 197 – Student, 91 – totale Wahrscheinlichkeit, 21 Sch¨ atzfolge, 110 Sch¨ atzung, 108 – beste lineare erwartungstreue, 196 – Gauss-Markov, 197 – Maximum-Likelihood, 110 Signifikanzniveau, 127 Signifikanztest, 126 SPSS, 327 SQRegression , 236 SQResidual , 236 SQT otal , 236 Standardabweichung, 48 Standardisierte Zufallsvariable, 50 Standardnormalverteilung, 83 Standardverteilungen, 67 Sterbetafelmethode, 289 Stichprobe, 107 – als Zufallsgr¨ oße, 108 – i.i.d., 108 – konkrete, 108 Stichprobenvarianz, 114 – gepoolte, 141 Streuungszerlegung, 236 Student-Verteilung, 90 Survivorfunktion, 289, 294 Syntaxfenster, 330 t-Test – doppelter, 141 – einfacher, 133 – paired, 143 t-Verteilung, 90 Tafel der Varianzanalyse, 240 Test – U -Test, 172 – χ2 -Test f¨ ur die Varianz, 135 – Binomialtest, 147, 150 – doppelter t-Test, 141 – doppelter Gauss-Test, 141 – einfacher t-Test, 133 – einfacher Gauss-Test, 129 – exakter Test von Fisher, 151, 271 – F -Test, 137 – gleichm¨ aßig bester, 128

– Kolmogorov-SmirnovAnpassungstest, 166 – Kolmogorov-Smirnov-Test im Zweistichprobenproblem, 170 – Kruskal-Wallis-Test, 244 – Log-Rank, 294 – Mann-Whitney-Test, 172 – multipler, 242 – paired t-Test, 143 Testentscheidung, 126 Testgr¨ oße, 126 Testtheorie, 125 Tr¨ ager einer Verteilung, 38 Treppenfunktion, 38 ¨ Uberlebenswahrscheinlichkeit, 288 UMVU-Sch¨ atzung, 110 Unabh¨ angigkeit, 25 – in Kontingenztafeln, 265 – normalverteilter Variablen, 88 – paarweise, 26 – stochastische, 25 – von diskreten Zufallsvariablen, 45 – von stetigen Zufallsvariablen, 59 – von Zufallsvariablen, 45 Unabh¨ angigkeitsmodell, 255 Ungleichung – Bonferroni, 242 – Tschebyschev, 51 Unverf¨ alschtheit, 128 Ursache-Wirkungsbeziehung, 191 Variable – diskrete, 33 – qualitative, 33 – quantitative, 33 – stetige, 33 Variablenansicht, 329 Varianz, 48 – Additionssatz, 49, 60 – Rechenregeln, 48 – Verschiebungssatz, 49 Varianzanalyse – einfaktorielle, 230 – Modell mit festen Effekten, 229 – Modell mit zuf¨ alligen Effekten, 230 – zweifaktorielle, 248 Versuchsplan, 229 – balanziert, 231 – unbalanziert, 231 – vollst¨ andig randomisierter, 232 Verteilung – gemeinsame, 56

Sachverzeichnis – unimodale, 55 Verteilungsfunktion, 35 Verweildauer, 287, 288 Vierfeldertafel, 275 vollst¨ andige Zerlegung, 14 vollst¨ andiges System, 14 Vorzeichen-Test, 178 Wahrscheinlichkeit – a-posteriori, 21 – a-priori, 21 – bedingte, 20 – nach Laplace, 16 Wahrscheinlichkeitsfunktion, 38, 55 Wahrscheinlichkeitsrechnung – Axiomensystem, 17 – Rechenregeln, 19 Wartezeit, 81 Weibull–Verteilung, 303 Welch-Test, 143 Wilcoxon-Test, 180 Wilks G2 , 271

zentraler Grenzwertsatz, 97, 333 Zerlegung – vollst¨ andige, 14 – von G2 , 272 Ziehen – mit Zur¨ ucklegen, 73 – ohne Zur¨ ucklegen, 70 zuf¨ alliges – Ereignis, 12 – Experiment, 11 Zufallsintervall, 115 Zufallsvariablen – diskrete, 37 – stetige, 37 – zweidimensionale, 55 Zufallsvektor, 58 Zufallszahlen, 331 Zustandsraum, 33 Zweipunktverteilung, 68 Zweistichprobenproblem, 129, 137

483