156 45 8MB
German Pages 304 [301] Year 2006
Norbert Henze
Stochastik für Einsteiger
Aus dem Programm Mathematik für Einsteiger
Algebra für Einsteiger von Jörg Bewersdorff Algorithmik für Einsteiger von Armin P. Barth Diskrete Mathematik für Einsteiger von Albrecht Beutelspacher und Marc-Alexander Zschiegner Finanzmathematik für Einsteiger von Moritz Adelmeyer und Elke Warmuth Graphen für Einsteiger von Manfred Nitzsche Knotentheorie für Einsteiger von Charles Livingston Stochastik für Einsteiger von Norbert Henze Zahlentheorie für Einsteiger von Andreas Bartholomé, Josef Rung, Hans Kern
vieweg
Norbert Henze
Stochastik für Einsteiger Eine Einführung in die faszinierende Welt des Zufalls
6., überarbeitete und erweiterte Auflage
Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
Prof. Dr. Norbert Henze Universität Karlsruhe (TH) Institut für Mathematische Stochastik 76128 Karlsruhe E-mail: [email protected]
1. Auflage April 1997 2., durchgesehene Auflage November 1998 3., erweiterte Auflage Oktober 2000 4., verbesserte Auflage April 2003 5., überarbeitete Auflage Dezember 2004 6., überarbeitete und erweiterte Auflage März 2006 Alle Rechte vorbehalten © Friedr. Vieweg & Sohn Verlag | GWV Fachverlage GmbH, Wiesbaden 2006 Lektorat: Ulrike Schmickler-Hirzebruch / Petra Rußkamp Der Vieweg Verlag ist ein Unternehmen von Springer Science+Business Media. www.vieweg.de
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Umschlaggestaltung: Ulrike Weigel, www.CorporateDesignGroup.de Druck und buchbinderische Verarbeitung: MercedesDruck, Berlin Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier. Printed in Germany ISBN 3-8348-0091-0
V
Vorwort Als weiterer Vertreter der Einsteiger Reihe ist das vorliegende Bu h als Lehrbu h zwis hen gymnasialem Mathematikunterrri ht und Universität konzipiert. Es wendet si h damit insbesondere an Lehrer/-innen, Studierende des Lehramtes, Studienanfänger an Fa hho hs hulen, Berufsakademien und Universitäten sowie Quereinsteiger aus Industrie und Wirts haft. Dur h
• Lernziele bzw. Lernzielkontrollen am Ende der Kapitel, • mehr als 160 Übungsaufgaben mit Lösungen und • ein Symbol sowie ein ausführli hes Sa hwortverzei hnis eignet es si h insbesondere zum Selbststudium und als vorlesungsbegleitender Text. Um den Leser mögli hst behutsam in die Sto hastik, die Kunst des ges hi kten Vermutens, einzuführen, wurden die mathematis hen Vorkenntnisse bewusst so gering wie mögli h gehalten. So rei ht für die ersten 21 Kapitel abgesehen von einem Beweis in Kapitel 10 ein Abiturwissen in Mathematik völlig aus. Erst ab Kapitel 22 (diskrete Wahrs heinli hkeitsräume) wird eine gewisse Vertrautheit mit Begrien und Methoden der Analysis vorausgesetzt. Hier können die im Literaturverzei hnis aufgeführten Bü her [HEU℄ und [WAL℄ als Na hs hlagewerke dienen. Der Konzeption dieses Bu hes liegt die Erfahrung zugrunde, dass die spezifis hen Denkweisen der Sto hastik insbesondere die Erfassung des Wahrs heinli hkeitsbegries den Studierenden anfangs groÿe S hwierigkeiten bereiten. Hinzu kommt das harte Ge s häft der Modellierung zufallsabhängiger Vorgänge als ein wi htiges Aufgabenfeld der Sto hastik. Da die Konstruktion geeigneter Modelle im Hinbli k auf die vielfältigen Anwendungen der Sto hastik von Grund auf gelernt werden sollte, nimmt der Aspekt der Modellbildung einen breiten Raum ein. Hier mag es trösten, dass selbst Universalgelehrte wie Leibniz oder Galilei bei einfa hen Zufallsphänomenen mathematis he Modelle aufstellten, die si h ni ht mit den gema hten Beoba htungen des Zufalls in Einklang bringen lieÿen. Um dem Einüben sto hastis her Modellbildung ohne Verwendung fortges hrittener mathematis her Te hniken genügend Raum zu lassen, wurde bewusst auf die Behandlung stetiger Verteilungsmodelle verzi htet. Im Gegenzug habe i h groÿen Wert auf die Motivation der Begrisbildungen und auf die Diskussion von Grundannahmen wie z.B. die Unabhängigkeit und Glei hartigkeit von Versu hen gelegt. Ausführli h werden die Modellierung mehrstuger Experimente sowie der Zusammenhang zwis hen Übergangswahrs heinli hkeiten und den oft nur stiefmütterli h behandelten bedingten Wahrs heinli hkeiten bespro hen. Au h in den beiden letzten Kapiteln über S hätz und Testprobleme habe i h versu ht, keine Rezepte zu vermitteln, sondern prinzipielle Vorgehensweisen der S hlieÿenden Statistik anhand elementarer Beispiele zu verdeutli hen. Kritis he Anmerkungen zum Testen statistis her
VI
Vorwort
Hypothesen entspringen einer langjährigen Erfahrung in der statistis hen Beratung. Eine Reihe paradoxer Phänomene dürfte ni ht nur im S hulunterrri ht zu anregenden Diskussionen und zur Bes häftigung mit mathematis her Modellierung führen. Hierzu gehören u.a. das Ziegenproblem (Kapitel 7 und 15), das Paradoxon der ersten Kollision (Kapitel 10; das Phänomen der ersten Gewinnreihenwiederholung im Zahlenlotto könnte ein Klassiker werden), Simpsons Paradoxon (Kapitel 15 und Kapitel 21), das ZweiJungenProblem (Kapitel 15) und das häug au h als CouponColle torProblem oder Problem der vollständigen Serie bekannte Sammlerproblem (Kapitel 23). Was beim ersten Dur hblättern dieses Bu hes auällt, ist ein häuger We hsel zwis hen einem (hoentli h) angenehm zu lesenden Prosastil und dem in der Mathematik gewohnten DenitionSatzBeweisS hema . Dieser We hsel ist für die Sto hastik typis h. Sto hastik ist wenn man sie ni ht auf die Mathematis he Sto hastik reduTeilgebiet der Mathematik, sondern eine interdisziplinäre Wissens haft mit ziert kein vielfältigen Anwendungen, deren formale Spra he die Mathematik ist. Denjenigen, die an der Entstehungsges hi hte dieser Wissens haft interessiert sind, werden vermutli h die zahlrei hen biographis hen Hinweise und die angegebenen InternetAdressen von Nutzen sein. Eine kleine Sammlung von Links zu den Themen Mathematik und Mathematikges hi hte ndet man unter http://www-groups.d s.st-and.a .uk// ˜history/. Steigen Sie ein in die faszinierende Welt des Zufalls!
Karlsruhe, im März 1997
Vorwort zur se hsten Auage Im Verglei h zur fünften Auage wurde der Sto um die Themen Variationskoezient, Stimmzettel-Problem, Sterbetafeln und Spieler-Ruin-Problem sowie Monte-Carlo-Tests erweitert. Auÿerdem wurden weitere Graphiken und Übungsaufgaben mit Lösungen aufgenommen. Karlsruhe, im Januar 2006
Vorwort zur fünften Auage Gegenüber der vierten Auage wurden vers hiedene Aktualisierungen vorgenommen, einige Beweise sowie Graphiken überarbeitet und das Layout dem von vielen Lesern gewüns hten gröÿeren Format angepasst. Karlsruhe, im August 2004
VII
Vorwort zur vierten Auage Im Verglei h zur dritten Auage habe i h einige Daten aktualisiert und vers hiedene Dru kfehler beseitigt. Karlsruhe, im März 2003
Vorwort zur dritten Auage Gegenüber der zweiten Auage wurden der Begri des Box-Plots aufgenommen, das Kapitel über Pseudozufallszahlen und Simulation erweitert und weitere Abbildungen sowie zusätzli he Übungsaufgaben mit Lösungen eingefügt. Zahlrei hen Lesern danke i h für ihre konstruktive Kritik, die zu diversen Verbesserungen in der Darstellung geführt hat. Karlsruhe, im September 2000
Vorwort zur zweiten Auage Da das Werk von der Kritik ausgespro hen wohlwollend behandelt orden ist, habe i h keine gröÿeren Änderungen vornehmen müssen. Es wurden einige zusätzli he Übungsaufgaben aufgenommen, Dru kfehler beseitigt und vers hiedene Anregungen aus dem Leserkreis, für die i h mi h herzli h bedanke, eingearbeitet. Karlsruhe, im September 1998
Danksagung An dieser Stelle mö hte i h allen danken, die mir während der Entstehungsphase dieses Bu hes eine uns hätzbare Hilfe waren. Frau Ingrid Voss TEXte groÿe Teile des Ma nuskriptes und war an der Erstellung des Sa hwortverzei hnisses sowie des Symbolverzei hnisses beteiligt. Herr Dipl.Math. te hn. Thorsten Wagner und Herr Dipl.Math. Heiko Zimmermann steuerten zahlrei he Abbildungen bei und waren stets mit Rat und Tat zur Stelle. Herr Dipl.Math. Mi hael Fi hter lieÿ uns uneigennützig von seinem T Xpertenwissen protieren. E Herrn Dr. Martin Folkers verdanke i h zahllose Verbesserungsvors hläge und viele wertvolle biographis he Hinweise. Herr Dr. Wolfgang Henn fand trotz eines beängstigend vollen Terminkalenders no h die Zeit, groÿe Teile des Manuskriptes einer wohlwollenden Kritik zu unterziehen. In tiefer S huld stehe i h bei Frau Dipl.Math. Nora Gürtler und bei Herrn Dipl.-Math. Bernhard Klar. Dur h gründli hes und s hnelles Korrekturlesen und zahlrei he Verbesserungsvors hläge haben beide einen ents heidenden Anteil daran, dass si h der Abgabetermin beim Verlag ni ht no h weiter verzögert hat. Meiner Frau Edda und meinen Kindern Martin, Mi hael und Matthias danke i h zutiefst für ihr Verständnis und ihre grenzenlose Geduld. Ihnen ist dieses Bu h gewidmet.
Inhaltsverzei hnis
Vorwort
V
0
Einleitung
1
1
Zufallsexperimente, Ergebnismengen
3
2
Ereignisse
7
3
Zufallsvariablen
12
4
Relative Häugkeiten
18
5
Grundbegrie der deskriptiven Statistik
22
6
Endli he Wahrs heinli hkeitsräume
39
7
Lapla eModelle
48
8
Elemente der Kombinatorik
54
9
Urnen- und Teil hen/Fä her-Modelle
63
10 Das Paradoxon der ersten Kollision
68
11 Die Formel des Ein und Auss hlieÿens
73
12 Der Erwartungswert
79
13 Sti hprobenentnahme: Die hypergeometris he Verteilung
85
14 Mehrstuge Experimente
89
15 Bedingte Wahrs heinli hkeiten
98
16 Sto hastis he Unabhängigkeit
116
17 Gemeinsame Verteilung von Zufallsvariablen
128
18 Die Binomialverteilung und die Multinomialverteilung
138
19 Pseudozufallszahlen und Simulation
149
20 Die Varianz
156
21 Kovarianz und Korrelation
162
Inhaltsverzei hnis
IX
22 Diskrete Wahrs heinli hkeitsräume
175
23 Wartezeitprobleme
181
24 Die PoissonVerteilung
190
25 Gesetz groÿer Zahlen
196
26 Zentraler Grenzwertsatz
200
27 S hätzprobleme
212
28 Statistis he Tests
235
Na hwort
258
Tabelle der standardisierten Normalverteilung
259
Lösungen der Übungsaufgaben
260
Literaturverzei hnis
278
Symbolverzei hnis
280
Index
282
1
0
Einleitung
Wel h ein Zufall ! sagen wir häug, um unsere Verwunderung über ein als unwahrs heinli h era htetes Ereignis auszudrü ken. Der Zufall führt Regie bei den wö hentli hen Ziehungen der Lottozahlen, und er steht Pate bei Spielen wie Mens h-ärgere-Di h-ni ht! oder Roulette, wobei Zufall meist mit Glü k (Glü ksgöttin Fortuna) oder Pe h (Pe hvogel, Pe hsträhne) verbunden wird. Um allen Manns haften die glei he Chan e zu si hern, werden die Spielpaarungen des Pokalwettbewerbs des Deuts hen Fuÿballbundes (DFBPokal) vor jeder Runde unter den no h verbliebenen Manns haften dur h das Los bestimmt, d.h. dur h die höhere Gewalt des Zufalls festgelegt. Neuerdings ents heidet das Los sogar bei strittigen Fragen über das Abstimmungsverhalten im Bundesrat (so bes hlossen bei den Koalitionsverhandlungen 1996 in RheinlandPfalz). Das Wort Sto hastik steht als Sammelbegri für die Gebiete Wahrs heinli hkeitstheorie und Statistik und kann kurz und prägnant als Mathematik des Zufalls bezei hnet wer den. Dabei wollen wir im Folgenden ni ht über die Existenz eines wie immer gearteten Zufalls philosophieren, sondern den pragmatis hen Standpunkt einnehmen, dass si h gewisse Vorgänge wie die Ziehung der Lottozahlen einer deterministis hen Bes hreibung entziehen und somit ein sto hastis hes Phänomen darstellen, weil wir ni ht genug für eine si here Vorhersage wissen. Wir lassen hierbei oen, ob dieses Wissen nur für uns in der speziellen Situation oder prinzipiell ni ht vorhanden ist. Sto hastis he Begrisbildungen begegnen uns auf S hritt und Tritt. So verspri ht der lokale Wetterberi ht für den morgigen Tag eine Regenwahrs heinli hkeit von 70 Prozent, und Jurist(inn)en nehmen einen Sa hverhalt mit an Si herheit grenzender Wahrs heinli hkeit an, wenn sie ihn als so gut wie si her era hten. Wir lesen, dass die Überle genheit einer neuen Therapie zur Behandlung einer bestimmten Krankheit gegenüber einer StandardTherapie statistis h auf dem 5% Niveau abgesi hert sei. Diese Formulierung mag (und soll es vielfa h au h) beeindru ken; sie wird aber den meisten von uns ni ht viel sagen. Es werden Ergebnisse von Meinungsumfragen präsentiert, die eine statistis he Unsi herheit von einem Prozent aufweisen sollen. Au h hier interpretieren wir diese Unsi herheit wenn überhaupt meist fals h. Ziel dieses Bu hes ist es, dem Leser einen ersten Einstieg in die faszinierende Welt des Zufalls zu vermitteln und ihn in die Lage zu versetzen, sto hastis he Phänomene korrekt zu beurteilen und über statistis he Unsi herheiten oder eine statistis he Signikanz auf dem 5%-Niveau kritis h und kompetent mitreden zu können. Wir werden sehen, dass selbst der spri hwörtli h unbere henbare Zufall gewissen Gesetzen der Mathematik gehor ht und somit bere henbar wird. Dabei ma ht gerade der Aspekt, dem Zufall auf die Finger sehen und für ein beoba htetes sto hastis hes Phänomen ein passendes Modell aufstellen zu müssen, den spezis hen Reiz der Sto hastik aus.
2
Einleitung
In der Tat ist die historis he Entwi klung der Sto hastik von einer intensiven und äuÿerst fru htbaren We hselwirkung zwis hen Theorie und Anwendungen geprägt; ni ht zuletzt waren es irrtümli he Modellvorstellungen bei Karten und Würfelspielen, wel he die Entwi klung der Wahrs heinli hkeitstheorie ents heidend vorangetrieben haben. Dass si h dabei Trugs hlüsse aus der Welt des Zufalls weiterhin einer ungebro henen Popularität erfreuen, zeigt das im Sommer des Jahres 1991 heiÿ diskutierte Ziegenproblem . Bei diesem Problem geht es um ein Auto, das in einer Spielshow gewonnen werden kann. Hierzu sind auf der Bühne drei vers hlossene Türen aufgebaut. Hinter genau einer vom Spielleiter vorher rein zufällig ausgewählten Tür bendet si h der Hauptpreis, hinter den beiden anderen jeweils eine Ziege. Der Kandidat wählt eine der Türen aus, die aber zunä hst vers hlossen bleibt. Der Spielleiter sondert daraufhin dur h Önen einer der beiden anderen Türen eine Ziege aus und bietet dem Kandidaten an, bei seiner ursprüngli hen Wahl zu bleiben oder die andere vers hlossene Tür zu wählen. Ein intuitiv nahe liegender und weit verbreiteter Irrtum ist hier, dass na h Auss hluss einer Ziegen Tür dur h den Spielleiter die beiden verbleibenden Türen die glei hen Gewinn han en erönen. Natürli h bes hränkt si h der Anwendungsberei h der Sto hastik ni ht auf Glü ksspiele. Die Tatsa he, dass sto hastis he Fragestellungen in so unters hiedli hen Anwendungsberei hen wie Medizin (Verglei h des Erfolges vers hiedener Therapien), Versi herungswesen (Prämienkalkulation), Epidemiologie (Modelle für die Ausbreitung von Krankheiten), Verkehrswesen (Studium von Wartes hlangensystemen), Biologie (Planung und Auswertung von Versu hen), Meinungsfors hung (Gewinnung repräsentativer Sti hproben und Ho hre hnen auf die Grundgesamtheit) sowie Ökonomie (PortfolioAnalyse, MarketingStrategien u.a.) auftreten, unterstrei ht die wa hsende Bedeutung der Sto hastik für die berufli he Praxis. Abs hlieÿend sei ausdrü kli h hervorgehoben, dass i h das Wort Leser im Folgenden stets in einem ges hle htsneutralen Sinn verstehe. Es s hlieÿt grundsätzli h au h alle Leserinnen mit ein, um Konstruktionen wie Wir empfehlen dem Leser und der Leserin, seine bzw. ihre Aufmerksamkeit ... zu vermeiden.
3
1
Zufallsexperimente, Ergebnismengen
Ein wesentli her Aspekt der Sto hastik ist die Modellierung zufallsabhängiger Phänomene. Dabei ist uns das Wort Modell in der Bedeutung einer kleinen plastis hen Ausführung eines u.U. erst geplanten Objektes (Modellugzeug, Modell eines Einkaufszentrums, eines Denkmals, einer Sportstätte o.ä.) vertraut. Natürli h kann ein Modell ni ht jede Einzelheit des Originals aufweisen; ein gutes Modell sollte aber alle wesentli hen Merkmale des Originals besitzen. In der glei hen Weise wie ein Modellugzeug eine Na hbildung eines tatsä hli hen Flugzeugs darstellt, liefert ein sto hastis hes Modell eine Na hbildung eines zufallsabhängigen Vorgangs in der Spra he der Mathematik. Was ein derartiges Modell genau ist, werden wir bald erfahren, wenn wir uns mit Problemen der sto hastis hen Modellierung anhand einiger Beispiele bes häftigt haben. Als erstes Übungsmaterial hierzu eignen si h vor allem zufallsabhängige Vorgänge bei Glü ksspielen wie das Werfen eines Würfels oder einer Münze, das Ziehen einer Karte aus einem gut gemis hten Kartenspiel oder das Drehen eines Glü ksrades. All diesen Vorgängen ist gemeinsam, dass sie unter genau festgelegten Bedingungen dur hgeführt werden können und zumindest prinzipiell beliebig oft wiederholbar sind. Hinzu kommt, dass trotz des sto hastis hen Charakters die Menge der jeweils mögli hen Ergebnisse dieser Vorgänge bekannt ist. Da si h diese Eigens haften als hilfrei h für das Verständnis der sto hastis hen Grundbegrie erwiesen haben, wollen wir sie no h einmal hervorheben. Ein sto hastis her Vorgang heiÿt ideales Zufallsexperiment, wenn folgende Gegebenheiten vorliegen:
• Das Experiment wird unter genau festgelegten Bedingungen, den sogenannten Versu hsbedingungen, dur hgeführt. • Die Menge der mögli hen Ergebnisse (Ausgänge) ist vor der Dur hführung des Experimentes bekannt. • Das Experiment kann zumindest prinzipiell beliebig oft unter glei hen Bedingungen wiederholt werden. Ein elementares Beispiel für ein ideales Zufallsexperiment ist der einfa he Würfelwurf mit den mögli hen Ergebnissen 1,2,3,4,5,6. Die Versu hsbedingungen könnten etwa die Auswahl eines Würfels und eines Knobelbe hers sein, wobei der Wurf na h gutem S hütteln des Würfels im Be her erfolgt. Wir wollen die Menge der mögli hen Ergebnisse eines idealen Zufallsexperimentes mit dem grie his hen Bu hstaben Ω (lies: Omega) bezei hnen und Ergebnismenge des Zufallsexperimentes nennen. Synonym hierfür wird au h der Begri Grundraum verwendet.
4
1 Zufallsexperimente, Ergebnismengen
Als mathematis hes Objekt ist Ω eine Menge, und es ist immer der erste S hritt einer sto hastis hen Modellbildung, die Ergebnismenge eines Zufallsexperimentes festzulegen. Da es nur darauf ankommt, die mögli hen Ausgänge des Experimentes zu identizieren, ist die Wahl von Ω meist bis zu einem gewissen Grad willkürli h. So könnten wir beim Ziehen einer Karte aus einem Kartenspiel (französis hes Blatt, 32 Karten)
Ω := { ♦7, ♥7, ♠7, ♣7,
♦8, ♥8, ♠8, ♣8,
♦9, ♥9, ♠9, ♣9,
♦10, ♥10, ♠10, ♣10,
♦B, ♥B, ♠B, ♣B,
♦D, ♥D, ♠D, ♣D,
♦K, ♦A, ♥K, ♥A, ♠K, ♠A, ♣K, ♣A }
setzen, aber au h genauso gut Ω := {1,2,3,4,5,6,.....,30,31,32} wählen, wenn wir alle 32 Karten gedankli h in einer vereinbarten Weise dur hnummerieren und z.B. festlegen, dass ♦7 der Zahl 1, ♦8 der Zahl 2, ..., ♣K der Zahl 31 und ♣A der Zahl 32 entspri ht. Das anstelle des Glei hheitszei hens verwendete Zei hen := (lies: denitionsgemäÿ glei h) bedeutet, dass der auf der Seite des Doppelpunktes stehende Ausdru k erklärt wird; mit dieser Konvention tritt später häug au h das Symbol =: auf. Als weiteres Beispiel für ein ideales Zufallsexperiment betra hten wir Situation des Wartens auf die erste Se hs beim Spiel Mens härgereDi hni ht!. Das Experiment besteht darin, na h jeweils gutem S hütteln einen Würfel so lange zu werfen, bis zum ersten Mal eine Se hs auftritt. Das Ergebnis des Experimentes sei die Anzahl der dazu benötigten Würfe. Jeder, der Erfahrung mit diesem Spiel besitzt, weiÿ, dass er s hon einmal der Verzweiung nahe war, weil selbst na h sehr vielen Versu hen no h keine Se hs gewürfelt wurde. In der Tat ist logis h ni ht auszus hlieÿen, dass au h na h 100 oder 1000 (oder mehr) Würfen no h keine Se hs aufgetreten ist, obwohl dies wohl niemand je beoba htet hat. Da wir oenbar keine si here Obergrenze für die Anzahl der benötigten Würfe bis zum Auftreten der ersten Se hs angeben können, ist die Menge
Ω := {1,2,3, . . .} =: IN der natürli hen Zahlen ein geeigneter Grundraum für dieses Zufallsexperiment. Im Gegensatz zum einfa hen Würfelwurf und zum Ziehen einer Spielkarte enthält die Ergebnismenge beim Warten auf die erste Se hs unendli h viele Elemente. Hier ist natürli h die Idealvorstellung enthalten, beliebig oft würfeln zu können. Wird ein dur h die Ergebnismenge Ω bes hriebenes Zufallsexperiment n mal hintereinander dur hgeführt, und wird dieser Vorgang als ein aus n Einzelexperimenten bestehendes Gesamtexperiment betra htet, so lassen si h die Ergebnisse des Gesamtexperimentes in nahe liegender Weise als n-Tupel
a = (a1 ,a2 ,a3 , . . . ,an−1 ,an ) mit den Komponenten a1 ,a2 , . . . ,an darstellen. Hierbei sehen wir aj ∈ Ω als das Ergebnis des j -ten Einzelexperimentes an (j = 1, . . . ,n). Die Menge aller n-Tupel mit Komponenten aus einer Menge Ω wird mit Ωn bezei hnet.
5 Im Gegensatz zur Angabe der Elemente von Mengen muss bei n-Tupeln die Reihenfolge der Komponenten des Tupels bea htet werden. So sind etwa die Mengen M1 := {3,1,2} und M2 := {1,2,3} glei h, weil jedes Element von M1 au h Element von M2 ist und umgekehrt. Die 3-Tupel (Tripel) (3,1,2) und (1,2,3) sind aber vers hieden. Allgemein sind zwei n-Tupel a = (a1 ,a2 ,a3 , . . . ,an−1 ,an ) und b = (b1 ,b2 ,b3 , . . . ,bn−1 ,bn ) dann und nur dann glei h, wenn sie komponentenweise übereinstimmen, d.h. wenn aj = bj für jedes j = 1, . . . ,n gilt. Oenbar können die Ergebnisse eines aus n hintereinander dur hgeführten Einzelexperimenten bestehenden Gesamtexperimentes au h dann dur h n-Tupel bes hrieben werden, wenn die mit Ωj bezei hnete Ergebnismenge des j -ten Einzelexperiments von j abhängt. Der Ergebnisraum des Gesamtexperimentes ist dann das kartesis he Produkt
Ω1 × Ω2 × . . . × Ωn := {(a1 ,a2 , . . . ,an ) : a1 ∈ Ω1 ,a2 ∈ Ω2 , . . . ,an ∈ Ωn } der Mengen Ω1 ,Ω2 , . . . ,Ωn . In diesem Sinn stellt also Ωn das n-fa he kartesis he Produkt der Menge Ω mit si h selbst dar. Wir werden in diesem Bu h auss hlieÿli h die beiden Fälle betra hten, dass der Grundraum Ω eine endli he oder eine abzählbarunendli he Menge ist. Die Anzahl der Elemente einer endli hen Menge M bezei hnen wir mit |M |. Die Eigens haft abzählbar unendli h bedeutet, dass die Elemente der unendli hen Menge Ω mit den natürli hen Zahlen 1,2,3, . . . dur hnummeriert werden können. Liegt ein endli her Grundraum mit s Elementen vor, so s hreiben wir Ω im Allgemeinen in der Form
Ω := {ω1 ,ω2 , . . . ,ωs }. Im Fall einer abzählbarunendli hen Ergebnismenge Ω setzen wir (1.1)
Ω := {ωj : j ∈ IN}.
In diesem Fall wird meist Ω = IN oder Ω = IN0 := {0,1,2, . . .} gelten. Die oben angespro hene Dur hnummerierung der Elemente von Ω ist gerade dur h die Darstellung (1.1) gegeben: ω1 ist das erste, ω2 das zweite Element usw.
Übungsaufgaben Ü 1.1 In einer S ha htel liegen vier mit 1 bis 4 nummerierte Kugeln. Wie lautet die Ergebnis-
menge, wenn zwei Kugeln mit einem Gri gezogen werden? Ü 1.2 Wel he Ergebnismenge ist beim
Zahlenlotto 6 aus 49 angemessen, wenn
a) nur die Ziehung der se hs Lottozahlen (ohne Zusatzzahl), b) das Ziehen der se hs Lottozahlen mit Zusatzzahl
6
1 Zufallsexperimente, Ergebnismengen
bes hrieben werden soll? Anmerkung: Das Ziehungsgerät enthält 49 Kugeln, die von 1 bis 49 nummeriert sind. Ü 1.3 Geben Sie jeweils eine geeignete Ergebnismenge für folgende sto hastis hen Vorgänge
an: a) Drei ni ht unters heidbare 1-Euro-Münzen werden glei hzeitig geworfen. b) Eine 1-Euro-Münze wird dreimal hintereinander geworfen.
) Eine 1-Cent-Münze und eine 1-Euro-Münze werden glei hzeitig geworfen. d) Eine 1-Cent-Münze wird so lange geworfen, bis zum ersten Mal
Zahl
ers heint, jedo h
hö hstens se hsmal. e) Ein Würfel wird so lange geworfen, bis jede Augenzahl mindestens einmal aufgetreten ist. Es interessiere dabei nur die Anzahl der benötigten Würfe.
Lernziele Sie sollten mit den Begriffen
• ideales Zufallsexperiment, • Ergebnismenge (Grundraum), • nTupel und
• kartesis hes Produkt von Mengen umgehen können.
7
2
Ereignisse
Bei der Dur hführung eines Zufallsexperimentes interessiert oft nur, ob der Ausgang zu einer gewissen Menge von Ergebnissen gehört. So kommt es zu Beginn des Spiels Mens härgereDi hni ht! ni ht auf die genaue Augenzahl an, sondern nur darauf, ob eine Se hs geworfen wird oder ni ht. Bei Spielen mit zwei Würfeln mag es in einer bestimmten Situation nur wi htig sein, dass die Augensumme beider Würfe gröÿer als 8 ist. Offenbar führen diese Überlegungen in natürli her Weise dazu, Teilmengen aus der Menge aller mögli hen Ergebnisse zu betra hten. Ist Ω die Ergebnismenge eines Zufallsexperimentes, so heiÿt jede Teilmenge von Ω ein Ereignis. Für Ereignisse verwenden wir groÿe lateinis he Bu hstaben aus dem vorderen Teil des Alphabetes, also A,A1 ,A2 , . . . ,B,B1 ,B2 , . . . ,C,C1 ,C2 , . . .. Da Ω als Ergebnismenge eines Zufallsexperimentes angesehen wird, ist jedes Element ω der Menge Ω potenzieller Ausgang dieses Experimentes. Ist A ein Ereignis (Teilmenge von Ω), so besagt die Spre hweise das Ereignis A tritt ein, dass das Ergebnis des Zufallsexperimentes zur Teilmenge A von Ω gehört. Dur h diese Spre hweise identizieren wir die Menge A als mathematis hes Objekt mit dem ans hauli hen Ereignis, dass ein Element aus A als Ausgang des Zufallsexperimentes realisiert wird. Extreme Fälle sind hierbei das si here Ereignis A = Ω und die leere Menge A = ∅ = { } als unmögli hes Ereignis. Jede einelementige Teilmenge {ω} von Ω heiÿt Elementarereignis. Sind A und B Ereignisse, so kann dur h Bildung des Dur hs hnittes (S hnittmenge)
A ∩ B := {ω ∈ Ω : ω ∈ A und ω ∈ B} (siehe Bild 2.1 auf S. 9) ein neues Ereignis konstruiert werden. Da ein Ausgang des Experimentes dann und nur dann zu A ∩ B gehört, wenn er sowohl zu A als au h zu B gehört, tritt das Ereignis A ∩ B genau dann ein, wenn jedes der Ereignisse A und B eintritt. Die mengentheoretis he Vereinigung
A ∪ B := {ω ∈ Ω : ω ∈ A oder ω ∈ B} von A und B (Bild 2.2) steht für das Ereignis, dass mindestens eines der Ereignisse A oder B eintritt. Hierbei ist der Fall ni ht ausges hlossen, dass A und B beide eintreten! In direkter Verallgemeinerung hierzu bes hreiben
• A1 ∩ . . . ∩ An das Ereignis, dass jedes der Ereignisse A1 , . . . ,An eintritt, und
8
2 Ereignisse
• A1 ∪ . . . ∪ An das Ereignis, dass mindestens eines der Ereignisse A1 , . . . ,An eintritt. Wir sehen also, dass der Umgang mit mengentheoretis hen Operationen ein wi htiges Handwerkszeug der Sto hastik bildet. Deshalb sollen kurz die grundlegenden Bezei hnungen und Regeln der Mengenlehre zusammengestellt werden. Gehört jedes Element einer Menge A au h zur Menge B , so heiÿt A eine Teilmenge von B , und wir s hreiben hierfür kurz A ⊆ B (Bild 2.3). Zwei Mengen A und B sind demna h glei h, falls sowohl A ⊆ B als au h B ⊆ A gilt. Die Teilmengenbeziehung A ⊆ B bedeutet, dass das Eintreten des Ereignisses A das Eintreten des Ereignisses B na h si h zieht: aus A folgt B . Die Menge
B \ A := {ω ∈ Ω : ω ∈ B und ω ∈ / A} (lies: B minus A oder B vermindert um A) bes hreibt das Ereignis, dass B , aber ni ht A eintritt (Bild 2.4). Im Spezialfall B = Ω s hreiben wir
A := Ω \ A und nennen A das Gegenereignis zu A oder Komplement von A (Bild 2.5). Oenbar tritt das Ereignis A genau dann ein, wenn A ni ht eintritt. Man bea hte au h, dass die Mengen B \ A und B ∩ A glei h sind. Zwei Ereignisse A und B heiÿen unvereinbar oder disjunkt, falls ihr Dur hs hnitt die leere Menge ist, d.h. wenn A ∩ B = ∅ = { } gilt (Bild 2.6). Da die leere Menge kein Element enthält, können unvereinbare Ereignisse nie zuglei h eintreten. Allgemeiner heiÿen n Ereignisse A1 ,A2 , . . . ,An unvereinbar, wenn je zwei von ihnen unvereinbar sind, wenn also Ai ∩ Aj = ∅ für jede Wahl von i und j mit 1 ≤ i,j ≤ n und i 6= j gilt. Unvereinbare Ereignisse stellen eine spezielle und wie wir später sehen werden besonders angenehme Situation im Hinbli k auf die Bere hnung von Wahrs heinli hkeiten dar. Um dies au h in der Notation zu betonen, s hreiben wir die Vereinigung disjunkter Ereignisse mit dem Summenzei hen, d.h. wir setzen
A + B := A ∪ B für disjunkte Ereignisse A und B bzw. n X j=1
Aj = A1 + A2 + . . . + An :=
n [
j=1
Aj = A1 ∪ A2 ∪ . . . ∪ An
für disjunkte Ereignisse A1 ,A2 , . . . ,An und vereinbaren, dass diese Summens hreibweise auss hlieÿli h für den Fall disjunkter Ereignisse gelten soll.
9 '
A
&
' ........ ............................. ........... ................................. ........................ ............ .................................... ............ .................................... ........................ ............ .................................... ............ .................................... ....................... ........... ................................ .......... ...................... .
B
&
Ω
%
&
Bild 2.1
'
$
$ B
A∩B
%
$
Ω
A
%
Bild 2.3
$ ' . .. . . . . .......... . .................................... .
............................................................ ' ...... . . . . . . . . . . . . . ..........................$ ........................... ................................................ . . . . . . .B ................................................... ..... ............ ...........................................
A
&
'
'
A
&
Ω
&
Bild 2.5
%
A
A∪B
$ B
...................................................... ................... ............................................................. ........... ............................. ......................... ..................... . ........ ............................. ................. ......... ......................... ......... ......................... ................. ......... ......................... ......... ....................... ............................. . ...... .................... ................................... . . ....................................................... ......................................... ..................................... ..................................... ............................... .........................
Ω
%
&
B\A
%
Ω
'
$ B
&
%
A
Bild 2.6
%
$ ' . ..................... . ...............................
Bild 2.4
$
A
%
&
Bild 2.2
A⊆B
................................ ........ ......................................................................................................................................................................................... . ........ .......................... ........ ......................................................................................................................................................................................... .................................................................................................................. . ........ .......................... ........ ......................................................................................................................................................................................... . ........ .......................... ........ ......................................................................................................................................................................................... ............................. . . . . . . . . . . . . . . . . . . . . . . ........................................ ........... ....................................... ............................. . ........ . . . . . . . . . ......... ...................................................... ......................... . ................. ................ ................ ........................................................... ........ .................................. ........................ ......... ........ ........................................................... ........................ ......... ................ ........................................................... ........ .................................. ........................ .................................. ........ ...... ......................... ....................................................... .................. . . .............. . . ...... . .......................................................... ................................ . ............ . ....... . . . . . . . . ................ ............................................................................................................................................................. .................................................................................................................. . . . . ..... ........ ........ ........................................................................................................................................................................................................... ........ ........ ......... ........................................................................................................................................................................................................... .................................................................................................................. ........ ........ ......... ........................................................................................................................................................................................................... .. . . . . . . . . . . . . . . . . ................
Ω
.......... ............................................................................... ....................................................................................................................... ........................................................................................................................................... ................................................................................. . ..... ........... ...... ........................................................................................................................................... ...... .................. .......................................................................................................................................... ................................................................................. ................. ...... ........................................................................................................................................... ....................................................................................................................... .............................................................................. ...................................................................... ..... .......................................................................... . . . . . . . . . . . . . .......................................................... ........................................... ..................................... ..................................... . ............................. . .........................
A∩B =∅
Als Illustration diene der zweifa he Würfelwurf mit der Ergebnismenge Ω := {(i,j) : i,j ∈ {1,2,3,4,5,6}}, wobei i die Augenzahl des ersten und j die Augenzahl des zweiten Wurfes angibt. Den ans hauli h bes hriebenen Ereignissen
• der erste Wurf ergibt eine Fünf, • die Augensumme aus beiden Würfen ist hö hstens fünf, • der zweite Wurf ergibt eine höhere Augenzahl als der erste Wurf
10
2 Ereignisse
entspre hen die formalen Ereignisse
A := {(5,1),(5,2),(5,3),(5,4),(5,5),(5,6)} = {(5,j) : 1 ≤ j ≤ 6 }, B
:= {(1,1),(1,2),(1,3),(1,4),(2,1),(2,2),(2,3),(3,1),(3,2),(4,1)} = {(i,j) ∈ Ω : i + j ≤ 5},
C
:= {(1,2),(1,3),(1,4),(1,5),(1,6),(2,3),(2,4),(2,5),(2,6), (3,4),(3,5),(3,6),(4,5),(4,6),(5,6)} = {(i,j) ∈ Ω : i < j}.
Es gilt A ∩ B = ∅, B \ C = {(1,1),(2,1),(2,2),(3,1),(3,2),(4,1)} und A ∩ C = {(5,6)}. Die Gegenereignisse A, B und C entspre hen den ans hauli hen Ereignissen
• der erste Wurf ergibt keine Fünf, • die Augensumme aus beiden Würfen ist gröÿer als fünf, • der zweite Wurf ergibt keine höhere Augenzahl als der erste Wurf. Zum Abs hluss dieses Ausuges in die Mengenlehre sei daran erinnert, dass für mengentheoretis he Verknüpfungen grundlegende Regeln wie zum Beispiel
Kommutativgesetze
• A ∪ B = B ∪ A, A ∩ B = B ∩ A • (A ∪ B) ∪ C = A ∪ (B ∪ C), (A ∩ B) ∩ C = A ∩ (B ∩ C)
Assoziativgesetze
• A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
Distributivgesetz
• (A ∪ B) = A ∩ B ,
(A ∩ B) = A ∪ B
Formeln von De Morgan
1
gelten. Da uns insbesondere die erste Formel von De Morgan des Öfteren begegnen wird, formulieren wir sie no h einmal in der Form
A1 ∪ A2 ∪ . . . ∪ An = A1 ∩ A2 ∩ . . . ∩ An
(2.1)
für den allgemeinen Fall von n Ereignissen. Die verbale Version hierzu lautet: Es tritt genau dann ni ht mindestens eines der Ereignisse A1 ,A2 , . . . ,An ein, wenn keines dieser Ereignisse, d.h. weder A1 no h A2 . . . no h An , eintritt.
1
Augustus De Morgan (18061871), 18281831 und 18361866 Professor am University College in London, 1866 Mitbegründer und erster Präsident der London Mathemati al So iety. De Morgan s hrieb Arbeiten zu fast allen Teilgebieten der Mathematik, au h zur Wahrs heinli hkeitstheorie. 1838 prägte er den Begri der Mathematis hen Induktion. Hauptarbeitsgebiete: Mathematis he Logik und Ges hi hte der Mathematik.
11
Übungsaufgaben Ü 2.1 Es seien
A, B, C
Ereignisse in einem Grundraum
Ω.
Geben Sie die folgenden Ereignisse
in Mengens hreibweise an: a) Es tritt
A,
aber weder
B
no h
C
ein.
b) Es treten genau zwei der drei Ereignisse ein.
) Es tritt hö hstens eines der drei Ereignisse ein. Ü 2.2 Es seien
Ω
ein Grundraum und
A1 , . . . ,An
Ereignisse. Bes hreiben Sie die folgenden
Ereignisse mengentheoretis h: a) Keines der Ereignisse
A1 , . . . ,An
b) Genau eines der Ereignisse
) Genau
n−1
tritt ein.
A1 , . . . ,An
der Ereignisse
tritt ein.
A1 , . . . ,An
treten ein.
Ü 2.3 Eine 1-Euro-Münze wird dreimal geworfen. Es sei
mal hintereinander
Zahl
B das A ∩ B,
ers heint und
liefern. Bestimmen Sie: a)
A ∪ B,
b)
Ü 2.4 Bes hreiben Sie das Ereignis
B\C
A
das Ereignis, dass mindestens zwei-
Ereignis, dass alle Würfe das glei he Ergebnis
)
A \ B,
d)
A ∪ B.
im Beispiel des zweimal hintereinander ausgeführten
Würfelwurfes verbal. Ü 2.5 Zeigen Sie: Für Ereignisse
A,B ⊆ Ω
gilt
A ∪ B = (A \ B) + (B \ A) + A ∩ B.
Lernziele Sie sollten wissen, dass Ereignisse Teilmengen eines Grundraumes sind, und verbal formulierte Ereignisse als geeignete Mengen angeben können. Sie sollten ferner
• mit Ereignissen mengentheoretis h re hnen können und die Begriffsbildungen
• Elementarereignis, • Gegenereignis (komplementäres Ereignis) sowie
• unvereinbare (disjunkte) Ereignisse kennen.
12
3
Zufallsvariablen
Viele Ereignisse lassen si h gerade deshalb so einfa h in Worten bes hreiben, weil sie si h auf ein bestimmtes Merkmal der Ausgänge eines Zufallsexperimentes beziehen. Sol he Merkmale sind beispielsweise die gröÿte Augenzahl oder die Summe der Augenzahlen beim wiederholten Würfelwurf. Der ans hauli hen Vorstellung von einem Merkmal entspri ht im mathematis hen Modell für ein Zufallsexperiment der Begri einer Zufallsvariablen. In diesem Kapitel lernen wir Zufallsvariablen als natürli hes und suggestives Darstellungsmittel für Ereignisse kennen. Dass diese Namensgebung au h hält, was sie verspri ht, nämli h eine mit dem Zufall variierende Gröÿe, zeigt die folgende formale Denition. 3.1 Denition
Ist Ω ein Grundraum, so heiÿt jede Abbildung
X : Ω → IR von Ω in die Menge IR der reellen Zahlen eine Zufallsvariable (auf Ω). In der Interpretation von Ω als Menge der mögli hen Ergebnisse eines Zufallsexperimentes können wir eine Zufallsvariable X als eine Vors hrift ansehen, die jedem Ausgang ω des Experimentes eine reelle Zahl X(ω) zuordnet. Der Wert X(ω) heiÿt au h Realisierung der Zufallsvariablen zum Ausgang ω . Steht z.B. Ω für die Menge der mögli hen Ausgänge eines Glü ksspiels, so könnte X(ω) der Gewinn sein, den eine Person beim Ausgang ω des Spiels erhält (wobei ein negativer Wert einen Verlust darstellt). Als mathematis hes Objekt ist X eine reellwertige Funktion mit dem Denitionsberei h Ω. Dabei hat es si h in der Sto hastik eingebürgert, Zufallsvariablen mit groÿen lateinis hen Bu hstaben aus dem hinteren Teil des Alphabetes, also Z,Y,X, . . ., und ni ht mit vertrauteren Funktionssymbolen wie z.B. f oder g zu bezei hnen. 3.2 Beispiel
Wir betra hten den zweifa hen Würfelwurf mit der Ergebnismenge Ω := {(i,j) : i,j ∈ {1,2,3,4,5,6}} und der Deutung von i und j als Ergebnis des ersten bzw. zweiten Wurfes. Setzt man
X(ω) := i + j,
ω = (i,j),
so steht die Zufallsvariable X für die Augensumme aus beiden Würfen. Oenbar sind als Realisierungen von X die Werte 2, 3, 4, . . . ,10, 11, 12 mögli h.
13 An diesem Beispiel wird deutli h, dass wir allein aufgrund der Information über die Realisierung von X , d.h. über den beoba hteten Wert der Augensumme, im Allgemeinen ni ht den genauen Ausgang ω des Experimentes rekonstruieren können. So kann etwa die Augensumme 4 von jedem der drei Ergebnisse (1,3), (2,2) und (3,1) herrühren. Dies liegt daran, dass die Zufallsvariable X ni ht mehr zwis hen Ergebnissen ω mit glei her Augensumme X(ω) unters heidet. S hreiben wir abkürzend
{X = k} := {ω ∈ Ω : X(ω) = k}
(3.1)
für das Ereignis, dass X den Wert k annimmt (in diesem Sinn ist etwa beim zweifa hen Würfelwurf {X = 3} = {(1,2),(2,1)}), so können wir die Ereignisse {X = k} (k = 2,3, . . . ,11,12) als Elementarereignisse eines Experimentes ansehen, bei dem ni ht ω , sondern X(ω) als Ausgang beoba htet wird. Jedes dur h die Zufallsvariable X bes hreibbare Ereignis ist eine Vereinigung der für vers hiedene Werte von k unvereinbaren Ereignisse in (3.1). Als Beispiele zum Würfelwurf betra hten wir die ans hauli hen Ereignisse
• die Augensumme ist mindestens 10, • die Augensumme liegt zwis hen 3 und 8, • die Augensumme ist kleiner als 7, wel he si h mit Hilfe von X unter Bea htung der Summens hreibweise für Vereinigungen disjunkter Ereignisse in der Form
• {X ≥ 10} = {X = 10} + {X = 11} + {X = 12}, • {3 ≤ X ≤ 8} = • {X < 7} = darstellen lassen.
6 X k=2
8 X k=3
{X = k},
{X = k}
Ist Ω eine endli he Menge, so kann eine Zufallsvariable X au h nur endli h viele vers hiedene Werte X(ω) annehmen. Da X eine gewisse Information über das Ergebnis eines Zufallsexperimentes vermitteln soll, werden im Normalfall (wie im obigen Beispiel) vers hiedene Elemente aus Ω dur h X auf denselben Wert abgebildet. Diese Tatsa he bedeutet, dass der Werteberei h
X(Ω) := {X(ω) : ω ∈ Ω}
von X im Falle eines endli hen Grundraums Ω häug deutli h weniger Elemente als Ω enthält.
14
3 Zufallsvariablen
3.3 Arithmetik mit Zufallsvariablen
Mit den Zufallsvariablen X und Y auf einem Grundraum Ω ist au h die dur h
(X + Y )(ω) := X(ω) + Y (ω),
ω ∈ Ω,
denierte Summe von X und Y eine Zufallsvariable auf Ω. In glei her Weise, d.h. elementweise auf Ω, sind die Dierenz X − Y , das Produkt X · Y , das Maximum max(X,Y ) und das Minimum min(X,Y ) deniert. Weiter ist mit a ∈ IR au h das afa he a · X einer Zufallsvariablen X , deniert dur h
(a · X)(ω) := a · X(ω),
ω ∈ Ω,
eine Zufallsvariable auf Ω. Denieren wir z.B. in der Situation des zweifa hen Würfelwurfes von Beispiel 3.2 die Zufallsvariablen X1 und X2 dur h
X1 (ω) := i, X2 (ω) := j,
ω = (i,j)
(ans hauli h steht Xk für das Ergebnis des k ten Wurfes, k = 1,2), so bes hreibt X = X1 + X2 gerade die Augensumme aus beiden Würfen. Natürli h ist es au h mögli h, in Analogie zu (3.1) Ereignisse zu denieren, die dur h mehr als eine Zufallsvariable bes hrieben werden. Beispiele hierfür sind
{X ≤ Y } = {ω ∈ Ω : X(ω) ≤ Y (ω)}, {X 6= Y } = {ω ∈ Ω : X(ω) 6= Y (ω)}, {X − 2 · Y > 0} = {ω ∈ Ω : X(ω) − 2 · Y (ω) > 0} usw. (siehe au h Übungsaufgabe 3.2). 3.4 Indikatorfunktionen
Besondere Bedeutung besitzen Zufallsvariablen, die das Eintreten oder Ni hteintreten von Ereignissen bes hreiben. Ist A ⊆ Ω ein Ereignis, so heiÿt die dur h 1, falls ω ∈ A (ω ∈ Ω) 1A (ω) := 0, sonst denierte Zufallsvariable 1A die Indikatorfunktion von A bzw. der Indikator von A (von lat. indi are: anzeigen). Anstelle von 1A s hreiben wir häug au h 1{A}. In der Tat zeigt die Realisierung von 1A an, ob das Ereignis A eingetreten ist ( 1A (ω) = 1) oder ni ht ( 1A (ω) = 0). Für die Ereignisse Ω und ∅ gilt oenbar 1Ω (ω) = 1 bzw. 1∅ (ω) = 0 für jedes ω aus Ω. Als nützli he Regel für den Umgang mit Indikatorfunktionen merken wir uns, dass der Indikator des Dur hs hnittes A ∩ B zweier Ereignisse A und B glei h dem Produkt der Indikatorfunktionen von A und B ist, d.h. dass gilt: 1A∩B (ω)
=
1A (ω) · 1B (ω)
für jedes ω aus Ω.
(3.2)
15 Um Glei hung (3.2) einzusehen, unters heiden wir die beiden Fälle ω ∈ A ∩ B und ω ∈ / A ∩ B . Im ersten Fall ist die linke Seite von (3.2) glei h 1, aber au h die re hte Seite, da ω sowohl zu A als au h zu B gehört. Im zweiten Fall ist die linke Seite von (3.2) glei h 0, aber au h die re hte Seite, weil mindestens einer der Faktoren glei h 0 ist (de Morgans he Formel A ∩ B = A ∪ B !). In glei her Weise ergibt si h die Produktdarstellung 1{A1
∩ A2 ∩ . . . ∩ A n } =
1{A1 } · 1{A2 } · . . . · 1{An }
(3.3)
der Indikatorfunktion des Dur hs hnittes von n Ereignissen A1 ,A2 , . . . ,An . Dabei ist (3.3) eine Glei hung zwis hen Zufallsvariablen und somit wie (3.2) elementweise auf Ω zu verstehen. Setzt man in (3.2) speziell B = A, so folgt wegen A ∩ A = A die für spätere Zwe ke wi htige Glei hung 1A
=
1A
·
1A
=
2
(3.4)
1A .
Eine einfa he, aber nützli he Beziehung ist au h 1A
=
1Ω
−
(3.5)
1A ,
also 1A (ω) = 1 − 1A (ω) für jedes ω aus Ω (Übungsaufgabe 3.1 a) ). 3.5 Zählvariablen als Indikatorsummen
Sind Ω ein Grundraum und A1 ,A2 , . . . ,An Ereignisse, so ist es in vielen Fällen von Bedeutung, wie viele der Ereignisse A1 ,A2 , . . . ,An eintreten. Diese Information liefert die Indikatorsumme
X :=
1{A1 }
+
1{A2 }
+ ... +
1{An }.
(3.6)
Werten wir nämli h die re hte Seite von (3.6) als Abbildung auf Ω an der Stelle ω aus, so ist der j te Summand glei h 1, wenn ω zu Aj gehört, also das Ereignis Aj eintritt (bzw. glei h 0, wenn ω ni ht zu Aj gehört). Die in (3.6) denierte Zufallsvariable X bes hreibt somit die Anzahl der eintretenden Ereignisse unter A1 ,A2 , . . . ,An . Das Ereignis {X = k} tritt dann und nur dann ein, wenn genau k der n Ereignisse A1 ,A2 , . . . ,An eintreten. Die dabei überhaupt mögli hen Werte für k sind 0,1,2, . . . ,n, d.h. es gilt X(Ω) ⊆ {0,1,2, . . . ,n}. Speziell gilt
{X = 0} = A1 ∩ A2 ∩ . . . ∩ An , {X = n} = A1 ∩ A2 ∩ . . . ∩ An .
Weiter bes hreiben und
{X ≤ k} = {ω ∈ Ω : X(ω) ≤ k} {X ≥ k} = {ω ∈ Ω : X(ω) ≥ k}
die Ereignisse, dass hö hstens k bzw. mindestens k der Aj eintreten. Da eine Zufallsvariable X der Gestalt (3.6) die eintretenden Aj (j = 1,2, . . . ,n) zählt, nennen wir Indikatorsummen im Folgenden au h Zählvariablen .
16
3 Zufallsvariablen
3.6 Beispiel
Das Standardbeispiel für eine Zählvariable ist die in einer Versu hsreihe erzielte Trefferzahl. Hierzu stellen wir uns einen Versu h mit zwei mögli hen Ausgängen vor, die wir Treer und Niete nennen wollen. Dieser Versu h werde n mal dur hgeführt. Beispiele für sol he Versu he sind Treer = ˆ Se hs , Niete = ˆ keine Se hs ,
• der Würfelwurf:
ˆ Augensumme ≥ 9 , • der dreifa he Würfelwurf: Treer = ˆ Augensumme < 9 , Niete =
Treer = ˆ Zahl , Niete = ˆ Wappen . Bes hreiben wir den Ausgang Treer dur h die Zahl 1 und den Ausgang Niete dur h die Zahl 0, so ist • der Münzwurf:
Ω := {(a1 ,a2 , . . . ,an ) : aj ∈ {0,1} für j = 1, . . . ,n} = {0,1}n ein adäquater Grundraum für das aus n einzelnen Versu hen bestehende Gesamtexperiment. Dabei wird aj als Ergebnis des j ten Versu hs angesehen. Da das Ereignis Aj := {(a1 ,a2 , . . . ,an ) ∈ Ω : aj = 1} genau dann eintritt, wenn der j te Versu h einen Treer ergibt (j = 1, . . . ,n), können wir die Zufallsvariable X := 1{A1 } + . . . + 1{An } als Anzahl der in den n Versu hen erzielten Treer deuten. Aufgrund der speziellen Wahl des Grundraums gilt hier oenbar
X(ω) = a1 + a2 + . . . + an ,
ω = (a1 ,a2 , . . . ,an ).
Übungsaufgaben Ü 3.1 Es seien
a) 1A
=
b) 1A∪B
)
A
−
1Ω
=
und
1A
A ⊆ B ⇐⇒
B
Ereignisse in einem Grundraum
Ω.
Zeigen Sie:
1A ,
+ 1A
1B
≤
−
1A∩B ,
1B .
Treer (1) und Niete (0) werde 2 · nmal n Versu he bilden die erste (bzw. zweite) Versu hsreihe.
Ü 3.2 Ein Versu h mit den mögli hen Ergebnissen
dur hgeführt. Die ersten (bzw. zweiten)
Bes hreiben Sie folgende Ereignisse mit Hilfe geeigneter Zählvariablen: a) In der ersten Versu hsreihe tritt mindestens ein Treer auf. b) Bei beiden Versu hsreihen treten glei h viele Treer auf.
) Die zweite Versu hsreihe liefert mehr Treer als die erste. d) In jeder Versu hsreihe gibt es mindestens eine Niete.
17 Ü 3.3 In der Situation von Beispiel 3.2 (zweifa her Würfelwurf ) bezei hne die Zufallsvariable
Xk das Ergebnis des k ten Wurfes (k = 1,2). Wel hen Werteberei h besitzen die Zufallsvariablen a)
X1 − X2 ,
b)
X1 · X 2 ,
)
X1 − 2 · X2
?
Ü 3.4 Ein Würfel wird hö hstens dreimal geworfen. Ers heint eine Se hs zum ersten Mal im
j ten Wurf (j = 1,2,3), so erhält eine Person aj Euro, und das Spiel ist beendet. Hierbei sei a1 = 100, a2 = 50 und a3 = 10. Ers heint au h im dritten Wurf no h keine Se hs, so sind 30 Euro an die Bank zu zahlen, und das Spiel ist ebenfalls beendet. Bes hreiben Sie den Spielgewinn mit Hilfe einer Zufallsvariablen auf einem geeigneten Grundraum.
LernzielKontrolle Was ist (bzw. sind)
• eine Zufallsvariable? • die Summe, das Produkt, die Dierenz, das Maximum, das Minimum und das a fa he von Zufallsvariablen? • eine Indikatorfunktion? • eine Zählvariable?
18
4
Relative Häugkeiten
Jeder wird die Chan e, beim Wurf einer Euromünze Zahl zu erhalten, höher eins hätzen als die Chan e, beim Würfelwurf eine Se hs zu werfen. Eine einfa he Begründung hierfür mag sein, dass es beim Wurf einer Münze nur zwei, beim Würfelwurf hingegen se hs mögli he Ergebnisse gibt. S hwieriger wird das Problem der Chan eneins hätzung s hon beim Wurf einer Reiÿzwe ke auf einen Steinboden mit den beiden mögli hen Ergebnissen Spitze na h oben (wir symbolisieren diesen Ausgang mit 1) und Spitze s hräg na h unten (dieser Ausgang sei mit 0 bezei hnet). Hier ist es keineswegs klar, ob wir eher auf den Ausgang 1 oder auf den Ausgang 0 wetten sollten. Um ein Gefühl für eine mögli he Präferenz des Zufalls in dieser Situation zu erhalten, wurde in Familienarbeit eine Reiÿzwe ke 300 mal geworfen. Tabelle 4.1 zeigt die in zeitli her Reihenfolge zeilenweise notierten Ergebnisse.
0 0 1 0 1 1 0 1 0 1
0 1 0 0 0 1 0 0 1 1
0 1 1 0 0 0 0 0 0 0
1 0 0 0 0 1 1 1 1 0
0 0 0 1 0 0 1 1 0 1
0 0 0 1 1 0 1 1 0 1
0 1 1 0 0 0 0 1 1 0
1 0 0 1 0 0 1 1 0 1
1 1 0 0 1 0 0 1 1 0
0 1 1 0 1 1 1 0 1 1
Tabelle 4.1
1 0 1 0 0 1 1 0 0 1
1 1 1 0 0 1 0 0 0 0
0 1 1 1 0 0 0 1 0 0
1 1 0 0 1 0 1 1 0 0
1 0 0 0 1 0 0 0 0 0
0 0 0 1 0 1 0 1 0 1
0 0 0 0 0 0 0 0 1 0
0 0 0 0 0 1 0 1 1 0
0 1 0 1 1 0 0 1 0 0
1 0 1 1 1 1 1 0 1 0
1 1 0 1 0 0 0 0 0 1
0 0 0 1 1 0 0 1 0 0
1 0 0 1 1 0 0 1 1 0
0 1 0 0 0 0 1 0 0 0
1 1 0 0 0 0 0 0 0 0
0 1 1 1 1 0 1 0 1 0
1 0 0 0 0 1 1 0 1 0
0 0 0 0 1 0 1 1 1 1
1 1 1 0 0 0 0 1 0 0
0 1 0 1 0 1 0 1 0 0
Ergebnisse von 300 Würfen mit einer Reiÿzwe ke
Einfa hes Auszählen ergibt, dass in 124 Fällen das Ergebnis 1 und in 176 Fällen das Ergebnis 0 auftrat. Aufgrund dieser Erfahrung mit dem Zufall würde man vermutli h bei dieser Reiÿzwe ke und diesem Steinboden die Chan e für das Auftreten einer 0 im Verglei h zur 1 bei einem weiteren Versu h etwas höher eins hätzen. Im Folgenden wollen wir versu hen, den Begri Chan e als Grad der Gewissheit zahlenmäÿig zu erfassen. Hierzu sei Ω ein Grundraum, der die mögli hen Ausgänge eines Zufallsexperimentes bes hreibe. Um den Gewissheitsgrad des Eintretens eines Ereig nisses A (A ⊆ Ω) zu bewerten, sei es uns wie im Fall der Reiÿzwe ke erlaubt, Erfahrungen zu sammeln, indem das Experiment wiederholt unter glei hen Bedingungen dur hgeführt und sein jeweiliger Ausgang notiert wird. Bezei hnet aj den Ausgang des j -ten Experimentes (j = 1, . . . ,n), so ergibt si h als Ergebnis einer n-maligen Dur hführung das nTupel a = (a1 , . . . ,an ). Um den Gewissheitsgrad von A zu bewerten, ist es nahe liegend, von der relativen Häugkeit
19
rn,a (A) :=
1 · |{j : j = 1, . . . ,n und aj ∈ A}| n
(4.1)
des Eintretens von A in den dur hgeführten Versu hen auszugehen. Dabei soll die S hreibweise rn,a betonen, dass diese relative Häugkeit ni ht nur von der Anzahl n der Versu he, sondern au h vom erhaltenen Datenvektor a abhängt. Relative Häugkeiten werden umgangsspra hli h meist als Prozentanteile ausgedrü kt. So bedeuten 34 von 50 Stimmen bei einer Wahl gerade 68% der abgegebenen Stimmen, was einer relativen Häugkeit von 0.68 entspri ht. Für unser Reiÿzwe kenbeispiel ist Ω = {0,1}, n = 300 und der Datenvektor a das zeilenweise gelesene 300Tupel aus Tabelle 4.1. Hier gilt
r300,a ({1}) =
124 176 = 0.413 . . . , r300,a ({0}) = = 0.586 . . . 300 300
Oenbar ist rn,a (A) in (4.1) umso gröÿer (bzw. kleiner), je öfter (bzw. seltener) das Ereignis A in den n Experimenten beoba htet wurde. Die beiden Extremfälle sind dabei rn,a (A) = 1 und rn,a (A) = 0, falls A in jedem bzw. in keinem der n Versu he eintrat. Selbstverständli h steht es uns frei, na h Dur hführung der n Versu he au h jedem anderen Ereignis als Teilmenge von Ω seine relative Häugkeit zuzuordnen. Dies bedeutet, dass wir das Ereignis A in (4.1) als variabel ansehen und die Bildung der relativen Häugkeit als Funktion der Ereignisse (Teilmengen von Ω) studieren können. Es ist lei ht einzusehen, dass die relative Häugkeit rn,a (·) bei gegebenem nTupel a als Funktion der mögli hen Ereignisse folgende Eigens haften besitzt:
0 ≤ rn,a (A) ≤ 1 für jedes A ⊆ Ω,
(4.2)
rn,a (Ω) = 1,
(4.3)
rn,a (A + B) = rn,a (A) + rn,a (B), falls A ∩ B = ∅.
(4.4)
Interpretieren wir rn,a (A) als empiris hen Gewissheitsgrad für das Eintreten von A aufgrund der im Datenvektor a der Länge n enthaltenen Erfahrung über den Zufall, so stellen die Beziehungen (4.2) (4.4) grundlegende Eigens haften dieses Gewissheitsgrades dar. Dabei besagt Glei hung (4.4), dass si h die Gewissheitsgrade zweier unvereinbarer Ereignisse bei der Bildung der Vereinigung dieser Ereignisse addieren. Es ist plausibel, dass wir z. B. im Fall n = 10 mit einem 10Tupel a und den Ergebnissen r10,a (A) = 2/10, r10,a (B) = 5/10 eher auf das Eintreten von B als auf das Eintreten von A in einem zukünftigen Experiment wetten und somit B einen höheren Gewissheitsgrad als A zubilligen würden. Aufgrund der spri hwörtli hen Unbere henbarkeit des Zufalls wissen wir aber au h, dass si h bei erneuter nmaliger Dur hführung des Experimentes ein im Allgemeinen anderes nTupel b = (b1 , . . . ,bn ) und somit eine andere relative Häugkeitsfunktion rn,b (·) ergeben wird. Sollte im obigen Zahlenbeispiel das Ereignis A öfter eingetreten sein als das Ereignis B , so würde si h dies in der Unglei hung r10,b (A) > r10,b (B) nieders hlagen.
20
4 Relative Häugkeiten
Andererseits ist au h einsi htig, dass die relative Häugkeit rn,a (A) eine umso stärkere Aussagekraft für den Gewissheitsgrad des Eintretens von A in einem zukünftigen Experiment besitzt, je gröÿer die Versu hsanzahl n ist. Dies liegt daran, dass relative Häugkeiten (ganz im Gegensatz zu absoluten Häugkeiten, die si h in (4.1) dur h Multiplikation mit n ergeben) bei einer wa hsender Anzahl von Experimenten, die wiederholt unter glei hen Bedingungen und unbeeinusst voneinander dur hgeführt werden, erfahrungsgemäÿ immer weniger uktuieren und somit immer stabiler werden. Als Zahlenbeispiel für dieses empiris he Gesetz über die Stabilisierung relativer Häugkeiten verwenden wir die Daten aus Tabelle 4.1. Bild 4.1 zeigt ein Diagramm der in Abhängigkeit von n, 1 ≤ n ≤ 300, aufgetragenen relativen Häugkeiten für das Ereignis {1}, wobei eine Stabilisierung deutli h zu erkennen ist. Es ers heint verlo kend, die Wahrs heinli hkeit eines Ereignisses A als empiris hen Ge wissheitsgrad des Eintretens von A bei unendli h groÿer Erfahrung dur h denjenigen Grenzwert zu denieren, gegen den si h die relative Häugkeit von A bei wa hsender Anzahl wiederholter Experimente erfahrungsgemäÿ stabilisiert. Dieser naive Versu h einer GrenzwertDenition s heitert jedo h s hon an der mangelnden Präzisierung des Adverbs erfahrungsgemäÿ und an der fehlenden Kenntnis des Grenzwertes. Wie sollte dieser Grenzwert z.B. für das Ereignis {1} bei den Reiÿzwe kenDaten von Tabelle 4.1 aussehen? Man bea hte insbesondere, dass das empiris he Gesetz über die Stabilisierung relativer Häugkeiten nur eine Erfahrungstatsa he und kein mathematis her Sa hverhalt ist. Zumindest logis h kann ni ht ausges hlossen werden, dass bei fortgesetztem Reiÿzwe kenwurf nur das Ergebnis Spitze na h oben auftritt! 0.5 0.45 0.4 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 Bild 4.1
0
50
100
150
200
250
300
Fortlaufend notierte relative Häugkeiten für 1 beim Reiÿzwe kenversu h
Trotz dieser S hwierigkeiten versu hte R. v. Mises1 im Jahre 1919, Wahrs heinli hkeiten mit Hilfe von Grenzwerten relativer Häugkeiten unter gewissen eins hränkenden 1
Ri hard Edler von Mises (18831953), ab 1909 Professor in Straÿburg. Im Ersten Weltkrieg Flugzeugkonstrukteur und Pilot bei der österrei his hungaris hen Luftwae. 1919 Professor in Dresden und ab 1920 Professor und Direktor des neu gegründeten Institutes für Angewandte Mathematik in Berlin. 1933 Emigration in die Türkei und dort Professor an der Universität in Istanbul. Ab
21 Bedingungen zu denieren. Obwohl dieser Versu h einer Axiomatisierung der Wahrs heinli hkeitsre hnung ni ht zum vollen Erfolg führte, beeinusste er jedo h die weitere Grundlagenfors hung in starkem Maÿe.
Übungsaufgaben Ü 4.1
Zeigen Sie: Für die in (4.1) denierte relative Häugkeitsfunktion
a)
rn,a (∅) = 0,
b)
rn,a (A) = 1 − rn,a (A),
)
rn,a (·)
gilt:
rn,a (A ∪ B) = rn,a (A) + rn,a (B) − rn,a (A ∩ B).
Ü 4.2 Im Zahlenlotto 6 aus 49 ergab si h na h 2058 Ausspielungen die unten stehende Tabelle
mit den absoluten Häugkeiten der gezogenen Zahlen ohne Berü ksi htigung der Zusatzzahl. a) Wie groÿ sind die relativen Häugkeiten der Zahlen 13, 32 und 43? b) Wie groÿ wäre die relative Häugkeit der einzelnen Zahlen, wenn jede Zahl glei h oft gezogen worden wäre? 1
2
3
4
5
6
7
252
259
263
244
255
259
244
8
9
10
11
12
13
14
236
262
242
241
248
198
243
15
16
17
18
19
20
21
244
243
266
255
267
244
277
22
23
24
25
26
27
28
260
238
237
255
264
257
223
29
30
31
32
33
34
35
238
242
262
292
259
229
250
36
37
38
39
40
41
42
261
258
274
257
253
257
263
43
44
45
46
47
48
49
248
240
239
262
238
267
283
Ü 4.3 In einem Saal benden si h 480 Frauen und 520 Männer. 630 Personen seien hö hstens
39 Jahre alt. 20 % aller Frauen seien mindestens 40 Jahre alt. Wieviel Prozent aller Männer sind hö hstens 39 Jahre alt?
(Ω = {1,2,3,4,5,6}) traten die Ergebnisse 4,1,1,6,2,4,5,1, a die relativen Häugkeiten A = {6}, b)A = {2,4,6}?
Ü 4.4 Bei 20 Würfen mit einem Würfel
3,3,5,2,4,2,2,1,6,5,5,3 auf. Wie groÿ sind für diesen Datenvektor
r20,a (A)
für die Ereignisse a)
Lernziele Sie sollten die Eigens haften (4.2) (4.4) relativer Häugkeiten verinnerli ht haben und si h der Problematik einer GrenzwertDenition der Wahrs heinli hkeit eines Ereig nisses bewusst sein. 1939 Professor für Aerodynamik und Angewandte Mathematik an der Harvard University, Boston. Hauptarbeitsgebiete: Numeris he Mathematik, Me hanik, Hydro und Aerodynamik, Sto hastik.
22
5
Grundbegrie der deskriptiven Statistik
Wohl jeder hat das Wort Statistik s hon einmal gehört oder benutzt. Es gibt Auÿenhandelsstatistiken, Bevölkerungsstatistiken, Wahlstatistiken, Arbeitslosenstatistiken, Insolvenzstatistiken, Betriebsstatistiken, S hadensstatistiken, Tuberkulosestatistiken, Einkommensstatistiken usw. Derartige Statistiken überhäufen uns tägli h mit Daten aus fast allen Lebensberei hen, und oft wird Statistik mit Zahlenkolonnen, Tabellen und gras hen Darstellungen glei hgesetzt. Diese verengte Si htweise der Statistik als amtli he Statistik institutionalisiert z.B. im Statistis hen Bundesamt mit Sitz in Wiesbaden und den Statistis hen Landesämtern spiegelt re ht gut den historis hen Ursprung des Begries Statistik wider1 . Übli herweise erfolgt heute eine Einteilung der Statistik in die bes hreibende (deskriptive) und in die beurteilende (s hlieÿende ) Statistik. Diese Einteilung ist insofern irreführend, als sie fäls hli herweise den Eindru k erwe kt, die bes hreibende Statistik sei frei von Beurteilungen. Obwohl eine der Hauptaufgaben der bes hreibenden Statistik die übersi htli he gras he und/oder tabellaris he Darstellung der für die jeweilige Fragestellung wesentli hen Aspekte vorliegender Daten ist, werden oft Ho hglanz Präsentationsgraken (z.B. bzgl. der Umsatzentwi klung eines Unternehmens) mit dem vorrangigen Ziel erstellt, die Beurteilung potenzieller Investoren zu beeinussen. 1
Die amtli he Statistik in Form von Volkszählungen gab es s hon im Altertum, wovon die Bibel beri htet. Im 18. Jahrhundert entstanden in vielen Ländern statistis he Zentralämter, die si h z.B. mit der Forts hreibung von Bevölkerungszahlen und Vermögenserhebungen bes häftigten. Als Universitätsstatistik wird die von Hermann Conring (16061681) begründete wissens haftli he Staatskunde
Wissens haft und Lehre von den Staatsmerkwürdigkeiten bezei hnet. Conring war ab 1632 Professor der Naturphilosophie, Medizin und Politik an der Universität in Helmstedt. Seine wi hals
tigste Leistung war die Etablierung der deuts hen Re htsges hi hte als wissens haftli he Disziplin. Der Jurist und Historiker Gottfried A henwall (17191772) denierte das Wort Statistik im Sinne von Staatskunde (ital. statista = Staatsmann). A henwall lehrte ab 1748 Staatskunde an der Universität in Göttingen. Ein weiterer wi htiger Vertreter dieser Universitätsstatistik war August Ludwig von S hlözer (17351809), 1765 Mitglied der Akademie und Professor für russis he Ges hi hte in St. Petersburg, 17691804 Professor für Weltges hi hte und Staatenkunde (Statistik) in Göttingen. Die politis he Arithmetik entstand in England und wurde begründet dur h John Graunt (16201674) und
(Sir) William Petty (16231687). Graunt war zunä hst Tu hhändler. Dur h sein 1662 ers hienenes Werk Natural and politi al observations upon the bills of mortality gilt er als Begründer der Biometrie und der Bevölkerungsstatistik. Petty studierte Medizin und lehrte ab a. 1650 Anatomie in Oxford; er gehörte 1660 zu den Gründungsmitgliedern der Royal So iety. Petty führte statistis he und demographis he Methoden in die politis he Ökonomie ein und gilt daher als bedeutender Vorläufer der klassis hen Nationalökonomie. Ein weiterer wi htiger Vertreter der politis hen Arithmetik war der Astronom, Geophysiker und Mathematiker Edmond Halley (16561742). Mit der Erstellung der Sterbetafeln der Stadt Breslau 1693 war er ein Pionier der Sozialstatistik. In Deuts hland wurde die politis he Arithmetik vor allem dur h den Pfarrer Johann Peter Süÿmil h (17071767) vertreten. Süÿmil h leistete bahnbre hende Arbeit für die Entwi klung der Bevölkerungsstatistik. Die deskriptive Statistik entwi kelte si h im 19. Jahrhundert aus der amtli hen Statistik, der Universitätsstatistik
und der politis hen Arithmetik.
23
5.1 Untersu hungseinheiten und Merkmale
Bei statistis hen Untersu hungen (Erhebungen) werden an geeignet ausgewählten Untersu hungseinheiten (Beoba htungseinheiten, Versu hseinheiten) jeweils die Werte eines oder mehrerer Merkmale festgestellt. Dabei ist ein Merkmal eine zu untersu hende Gröÿe der Beoba htungseinheit. Werte, die von Merkmalen angenommen werden können, heiÿen Merkmalsausprägungen. Tabelle 5.1 erläutert diese Begrisbildungen anhand einiger Beispiele. Untersu hungseinheit
Merkmal
Baum Baum Neugeborenes arbeitslose Person
Baumart S hadstufe Gröÿe (in m) S hulabs hluss
vollzeiterwerbstätige Person
Bruttoeinkommen im Jahr 2005 (in Euro)
Betonwürfel
Dru kfestigkeit (in 0.1 N/mm2 )
Tabelle 5.1
Ausprägungen
Ei he, Bu he, . . . 0,1,2,3,4 . . . ,49.5,50,50.5, . . . keiner, Sonders hule, Haupts hule, Real s hule, Gymnasium . . . ,29999, 30000, 30001, . . .
. . . ,399,400,401, . . .
Untersu hungseinheiten, Merkmale und ihre Ausprägungen
Bei Merkmalen wird grob zwis hen quantitativen (in natürli her Weise zahlenmäÿig erfassbaren) und qualitativen (artmäÿig erfassbaren) Merkmalen unters hieden. In Tabelle 5.1 sind Gröÿe bei der Geburt, Bruttoeinkommen sowie Dru kfestigkeit quantitative und Baumart, S hadstufe sowie S hulabs hluss qualitative Merkmale. Bei qualitativen Merkmalen unters heidet man weiter zwis hen nominalen und ordinalen Merkmalen. Bei einem nominalen Merkmal (von lat. nomen = Name) erfolgt die Klassizierung der Ausprägungen na h rein qualitativen Gesi htspunkten (Beispiele: Baumart, Nationalität, Hautfarbe). Eine Codierung der Merkmalsausprägungen im Computer ist daher völlig willkürli h. Im Gegensatz zu nominalen Merkmalen weisen die Ausprägungen ordinaler Merkmale wie z.B. S hadstufe oder S hulabs hluss eine natürli he Rangfolge auf. Die Codierung der Ausprägungen mit Hilfe von Zahlenwerten ist weitgehend willkürli h; sie sollte jedo h die natürli he Rangfolge widerspiegeln. Bei quantitativen Merkmalen unters heidet man zwis hen diskreten und stetigen Merkmalen. Die Ausprägungen eines diskreten Merkmals sind isolierte Zahlenwerte (Beispiele: Zahl der Mil hkühe pro Betrieb, Alter in Jahren). Im Verglei h dazu können die Ausprägungen eines stetigen Merkmals prinzipiell jeden Wert in einem Intervall annehmen (Beispiele: Gröÿe, Gewi ht, Länge). Aufgrund vereinbarter Messgenauigkeit sind
24
5 Grundbegrie der deskriptiven Statistik
die Übergänge zwis hen stetigen und diskreten Merkmalen ieÿend. So kann in Tabelle 5.1 die Gröÿe eines Neugeborenen (Messgenauigkeit 0.5 m) als diskretisiertes stetiges Merkmal angesehen werden. Im Folgenden treten überwiegend quantitative Merkmale auf. Da Merkmale in sto hastis hen Modellen dur h Zufallsvariablen bes hrieben werden, bezei hnen wir sie wie Zufallsvariablen mit groÿen lateinis hen Bu hstaben aus dem hinteren Teil des Alphabetes.
5.2 Grundgesamtheit und Sti hprobe
Die Menge der Untersu hungseinheiten, über die hinsi htli h eines oder mehrerer interessierender Merkmale eine Aussage gema ht werden soll, wird als Grundgesamtheit oder Population bezei hnet. Die Grundgesamtheit ist die Menge aller denkbaren Beoba htungseinheiten einer Untersu hung. Sie kann endli h oder unendli h groÿ sein und ist häug nur ktiv. Beispiele für endli he Grundgesamtheiten sind alle Ei hen eines bestimmten Areals oder alle land und forstwirts haftli hen Betriebe in Deuts hland zu einem bestimmten Sti htag. Eine ktive Grundgesamtheit ist z.B. die Menge aller im nä hsten Jahr geborenen Kälber im Hinbli k auf einen Mastversu h. Dass eine für wissens haftli he Untersu hungen notwendige eindeutige Festlegung einer Grundgesamtheit ni ht immer einfa h ist, wird am Beispiel der Arbeitslosenstatistik deutli h. So erfahren wir zwar jeden Monat die neuesten Arbeitslosenzahlen, wissen aber meist ni ht, dass na h Denition eine Person arbeitslos ist, wenn sie ohne Arbeitsverhältnis abgesehen von einer geringfügigen Bes häftigung ist und si h als Arbeit Su hende beim Arbeitsamt gemeldet hat ([SJB℄, S. 101). Problematis h ist, dass dur h politis h motivierte unters hiedli he Denitionen von Arbeitslosigkeit beim internationalen Verglei h von Arbeitslosenstatistiken glei hsam Apfel und Birnen in einen Topf geworfen werden. So bes hränkt si h etwa die Arbeitslosigkeit in Deuts hland ganz im Gegensatz zu den USA per Gesetz auf Personen unter 65 Jahre. 2 Eine Sti hprobe ist eine zufällig gewonnene endli he Teilmenge aus einer Grundgesamtheit, z.B. die Menge aller am 1.7.2005 einjährigen Bullen von 10 zufällig ausgewählten landwirts haftli hen Betrieben. Hat diese Teilmenge n Elemente, so spri ht man von einer Sti hprobe vom Umfang n. Sollten Sie in diesem Zusammenhang auf den Ausdru k repräsentative Sti hprobe stoÿen, seien Sie vorsi htig. Die suggestive Kraft des Begries Repräsentativität steht in keinem Verhältnis zu seiner tatsä hli hen inhaltli hen Leere (siehe z.B. [QUA℄). Hier ist zu sagen, dass nur ein Sti hprobenverfahren (d.h. die Vors hrift über die Gewinnung der zufälligen Sti hprobe aus der Grundgesamtheit) für einen interessierenden Aspekt eines bestimmten Merkmals repräsentativ sein kann. Repräsentativität bezieht si h dann darauf, dass dieser Aspekt (z.B. der Dur hs hnittswert eines quantitativen Merkmals über alle Elemente der Grundgesamtheit) aus den Merkmalswerten der Sti hprobe in einem zu präzisierenden Sinn gut ges hätzt wird (vgl. Kapitel 27). 2
Dieser Begri entstammt dem Hüttenwesen und rührt vom Ansti h des Ho hofens her.
25 Wir wollen uns ni ht weiter mit dem Problem der Datengewinnung bes häftigen, sondern der Frage na hgehen, wie die bei Experimenten, Befragungen, Zählungen o.Ä. anfallenden Daten bes hrieben, geordnet und zusammengefasst werden können. Eine Aufbereitung und übersi htli he Darstellung von Daten ges hieht u.a. mittels Graken und der Angabe statistis her Maÿzahlen. Dabei sei im Folgenden x1 ,x2 , . . . ,xn eine Sti hprobe vom Umfang n eines Merkmals X .
5.3 Empiris he Häugkeitsverteilung, Stab und Kreisdiagramm
Besitzt das Merkmal X genau s mögli he vers hiedene Ausprägungen a1 ,a2 , . . . ,as , so gelangen wir dur h Bildung der absoluten Häugkeiten
hj :=
n X i=1
1{xi
= aj }
(j = 1, . . . ,s, h1 + . . . + hs = n)
der Ausprägungen a1 , . . . ,as zur empiris hen Häugkeitsverteilung des Merkmals X in der Sti hprobe x1 , . . . ,xn . Dabei ist wie in Kapitel 3 allgemein 1{·} = 1 bzw. 1{·} = 0 gesetzt, falls die in {·} stehende Aussage zutrit bzw. ni ht zutrit. Anstelle von hj ist au h die Verwendung der relativen Häugkeiten (vgl. Kapitel 4)
rj :=
n hj 1 X = · n n i=1
1{xi
= aj }
(j = 1, . . . ,s, r1 + . . . + rs = 1)
oder der Prozentanteile 100 · rj % (j = 1, . . . ,s) übli h. Man bea hte jedo h, dass bei fehlender Kenntnis des Sti hprobenumfangs n die relativen Häugkeiten r1 , . . . ,rs ni ht zur Rekonstruktion von h1 , . . . ,hs ausrei hen. Empiris he Häugkeitsverteilungen können in tabellaris her Form oder gras h als Stab oder Kreisdiagramme dargestellt werden. Beim Stabdiagramm werden die absoluten bzw. relativen Häugkeiten als Funktion der Merkmalsausprägungen angezeigt, wobei hj bzw. rj die Länge des Stäb hens über aj ist. Das Kreisdiagramm ndet hauptsä hli h bei qualitativen Merkmalen Verwendung. Hier wird eine Kreisä he in Sektoren aufgeteilt, deren Flä hen proportional zu den (absoluten oder relativen) Häugkeiten der Ausprägungen sind. Als Beispiel betra hten wir das nominale Merkmal gewählte Partei der Untersu hungseinheit Stimmzettel bei der Wahl zum 16. Deuts hen Bundestag am 18. September 2005. Unter allen n = 47 287 988 gültigen Zweitstimmen ergibt si h die in Tabelle 5.2 dargestellte Häugkeitsverteilung. Bild 5.1 und Bild 5.2 zeigen das zugehörige Stab bzw. Kreisdiagramm.
26
5 Grundbegrie der deskriptiven Statistik Partei
Zweitstimmen
in Prozent
SPD CDU CSU GRÜNE F.D.P. Die Linke Sonstige
16 194 665 13 136 740 3 494 309 3 838 326 4 648 144 4 118 194 1 912 665
34.2 27.8 7.4 8.1 9.8 8.7 4.0
Tabelle 5.2
Stimmverteilung bei der Bundestagswahl 2005
6gültige Stimmen (in %)
40 30 20 10 SPD
CDU Bild 5.1
CSU
GRÜNE F.D.P. Die Linke Sonstige
Stabdiagramm zu Tabelle 5.2
5.4 Histogramm
Obwohl au h bei einem prinzipiell stetigen Merkmal wie Gröÿe oder Gewi ht bedingt dur h die vereinbarte Messgenauigkeit die oben behandelte Situation eines Merkmals mit endli h vielen mögli hen Ausgängen vorliegt, wäre die Anfertigung einer tabellaris hen empiris hen Häugkeitsverteilung wie in Abs hnitt 5.3 kaum zu empfehlen. Ist der Sti hprobenumfang n wesentli h kleiner als die Anzahl s der mögli hen Merkmalsausprägungen, so entsteht bei der Angabe aller absoluten Häugkeiten h1 , . . . ,hs zwangsläug ein spri hwörtli her Zahlenfriedhof mit sehr vielen Nullen, hervorgerufen dur h ni ht beoba htete Merkmalswerte. Abhilfe s hat hier eine Einteilung aller (reellen) Sti hprobenwerte x1 , . . . ,xn in sogenannte Klassen. Dabei ist eine Klasse ein zwe ks eindeutiger Zuordnung der Sti hprobenwerte halboenes Intervall der Form [a,b) := {x ∈ IR : a ≤ x < b}. Wählen wir s + 1 Zahlen a1 < a2 < · · · < as < as+1 und somit s disjunkte Klassen
27
SPD CDU Sonstige Die Linke CSU GRÜNE Bild 5.2
F.D.P.
Kreisdiagramm zu Tabelle 5.2
(5.1)
[a1 ,a2 ), [a2 ,a3 ), . . . , [as ,as+1 ),
die alle Sti hprobenwerte x1 , . . . ,xn enthalten, so erhalten wir eine gras he Darstellung der Sti hprobe in Gestalt eines Histogramms zur Klasseneinteilung (5.1), indem wir über jedem der Teilintervalle [aj ,aj+1 ) ein Re hte k erri hten. Die Flä he des Re hte ks über [aj ,aj+1 ) soll dabei glei h der zugehörigen relativen Klassenhäugkeit
kj :=
n 1 X · n i=1
1{aj
≤ xi < aj+1 }
(j = 1, . . . ,s)
sein. Die Höhe dj des Histogramms über dem Intervall [aj ,aj+1 ) bere hnet si h also aus der Glei hung
dj · (aj+1 − aj ) = kj
(5.2)
(j = 1, . . . ,s).
Als Beispiel betra hten wir die folgende Sti hprobe vom Umfang n = 100 (jährli he Mil hleistung von Kühen, in Vielfa hen von 100 Litern; entnommen aus [PRE℄, S. 17): 37.4
37.8
29.0
35.1
30.9
28.5
38.4
34.7
36.3
30.4
39.1
37.3
45.3
32.2
27.4
37.0
25.1
30.7
37.1
37.7
26.4
39.7
33.0
32.5
24.7
35.1
33.2
42.4
37.4
37.2
37.5
44.2
39.2
39.4
43.6
28.0
30.6
38.5
31.4
29.9
34.5
34.3
35.0
35.5
32.6
33.7
37.7
35.3
37.0
37.8
32.5
32.9
38.0
36.0
35.3
31.3
39.3
34.4
37.2
39.0
41.8
32.7
33.6
43.4
30.4
25.8
28.7
31.1
33.0
39.0
37.1
36.2
28.4
37.1
37.4
30.8
41.6
33.8
35.0
37.4
33.7
33.8
30.4
37.4
39.3
30.7
30.6
35.1
33.7
32.9
35.7
32.9
39.2
37.5
26.1
29.2
34.8
33.3
28.8
38.9
28
5 Grundbegrie der deskriptiven Statistik
Wählen wir a1 = 24, a2 = 27, a3 = 29.6, a4 = 32, a5 = 34.3, a6 = 36.5, a7 = 38.4, a8 = 40.5, a9 = 45.5, also s = 8 Klassen, so ergeben si h die relativen Klassenhäugkeiten zu k1 = 5/100, k2 = 8/100, k3 = 13/100, k4 = 18/100, k5 = 17/100, k6 = 20/100, k7 = 12/100 und k8 = 7/100. Mit (5.2) folgt d1 = k1 /(a2 − a1 ) = 0.0166 . . . usw. Bild 5.3 zeigt das zugehörige Histogramm.
0.1 0.08 0.06 0.04 0.02
.... ......... .. ..... ... ... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .. ........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
24
Bild 5.3
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
Histogramm (jährli he Mil hleistung von Kühen, in Vielfa hen von 100 l)
Die zur Anfertigung eines Histogramms notwendige Festlegung der Klassenanzahl s sowie der Klassenbreiten (Intervalllängen) ist immer √ mit einer gewissen Willkür behaftet. Eine Faustregel für die Klassenanzahl ist s ≈ n. Dabei sollten Klassen mit sehr wenigen Daten vermieden werden. Der häug betra htete Fall glei her Klassenbreiten hat den Vorteil, dass ni ht nur die Flä he, sondern au h die Höhe der Re hte ke proportional zu den jeweiligen Klassenhäugkeiten ist. 5.5 Stamm und BlattDarstellung
Die Stamm und BlattDarstellung liefert eine kompakte und übersi htli he Verans hauli hung einer Sti hprobe bei geringem Informationsverlust. Bild 5.4 zeigt eine Stamm- und BlattDarstellung der Mil hleistung von Kühen aus Abs hnitt 5.4. Für die Anfertigung dieser Stamm und BlattDarstellung wurden zunä hst die kleinste und die gröÿte Mil hleistung (24.7 bzw. 45.3) der Daten aus Abs hnitt 5.4 ermittelt. Da die beiden Vorkommastellen aller 100 Sti hprobenwerte somit nur die Werte 24,25, . . . ,44,45 sein können, liegt es nahe, diese ni ht immer wieder neu aufzuführen, sondern nur einmal als Stamm in vertikaler Ri htung aufzulisten. Die Konstruktion des Blattes entlang des Stammes ges hieht dann dur h Notieren der jeweils fehlenden Na hkommastelle bei Abarbeitung der Sti hprobe. Dabei wurden für Bild 5.4 die Daten aus 5.4 spaltenweise übertragen. Man bea hte, dass aus Bild 5.4 alle 100 Sti hprobenwerte bis auf ihre ursprüngli he Reihenfolge rekonstruierbar sind, sofern eine Einheit angegeben wird. Dabei sind vereinbarungsgemäÿ die Werte des Stammes ganzzahlige Vielfa he dieser Einheit (im obigen Beispiel 100 l). Die Ziern des Blattes bilden dann bezügli h der angegebenen Einheit Werte von nä hstkleinerer Dezimalordnung. Würden wir die Einheit 100 l z.B. dur h
29 24
7
25
8
1
26
4
1
27
4
28
4
5
0
29
0
2
9
7
8
30
4
9
4
31
3
1
4
8
7
6
6
7
32
5
9
33
7
8
7
9
2
5
6
9
0
6
7
2
8
34
5
3
0
3
8
7
4
35 36
7
0
1
5
3
1
3
1
0
2
0
3
37
4
5
1
8
3
1
4
5
4
38
0
4
5
9
39
1
7
2
2
4
3
3
0
0
41
8
6
42
4
43
4
44
2
4
7
0
7
1
4
0
2
7
2
8
4
40
45
↓
Stamm Bild 5.4
6
3
−→
Blatt Stamm und BlattDarstellung (n = 100, Einheit = 100 l)
100 ml ersetzen, so wären die Einträge in Bild 5.4 als 2470 ml, 2580 ml, 2510 ml, . . ., 4530 ml zu lesen. Dreht man die Stamm und BlattDarstellung aus Bild 5.4 um 900 gegen den Uhrzeigersinn, so ergibt si h der Eindru k eines Histogramms mit 22 Klassen und der Klassenbreite 1 dz. Ein weiterer Nutzen der Stamm und BlattDarstellung besteht darin, dass die ursprüngli he Sti hprobe bis zu einem gewissen Grad der Gröÿe na h vorsortiert ist und si h u.a. der Median (vgl. Abs hnitt 5.6) lei ht bestimmen lässt. Dass das Blatt einer Stamm und BlattDarstellung prinzipiell au h aus mehr als einer Zier bestehen kann, zeigt die zu den Werten 1014, 1223, 1130, 1047, 1351, 1234, 1407, 1170 (Längen in m) gehörende Stamm und BlattDarstellung 10 11 12 13 14
14 30 23 51 07
47 70 34
(Einheit = 100 m) mit einem ZweiZierBlatt.
30
5 Grundbegrie der deskriptiven Statistik
5.6 Lagemaÿe
Es seien x1 , . . . ,xn reelle Zahlen, die wir als Sti hprobe eines quantitativen Merkmals auassen wollen. Wir stellen uns das Problem, der Sti hprobe x1 , . . . ,xn eine Zahl l(x1 , . . . ,xn ) zuzuordnen, die ihre grobe Lage auf der Zahlengeraden bes hreibt. Dabei soll von einem sol hen Lagemaÿ l(x1 , . . . ,xn ) nur gefordert werden, dass si h sein Wert bei Vers hiebung jedes xj um den Wert a um genau diesen Wert a mitvers hiebt . Es soll also
l(x1 + a, . . . ,xn + a) = l(x1 , . . . ,xn ) + a
(5.3)
für jede Wahl von x1 , . . . ,xn , a ∈ IR gelten. Das gebräu hli hste Lagemaÿ ist das arithmetis he Mittel
x :=
n 1 1 X xj ; · (x1 + · · · + xn ) = · n n j=1
es wird umgangsspra hli h au h als Mittelwert oder Dur hs hnitt von x1 , . . . ,xn bezei hnet. Physikalis h bes hreibt x den S hwerpunkt der dur h glei he Massen in x1 , . . . ,xn gegebenen Massenverteilung auf der als gewi htslos angenommenen Zahlengeraden (siehe au h Kapitel 12). Tritt in der Sti hprobe x1 , . . . ,xn der Wert ai genau hi mal auf (i = 1,2, . . . ,s, h1 + · · · + hs = n), so bere hnet si h x gemäÿ
x =
s X i=1
gi · ai
als gewi htetes Mittel von a1 , . . . ,as mit den Gewi hten
gi :=
hi n
(i = 1, . . . ,s).
Ni ht zu verwe hseln mit dem arithmetis hen Mittel sind das geometris he Mittel und das harmonis he Mittel (siehe Übungsaufgabe 5.6 bzw. 5.7). Beides sind keine Lagemaÿe im Sinne von (5.3). Ein weiteres wi htiges Lagemaÿ ist der empiris he Median (Zentralwert) von x1 , . . . ,xn . Zu seiner Bestimmung werden die Daten x1 , . . . ,xn der Gröÿe na h sortiert. Bezei hnet dabei x(j) den j kleinsten Wert, also insbesondere
x(1) = min xj , 1≤j≤n
x(n) = max xj 1≤j≤n
(5.4)
den kleinsten bzw. den gröÿten Wert, so heiÿt die der Gröÿe na h sortierte Reihe
x(1) ≤ x(2) ≤ · · · ≤ x(n−1) ≤ x(n)
(5.5)
die geordnete Sti hprobe von x1 , . . . ,xn . Diese Begrisbildung ist in Tabelle 5.3 verans hauli ht.
31
j xj x(j)
1 8.5 1.5
2 1.5 2.5
Tabelle 5.3
3 75 3.0
4 4.5 3.0
5 6.0 4.5
6 3.0 6.0
7 3.0 6.0
8 2.5 8.5
9 6.0 9.0
10 9.0 75
Sti hprobe und geordnete Sti hprobe
Der empiris he Median (Zentralwert) x1/2 von x1 , . . . ,xn ist deniert als ( , falls n eine ungerade Zahl ist x( n+1 ) 2 x1/2 := 1 , falls n eine gerade Zahl ist. 2 · x( n ) + x( n +1) 2
2
Dur h diese Festlegung wird errei ht, dass mindestens 50 % aller xj kleiner oder glei h x1/2 und mindestens 50 % aller xj gröÿer oder glei h x1/2 sind. Für die Daten aus Tabelle 5.3 (n = 10) ist x1/2 = (x(5) + x(6) )/2 = (4.5 + 6.0)/2 = 5.25. Anhand der Daten aus Tabelle 5.3 wird au h ein wi htiger Unters hied zwis hen dem arithmetis hen Mittel x und dem Median x1/2 deutli h. Das im Verglei h zum Median relativ groÿe arithmetis he Mittel x = 11.9 verdankt seinen Wert allein dem ungewöhnli h groÿen Sti hprobenelement x3 = 75. Da dieser Wert relativ weit von den übrigen, im Berei h zwis hen 1.5 und 9.0 liegenden Daten entfernt ist, wollen wir ihn als Ausreiÿer bezei hnen. Derartige Ausreiÿer treten bei Datensätzen häug auf. Im obigen Beispiel könnte z.B. ein fehlender Dezimalpunkt (7.5 anstelle von 75) den Ausreiÿer 75 verursa ht haben. Da zur Bildung von x alle Sti hprobenwerte mit glei hem Gewi ht 1/n eingehen, ist das arithmetis he Mittel x extrem ausreiÿeranfällig. Im Gegensatz dazu ist der Zentralwert x1/2 robust (unempndli h) gegenüber dem Auftreten etwaiger Ausreiÿer. So kann in Tabelle 5.3 au h der zweitgröÿte Wert 9.0 beliebig vergröÿert werden, ohne den Zentralwert zu ändern. Die Ausreiÿeranfälligkeit und somit oft geringe Aussagekraft des arithmetis hen Mittels zeigt si h z.B. bei der Angabe des Dur hs hnittseinkommens. Wenn neun Personen ein monatli hes Bruttoeinkommen von jeweils 3 000 Euro haben und eine Person als Krösus mit 43000 Euro aus der Reihe tanzt, so beträgt das monatli he Dur hs hnittseinkommen aller 10 Personen stattli he 7 000 Euro. Um diesen Krösuseekt abzumildern, bleiben etwa bei der statistis hen Erfassung des Haushaltsbruttoeinkommens Haushalte mit einem Nettoeinkommen von mindestens 17 895 Euro unberü ksi htigt ([SJB℄, S. 570). In Verallgemeinerung des empiris hen Medians heiÿt für eine Zahl p mit 0 < p < 1 x([n·p+1]) / IN, , falls n · p ∈ xp := 1 , falls n · p ∈ IN, 2 · x(n·p) + x(n·p+1)
das (empiris he) pQuantil von x1 , . . . ,xn . Dabei bezei hnet allgemein der Ausdru k [y] := max{k ∈ ZZ : k ≤ y} die gröÿte ganze Zahl, wel he kleiner oder glei h einer reellen Zahl y ist, also z.B. [1.2] = 1, [−0.3] = −1, [5] = 5.
32
5 Grundbegrie der deskriptiven Statistik
Die obige Festlegung bewirkt, dass mindestens p · 100% aller Sti hprobenwerte kleiner oder glei h xp und mindestens (1 − p) · 100% aller Sti hprobenwerte gröÿer oder glei h xp sind. Das pQuantil xp teilt also grob gespro hen die geordnete Sti hprobe im Verhältnis p zu 1 − p auf. Neben dem empiris hen Median als 0.5Quantil besitzen au h weitere häug verwendete Quantile eigene Namen. So heiÿen x0.25 und x0.75 das untere bzw. obere Quartil und xj·0.1 das j te Dezil (j = 1, . . . ,9). Für die Daten aus Tabelle 5.3 gilt z.B. x0.25 = x([3.5]) = 3.0 und x0.8 = 12 · (x(8) + x(9) ) = 8.75. Als weiteren Vertreter aus der Gruppe der Lagemaÿe betra hten wir das dur h
xt,α
:= =
1 · x(k+1) + x(k+2) + · · · + x(n−k−1) + x(n−k) n−2·k n−k X 1 x(j) · n−2·k j=k+1
denierte αgetrimmte Mittel (au h: αgestutztes oder α · 100%getrimmtes Mittel) von x1 , . . . ,xn . Hierbei sind α eine Zahl mit 0 < α < 1/2 und k := [n · α]. Als arithmetis hes Mittel, das grob gespro hen die α · 100% gröÿten und die α · 100% kleinsten Daten auÿer A ht lässt, stellt xt,α ein exibles Instrument gegenüber potenziellen Ausreiÿern dar. So ignoriert etwa das 10%getrimmte Mittel der Daten aus Tabelle 5.3 den Ausreiÿer 75 und liefert den Wert xt,0.1 = (x(2) + · · · + x(9) )/8 = 5.3125. Setzen wir formal α = 0, so geht das αgetrimmte Mittel in das arithmetis he Mittel x über. Vergröÿern wir hingegen den Trimmungsanteil α bis zu seinem gröÿtmögli hen Wert (man bea hte, dass der Nenner n − 2 · k in der Denition von xt,α positiv bleiben muss!), so ergibt si h der empiris he Median x1/2 (Übungsaufgabe 5.2). 5.7 Streuungsmaÿe
Jedes Lagemaÿ wie das arithmetis he Mittel s hweigt si h über die Streuung der Sti hprobenwerte um dieses Mittel völlig aus. So besitzen etwa die Sti hproben 9, 10, 11 und 0, 10, 20 das glei he arithmetis he Mittel 10. Die Werte der zweiten Sti hprobe streuen aber oenbar stärker um dieses Mittel als die Werte der ersten Sti hprobe. Die begrenzte Aussagekraft des Mittelwertes und die Eigens haft von Streuung als bisweilen sogar erwüns hte Gröÿe kommen treend im folgenden Gedi ht (dieses verdanken wir Herrn Professor Dr. P.H. List, siehe [KRF℄) zum Ausdru k: Ein Mens h, der von Statistik hört, denkt dabei nur an Mittelwert. Er glaubt ni ht dran und ist dagegen, ein Beispiel soll es glei h belegen: Ein Jäger auf der Entenjagd hat einen ersten S huss gewagt. Der S huss, zu hastig aus dem Rohr,
33 lag eine gute Handbreit vor. Der zweite S huss mit lautem Kra h lag eine gute Handbreit na h. Der Jäger spri ht ganz unbes hwert voll Glauben an den Mittelwert: Statistis h ist die Ente tot. Do h wär' er klug und nähme S hrot dies sei gesagt, ihn zu bekehren er würde seine Chan en mehren: Der S huss geht ab, die Ente stürzt, weil Streuung ihr das Leben kürzt. In diesem Abs hnitt werden vers hiedene Streuungsmaÿe vorgestellt. Im Gegensatz zu einem Lagemaÿ ändert si h der Wert eines Streuungsmaÿes σ(x1 , . . . ,xn ) bei Vers hiebungen der Daten ni ht, d.h. es gilt
σ(x1 + a,x2 + a, . . . ,xn + a) = σ(x1 , . . . ,xn )
(5.6)
für jede Wahl von x1 , . . . ,xn und a. Das klassis he Streuungsmaÿ ist die dur h
s2 :=
n X 1 (xj − x)2 · n−1
(5.7)
j=1
denierte empiris he Varianz oder Sti hprobenvarianz von x1 , . . . ,xn . Die Wurzel v u n X √ u 1 2 · s := s = t (5.8) (xj − x)2 n−1 j=1
aus s2 heiÿt empiris he Standardabwei hung oder Sti hprobenstandardabwei hung von x1 , . . . ,xn .
Man bea hte, dass dur h das sowohl historis h bedingte als au h mathematis h motivierte Quadrieren der Dierenzen xj − x in (5.7) positive und negative Abwei hungen der Daten vom Mittelwert in glei her Weise berü ksi htigt werden. Die Tatsa he, dass in der Denition von s2 dur h n − 1 und ni ht dur h das nahe liegende n dividiert wird, hat mathematis he Gründe (ein auf s2 basierendes S hätzverfahren ist unter bestimmten Voraussetzungen erwartungstreu für die in Kapitel 20 eingeführte Varianz einer Verteilung), auf die an dieser Stelle ni ht näher eingegangen werden kann. Viele Tas henre hner stellen hier beide Mögli hkeiten (Division dur h n und dur h n − 1) mittels eingebauter Funktionen bereit. Oenbar besitzen sowohl s2 als au h s die Eigens haft (5.6) der Invarianz gegenüber Vers hiebungen. Ausquadrieren in (5.7) und direktes Ausre hnen liefert die alternative Darstellung
34
5 Grundbegrie der deskriptiven Statistik 2
s
n X 1 2 2 · = xj − n · x , n−1
(5.9)
j=1
wel he jedo h dur h das eventuelle Auftreten groÿer Zahlen für Bere hnungen unzwe kmäÿig sein kann. Ein Na hteil von s2 und s ist wie beim arithmetis hen Mittel die Empndli hkeit gegenüber Ausreiÿern (vgl. das unten stehende Beispiel). Weitere Streuungsmaÿe sind
• die mittlere absolute Abwei hung
n 1 X |xj − x|, · n j=1
• die Sti hprobenspannweite x(n) − x(1) = max xj − min xj , 1≤j≤n
1≤j≤n
• der Quartilsabstand x3/4 − x1/4 (Dierenz zwis hen oberem und unterem Quartil) • und die als empiris her Median von |x1 − x1/2 |,|x2 − x1/2 |, . . . ,|xn − x1/2 | denierte MedianAbwei hung von x1 , . . . ,xn . Im Gegensatz zur ausreiÿerempndli hen Sti hprobenspannweite sind Quartilsabstand und MedianAbwei hung robuste Streuungsmaÿe. Zur Illustration der vorgestellten Streuungsmaÿe betra hten wir die Daten von Tabelle 5.3. Hier gilt (mit x = 11.9)
s2 =
1 · (8.5 − x)2 + (1.5 − x)2 + · · · + (9.0 − x)2 = 497.87 . . . , 9
s = 22.31 . . . ,
n 1 X |xj − x| = 12.62, · n j=1
x(n) − x(1) = 75 − 1.5 = 73.5, x3/4 − x1/4 = x(8) − x(3) = 8.5 − 3.0 = 5.5. Die der Gröÿe na h sortierten Werte |xj − x1/2 | (j = 1, . . . ,10) sind 0.75, 0.75, 0.75, 2.25, 2.25, 2.75, 3.25, 3.75, 3.75 und 69.75. Als empiris her Median dieser Werte ergibt si h die MedianAbwei hung der Daten aus Tabelle 5.3 zu 2.5. 5.8 Der Variationskoezient
Im Fall x1 > 0, . . . , xn > 0 heiÿt der Quotient
V :=
s x ¯
35 aus Standardabwei hung und arithmetis hem Mittel (empiris her) Variationskoezient von x1 ,...,xn . Der oft als Prozentzahl angegebene Variationskoezient bes hreibt die Stärke der relativen Streuung. Er bleibt unverändert, wenn jeder Wert xi mit der glei hen positiven Zahl a multipliziert wird, und hängt somit ni ht von der gewählten Maÿeinheit (z.B. Meter oder Zentimeter) ab. (Verglei h der Energieumsatzraten von Mens h und Spitzmaus) Um den Energieumsatz eines Organismus zu bestimmen, wird häug dessen Sauerstoverbrau h pro Stunde gemessen. Dabei nimmt der Energieumsatz pro Gewi htseinheit, die in [l O2 ·h−1 ·kg −1 ]) angegebene sogenannte spezis he Metabolismusrate, mit steigender Körpergröÿe ab. Eine Spitzmaus benötigt pro Gramm Körpergewi ht jede Minute 100 mal mehr Energie als groÿe Organismen wie Mens h, Pferd oder Elefant. Um diesen hohen Energiebedarf konstant zu halten, muss sie praktis h ununterbro hen Nahrung aufnehmen; ihre Atemfrequenz beträgt 300 Atemzüge pro Minute. Für die Spitzmaus wären groÿe S hwankungen der Energieumsatzrate tödli h, da sie so z.B. ihre Körpertemperatur ni ht konstant aufre hterhalten könnte. Beim Mens hen dagegen s hwankt der Sauerstoverbrau h pro Stunde erhebli h, je na hdem ob er si h in Ruhe bendet oder arbeitet. Eine 3 g s hwere Spitzmaus hat eine spezis he Metabolismusrate von 13.96 ml O2 /h · g im Tagesdur hs hnitt bei einer Standardabwei hung von 1.045 ml O2 /h · g . Die spezis he Metabolismusrate des Mens hen beträgt im Dur hs hnitt 0.39 l O2 /h · kg mit einer Standardabwei hung von 0.183 l O2 /h · kg . Für die Spitzmaus beträgt der Variationskoezient V = 0.075, für den Mens hen V = 0.468. Die relative Streuung der Energieumsatzrate ist (im Gegensatz zur Standardabwei hung) mit 7.5% bei der Spitzmaus erhebli h geringer als mit 46.8% beim Mens hen. 5.9 Beispiel
5.10 Der Box-Plot
Der Box-Plot , au h Kisten-Diagramm genannt, dient dem s hnellen visuellen Verglei h vers hiedener Sti hproben. Er benutzt Quantile zur gras hen Darstellung von Lage und Streuung, und er hebt potenzielle Ausreiÿer hervor. Zur Anfertigung des Box-Plots wird eine Kiste vom unteren zum oberen Quartil gezei hnet und beim Median unterteilt, wobei die Kistenbreite meist na h rein ästhetis hen Gesi htspunkten gewählt wird. Der Endpunkt des na h oben aufgesetzten Stabes ist die gröÿte Beoba htung, die kleiner als das obere Quartil plus das 1.5-fa he des Quartilsabstands, also kleiner als x3/4 + 1.5 · (x3/4 − x1/4 ) ist (sog. gröÿte normale Beoba htung). In glei her Weise ist der Endpunkt des na h unten angebra hten Stabes die kleinste Beoba htung, die gröÿer als x1/4 − 1.5 · (x3/4 − x1/4 ) ist (sog. kleinste normale Beoba htung). Extrem groÿe Beoba htungen und somit mögli he Ausreiÿer na h oben sind konventionsgemäÿ jene, die oberhalb der Grenze x3/4 + 1.5 · (x3/4 − x1/4 ) liegen; sie werden jeweils dur h einen Stern gekennzei hnet. Analog behandelt man extrem kleine Beoba htungen als potenzielle Ausreiÿer na h unten (siehe Bild 5.5). Als Beispiel zur Verwendung des Box-Plots dient eine an der Universität Karlsruhe (TH) dur hgeführte Untersu hung mit 140 Studierenden, in wel her unter anderem der Cadmiumgehalt im Blut (in µg pro Liter) bestimmt wurde. Dabei rei hen die erhaltenen
36
5 Grundbegrie der deskriptiven Statistik
Werte von 0 bis 3.7. Der empiris he Median beträgt 0.6; unteres und oberes Quartil sind 0.3 bzw. 0.8.
extrem groÿe Beoba htungen gröÿte normale Beoba htung
oberes Quartil Median unteres Quartil
-
Bild 5.5
4 3 2
∗ ∗ ∗ )
-
kleinste normale Beoba htung extrem kleine Beoba htungen
(
-
(
Der Box-Plot
x3/4 − x1/4
∗ ∗
∗ ∗ ∗
1 0 Bild 5.6
Box-Plots zum Cadmiumgehalt (in µg pro Liter) im Blut von Studierenden bei Ni htrau hern (links) und Rau hern (re hts)
Bei der Befragung, die die Studie begleitete, gaben 35 der 140 Studierenden an, zu rau hen. Unter diesen liegt der Median bei 0.9; unteres und oberes Quartil sind 0.65 bzw. 1.35. Im Gegensatz dazu ist der Median des Cadmiumgehalts unter den Ni htrau hern 0.5; unteres und oberes Quartil liegen bei 0.2 bzw. 0.7. Bild 5.6 zeigt Box-Plots des Cadmiumgehalts im Blut der Studierenden, getrennt na h Ni htrau hern (links) und Rau hern (re hts). Es ist deutli h zu erkennen, dass der Cadmiumgehalt der Ni htrau her tendenziell unter demjenigen der Rau her liegt. Auÿerdem variiert der Cadmiumgehalt der Ni htrau her wesentli h weniger als in der Gruppe der Rau her.
37
Übungsaufgaben Ü 5.1 Die unten stehenden Werte (entnommen aus [RIE℄, S.11) sind Dru kfestigkeiten (in 0.1
2 N/mm ), wel he an 30 Betonwürfeln ermittelt wurden. 374
358
341
355
342
334
353
346
355
344
349
330
352
328
336
359
361
345
324
386
335
371
358
328
353
352
366
354
378
324
a) Fertigen Sie eine Stamm und BlattDarstellung an. Bestimmen Sie b) das arithmetis he Mittel und den Zentralwert,
) die empiris he Varianz und die Standardabwei hung der Sti hprobe, d) das untere Quartil und das 90%Quantil, e) das 20%getrimmte Mittel, f ) die Sti hprobenspannweite und den Quartilsabstand, g) die MedianAbwei hung, h) den Variationskoezienten.
Zeigen Sie dur h Unters heiden der Fälle eines geraden und eines ungeraden Sti h-
Ü 5.2
probenumfangs, dass das
αgetrimmte
Mittel bei gröÿtmögli hem Trimmungsanteil
α
in den
Zentralwert übergeht.
Ü 5.3 Wie groÿ kann der empiris he Median der Daten aus Aufgabe 5.1 hö hstens werden,
wenn beliebige 4 der 30 Werte verzehnfa ht werden?
Ü 5.4 Zeigen Sie, dass bis auf die empiris he Varianz jedes andere der vorgestellten Streuungs-
maÿe die Eigens haft
σ(a · x1 ,a · x2 , . . . ,a · xn ) = a · σ(x1 , . . . ,xn ),
a > 0,
besitzt.
Ü 5.5 Drei Sti hproben mit den Umfängen 20, 30 und 50 werden zu einer Gesamtsti hprobe
vom Umfang 100 zusammengefasst. Die Mittelwerte dieser Sti hproben seien 14, 12 und 16. a) Wie groÿ ist der Mittelwert der Gesamtsti hprobe? b) Konstruieren Sie ein Beispiel, für das der empiris he Median der Gesamtsti hprobe in obiger Situation glei h 0 ist.
38
5 Grundbegrie der deskriptiven Statistik
Ü 5.6 Das
geometris he Mittel xg
xg :=
positiver Zahlen
n
x1 , . . . ,xn
Y √ n x1 · x2 · . . . · xn = xj j=1
ist dur h
1/n n Jahre angelegt und im (xg −1)·100 %, wobei xj = 1+pj /100
deniert. Zeigen Sie: Der Dur hs hnittszinssatz für ein Kapital, das für
j ten Jahr mit einem Zinssatz von pj (j = 1, . . . ,n).
Ü 5.7 Das
harmonis he Mittel xh
xh :=
% verzinst wird, ist
positiver Zahlen
x1 , . . . ,xn
ist dur h
n 1 1 1 + + ··· + x1 x2 xn j ten Teil einer in n glei h lange Teilstre ken xj km/h (j = 1, . . . ,n), so ist Dur hs hnittsges hwindigkeit das harmonis he Mittel xh
deniert. Zeigen Sie: Dur hfährt ein Fahrzeug den
unterteilten Gesamtstre ke mit der konstanten Ges hwindigkeit die auf der Gesamtstre ke erzielte km/h.
Ü 5.8 Zeigen Sie die Gültigkeit der alternativen Darstellung (5.9) für die empiris he Varianz.
Lernziele Sie sollten
• mit den Begrisbildungen Untersu hungseinheit, Merkmal, Merkmalsausprägung, Grundgesamtheit und Sti hprobe vertraut sein; • si h selbst davon überzeugen, dass Statistiken in Zeitungen, Zeits hriften usw. hinsi htli h der Festlegung der Untersu hungseinheit und/oder weiterer Angaben (Merkmal, Merkmalsausprägungen, wel hes Mittel?) häug unvollständig sind und somit manipulierend wirken; • wissen, was eine empiris he Häugkeitsverteilung, ein Stab und ein Kreisdiagramm sowie ein Histogramm sind; • die Stamm und BlattDarstellung kennen; • arithmetis hes Mittel und Median in ihrer Bedeutung unters heiden können; • mit den Begrien geordnete Sti hprobe, pQuantil und αgetrimmtes Mittel umgehen können; • die Streuungsmaÿe Sti hprobenvarianz, Sti hprobenstandardabwei hung, Sti hprobenspannweite, Quartilsabstand und MedianAbwei hung kennen; • Box-Plots als gras hes Darstellungsmittel zum Verglei h vers hiedener Sti hproben interpretieren können.
39
6
Endli he Wahrs heinli hkeitsräume
Na h den in Kapitel 4 angestellten Überlegungen können relative Häugkeiten im Fall wiederholbarer Experimente als empiris he Gewissheitsgrade für das Eintreten von Ereignissen angesehen werden. Die Frage, auf wel he Fundamente si h eine Mathematik des Zufalls gründen sollte, war lange Zeit ein oenes Problem; erst 1933 wurde dur h 1 A. N. Kolmogorow eine befriedigende Axiomatisierung der Wahrs heinli hkeitsre hnung errei ht (siehe hierzu [KR2℄). Der S hlüssel zum Erfolg einer mathematis hen Grundlegung der Wahrs heinli hkeitsre hnung bestand historis h gesehen darin, Wahrs heinli hkeiten ni ht inhaltli h als Grenzwerte relativer Häugkeiten denieren zu wollen, sondern bes heidener zu sein und nur festzulegen, wel he formalen Eigens haften Wahrs heinli hkeiten als mathematis he Objekte unbedingt besitzen sollten. Wie in anderen mathematis hen Disziplinen (z.B. Zahlentheorie, Geometrie, Algebra) werden somit au h die Grundbegrie der Sto hastik ni ht inhaltli h deniert, sondern nur implizit dur h Axiome bes hrieben. Diese ni ht beweisbaren Grundpostulate orientieren si h an den Eigens haften (4.2) (4.4) relativer Häugkeiten. Das bis heute fast auss hlieÿli h als Basis für wahrs heinli hkeitstheoretis he Untersu hungen dienende Axiomensystem von Kolmogorow nimmt für den vorläug betra hteten Spezialfall einer endli hen Ergebnismenge folgende Gestalt an: 6.1 Denition
Ein endli her Wahrs heinli hkeitsraum (kurz: WRaum) ist ein Paar (Ω,P ), wobei Ω (Ω 6= ∅) eine endli he Menge und P eine auf den Teilmengen von Ω denierte reellwertige Funktion mit folgenden Eigens haften ist: (Ni htnegativität)
a) P (A) ≥ 0 für A ⊆ Ω,
(Normiertheit)
b) P (Ω) = 1,
(Additivität)
) P (A + B) = P (A) + P (B), falls A ∩ B = ∅.
P heiÿt Wahrs heinli hkeitsverteilung (kurz: WVerteilung) oder au h Wahrs heinli hkeitsmaÿ auf Ω (genauer: auf den Teilmengen von Ω). P (A) heiÿt die Wahrs heinli hkeit (kurz: W') des Ereignisses A. 1
Andrej der
Nikolajewits h
bedeutendsten
Kolmogorow
Mathematiker
der
(19031987), Gegenwart,
Professor leistete
u.
in
Moskau
a.
(ab
fundamentale
1930), Beiträge
einer zur
Wahrs heinli hkeitstheorie, Mathematis hen Statistik, Mathematis hen Logik, Topologie, Maÿ und
Integrationstheorie,
biographis he
Angaben
Funktionalanalysis, nden
si h
unter
paulv/KOLMOGOROV.BIOGRAPHY.html
Informations der
und
Algorithmentheorie.
Internet-Adresse:
Weitere
http://homepages. wi.nl/
40
6 Endli he Wahrs heinli hkeitsräume
Offenbar stellt diese Denition einen abstrakten mathematis hen Rahmen mit drei Axiomen dar, der völlig losgelöst von jegli hen zufälligen Vorgängen angesehen werden kann und bei allen rein logis hen S hlüssen aus diesen Axiomen au h so angesehen werden muss. Völlig analog zur Axiomatisierung der Geometrie bildet das Kolmogorows he Axiomensystem nur einen Satz elementarer Spielregeln im Umgang mit Wahrs heinli hkeiten als mathematis hen Objekten. Da diese Spielregeln (axiomatis he Forderungen) direkt aus den Eigens haften (4.2), (4.3) und (4.4) relativer Häugkeiten abgeleitet sind, wirken sie zumindest im Hinbli k auf unseren intuitiven frequentistis hen Hintergrund (d.h. relative Häugkeiten und ihre Stabilisierung bei wiederholbaren Experimenten) völlig natürli h. Der Vorteil des Kolmogorows hen Axiomensystems besteht aber gerade darin, dass es jede konkrete Deutung des Wahrs heinli hkeitsbegris auÿer A ht lässt. Dieser Umstand erönete der Sto hastik als interdisziplinärer Wissens haft breite Anwendungsfelder au h auÿerhalb des eng umrissenen Berei hes kontrollierter wiederholbarer Experimente. Ein wi htiger Gesi htspunkt ist dabei die Mögli hkeit der Einbeziehung subjektiver Bewertungen von Unsi herheit (siehe Abs hnitt 6.4) und die Kombination von subjektiver Ungewissheit mit objektiven Daten (Lernen aus Erfahrung, siehe Kapitel 15). S hon im ersten systematis hen Lehrbu h zur Sto hastik, der Ars onje tandi von Jakob Bernoulli2 ([BER℄) aus dem Jahre 1713, geht es im vierten Teil um eine allgemeine Kunst des Vermutens , die si h sowohl subjektiver als au h objektiver Gesi htspunkte bedient (siehe [ME℄, S.185): Irgendein Ding vermuten heiÿt seine Wahrs heinli hkeit zu messen. Deshalb bezei hnen wir soviel als Vermutungs oder Mutmaÿungskunst (Ars onje tandi sive sto hasti e) die Kunst, so genau wie mögli h die Wahrs heinli hkeit der Dinge zu messen und zwar zu dem Zwe ke, dass wir bei unseren Urteilen und Handlungen stets das auswählen und befolgen können, was uns besser, trei her, si herer oder ratsamer ers heint. Darin allein beruht die ganze Weisheit der Philosophen und die ganze Klugheit des Staatsmannes. Was den Aspekt einer adäquaten Modellbildung für ein gegebenes sto hastis hes Phänomen angeht, sollte der WRaum (Ω,P ) als Modell die vorliegende Situation mögli hst gut bes hreiben. Im Fall eines wiederholt dur hführbaren Experimentes bedeutet dies, dass die (Modell)Wahrs heinli hkeit P (A) eines Ereignisses A als erwüns htes Maÿ für den Gewissheitsgrad des Eintretens von A in einem Experiment na h Mögli hkeit der (nur Meister Zufall bekannte) Grenzwert aus dem empiris hen Gesetz über die Stabilisierung relativer Häugkeiten sein sollte. Insofern würde es oenbar wenig Sinn ma hen, mit den Daten von Tabelle 4.1 für den Wurf einer Reiÿzwe ke (Ω = {0,1}) als (Modell)Wahrs heinli hkeiten P ({1}) = 0.2 und P ({0}) = 0.8 zu wählen. Wir werden später sehen, dass die beoba hteten Daten unter diesen mathematis hen Annahmen so 2
Jakob Bernoulli (16541705), 1687 Professor für Mathematik an der Universität Basel, Bes häftigung u.a. mit Kurven (Lemniskate, logarithmis he Spirale, Kettenlinie), Reihenlehre, Variationsre hnung (Kurven kürzester Fallzeit), Wahrs heinli hkeitsre hnung. Seine Ars onje tandi wurde posthum 1713 veröentli ht. Bernoulli erkennt als erster die Wi htigkeit eines Wahrs heinli hkeitsbegries für das gesamte mens hli he Leben; er geht dabei weit über die bis dahin vorherrs hende Wahrs heinli hkeitsre hnung als die Lehre von den Chan en beim Glü ksspiel hinaus.
41 unwahrs heinli h wären, dass wir dieses Modell als untaugli h ablehnen würden. Eine unmittelbare Konsequenz dieser Überlegungen ist, dass si h das Modellieren und das Überprüfen von Modellen anhand von Daten (letztere Tätigkeit ist Aufgabe der Statistik) gegenseitig bedingen. Im Hinbli k auf Anwendungen sind somit Wahrs heinli hkeitstheorie und Statistik untrennbar miteinander verbunden! Die na hfolgenden Aussagen sind direkt aus dem Kolmogorows hen Axiomensystem abgeleitet und bilden das kleine Einmaleins im Umgang mit Wahrs heinli hkeiten. 6.2 Folgerungen
Es seien (Ω,P ) ein endli her WRaum und A,B,A1 ,A2 , . . . ,An (n ≥ 2) Ereignisse. Dann gelten: a) P (∅) = 0, P Pn b) P ( nj=1 Aj ) = j=1 P (Aj ), falls A1 , . . . ,An paarweise disjunkt sind,
(endli he Additivität)
) 0 ≤ P (A) ≤ 1, (komplementäre W ')
d) P (A) = 1 − P (A),
(Monotonie)
e) A ⊆ B =⇒ P (A) ≤ P (B),
(Additionsgesetz )
f) P (A ∪ B) = P (A) + P (B) − P (A ∩ B), S Pn g) P ( nj=1 Aj ) ≤ j=1 P (Aj ).
(Subadditivität )
a) folgt aus den Axiomen 6.1 b) und 6.1 ), indem A = ∅ und B = Ω gesetzt wird. Eigens haft b) ergibt si h dur h vollständige Induktion aus dem Axiom 6.1 ). Zum Na hweis von ) und d) benutzen wir das Axiom 6.1 a) sowie die Beziehung
Beweis:
1 = P (Ω) = P (A + A) = P (A) + P (A)
(na h 6.1 b)) (na h 6.1 )) .
e) folgt aus der Darstellung B = A + (B \ A) (Skizze!) zusammen mit 6.1 a) und 6.1 ). Für den Na hweis des Additionsgesetzes f) zerlegen wir die Menge A∪B in die disjunkten Teile A \ B , A ∩ B und B \ A (Ü 2.5). Na h dem s hon bewiesenen Teil b) gilt dann
P (A ∪ B) = P (A \ B) + P (A ∩ B) + P (B \ A). Wegen
P (A) = P (A ∩ B) + P (A \ B)
(da A = A ∩ B + A \ B),
P (B) = P (A ∩ B) + P (B \ A)
(da B = B ∩ A + B \ A)
(6.1)
42
6 Endli he Wahrs heinli hkeitsräume
folgt dur h Auösen dieser Glei hungen na h P (A \ B) bzw. P (B \ A) und Einsetzen in (6.1) die Behauptung. g) ergibt si h unter Bea htung von P (A ∪ B) ≤ P (A) + P (B) (vgl. f)) dur h vollständige Induktion über n. Etwas ungewohnt im Umgang mit Wahrs heinli hkeiten ist si herli h die Tatsa he, dass eine Wahrs heinli hkeitsverteilung P (·) eine auf dem System aller Teilmengen von Ω denierte Funktion darstellt. Da s hon eine 10-elementige Menge 1024(= 210 ) Teilmengen besitzt, mö hte man meinen, die Angabe von P (·), d.h. die Festlegung von P (A) für jede Teilmenge A von Ω unter Berü ksi htigung der Axiome 6.1 a) ), sei s hon bei Grundräumen mit relativ wenigen Elementen ein ziemli h honungsloses Unterfangen. Dass dies glü kli herweise ni ht der Fall ist, liegt an der Additivitätseigens haft 6.2 b). Da wir nämli h mit Ausnahme der leeren Menge (diese erhält na h 6.2 a) die Wahrs heinli hkeit 0) jede Teilmenge A von Ω als Vereinigung von endli h vielen (disjunkten!) Elementarereignissen in der Form X A = {ω} ω∈Ω:ω∈A
s hreiben können, liefert die Additivitätseigens haft 6.2 b) X P (A) = p(ω).
(6.2)
ω∈Ω:ω∈A
Dabei wurde der Kürze halber p(ω) := P ({ω}) ges hrieben. Folgli h rei ht es aus, jedem Elementarereignis {ω} eine Wahrs heinli hkeit p(ω) zuzuordnen. Die Wahrs heinli hkeit eines beliebigen Ereignisses A ergibt si h dann gemäÿ (6.2) dur h Aufsummieren der Wahrs heinli hkeiten der Elementarereignisse, aus denen das Ereignis A zusammengesetzt ist. Natürli h kann au h die Festlegung der Wahrs heinli hkeiten für Elementarereignisse ni ht völlig willkürli h erfolgen. Ist Ω = {ω1 ,ω2 , . . . ,ωs } eine s-elementige Menge, so gilt ja aufgrund des Axioms 6.1 a) zunä hst
p(ωj ) ≥ 0 (j = 1,2, . . . ,s).
(6.3)
Ps
Andererseits folgt aus der Zerlegung Ω = j=1 {ωj } zusammen mit Axiom 6.1 b) und der endli hen Additivität 6.2 b) die Summenbeziehung
p(ω1 ) + p(ω2 ) + . . . + p(ωs ) = 1.
(6.4)
Die Eigens haften (6.3) und (6.4) stellen somit notwendige Bedingungen dar, die erfüllt sein müssen, damit von (6.3) und (6.4) ausgehend die gemäÿ Glei hung (6.2) für jede Teilmenge A von Ω denierte Festlegung von P (A) au h tatsä hli h eine Wahrs heinli hkeitsverteilung ist, d.h. den Kolmogorows hen Axiomen genügt. Da die Bedingungen (6.3) und (6.4) au h hinrei hend dafür sind, dass von ihnen ausgehend gemäÿ (6.2) gebildete Wahrs heinli hkeiten die Axiome 6.1 a) ) erfüllen, kommt den Wahrs heinli hkeiten p(ωj ) der Elementarereignisse bei der Konstruktion eines endli hen Wahrs heinli hkeitsraumes ents heidende Bedeutung zu.
43 Ans hauli h kann p(ω) als eine im Punkt ω angebra hte Wahrs heinli hkeitsmasse gedeutet werden. Die Gesamtmasse (Wahrs heinli hkeit) P (A) eines Ereignisses ergibt si h gemäÿ (6.2) dur h Aufsummieren der Einzelmassen der Elemente von A. Es ist übli h, für die gras he Darstellung dieser Wahrs heinli hkeitsmassen Stab oder Balkendiagramme zu verwenden. Dabei wird über jedem ω ∈ Ω ein Stäb hen (Balken) der Länge p(ω) aufgetragen (Bild 6.1).
p(ω) ω
Bild 6.1
Ω
Stabdiagramm einer Wahrs heinli hkeitsverteilung
Deuten wir das dur h einen endli hen WRaum bes hriebene Zufallsexperiment als Drehen eines Glü ksrades mit dem Umfang 1, so entspri ht dem Ergebnis ωj gerade ein Bogenstü k der Länge p(ωj ) (Bild 6.2).
p(ω2 ) ω2 p(ω3 )
ω1
ω3
ω4 p(ω4 )
ωs ω5
p(ω5 )
ω6
p(ω1 )
p(ωs )
Bild 6.2:
Wahrs heinli hkeiten als Bogenstü ke eines Glü ksrades
p(ω6 )
6.3 Verteilung einer Zufallsvariablen
Sind (Ω,P ) ein endli her WRaum und X : Ω → IR eine Zufallsvariable, so s hreiben wir für x, a, b ∈ IR kurz
P (X = x) := P ({X = x}) = P ({ω ∈ Ω : X(ω) = x})
44
6 Endli he Wahrs heinli hkeitsräume
und analog
P (X ≤ b) := P ({X ≤ b}), P (a ≤ X < b) := P ({a ≤ X < b}) usw. Nimmt X die Werte x1 ,x2 , . . . ,xk an, d.h. gilt X(Ω) = {x1 ,x2 , . . . ,xk }, so folgt für jedes x mit x ∈ / {x1 , . . . ,xk } die Beziehung {X = x} = ∅ und somit P (X = x) = 0. Fassen wir X(Ω) als Ergebnismenge eines Experimentes auf, bei dem der Wert X(ω) beoba htet wird, so sind {x1 }, . . . ,{xk } gerade die Elementarereignisse dieses Experimentes. Allgemeiner ist jedes Ereignis, wel hes si h auf den vor Dur hführung des Zufallsexperimentes unbekannten Wert von X(ω) bezieht (ein derartiges Ereignis wird ein dur h X bes hreibbares Ereignis genannt), entweder das unmögli he Ereignis oder eine Vereinigung der Elementarereignisse {x1 }, . . . ,{xk }. Insofern bilden alle Teilmengen B von X(Ω) die dur h X bes hreibbaren Ereignisse. Die Verteilung der Zufallsvariablen X ist das mit P X bezei hnete Wahrs heinli hkeitsmaÿ auf X(Ω), wel hes einer Teilmenge B von X(Ω) die Wahrs heinli hkeit X P X (B) := P (X = xj ) (6.5) j:xj ∈B
zuordnet (vgl. Übungsaufgabe 6.4). Dabei ist die Summe über die leere Menge als 0 deniert. Da die Verteilung von X dur h das System der Wahrs heinli hkeiten P (X = xj ), j = 1, . . . ,k , festgelegt ist, werden wir im Folgenden dieses System synonym als die Verteilung von X bezei hnen. Ents heidend ist, dass gemäÿ (6.5) die Wahrs heinli hkeiten der dur h X bes hreibbaren Ereignisse bere hnet werden können. Setzt man etwa in (6.5) B := {x ∈ {x1 , . . . ,xk } : x ≤ b} (b ∈ IR), so folgt X P (X ≤ b) = P (X = xj ). j:xj ≤b
Für B := {x ∈ {x1 , . . . ,xk } : a ≤ x ≤ b} (a,b ∈ IR,a < b) ergibt si h analog X P (a ≤ X < b) = P (X = xj ) j:a≤xj 2), ) P (X > 2.5), d) P (X ≤ 4).
Ü 6.5 Die Zufallsvariable
Bestimmen Sie: a)
Ü 6.6 Wel he Verteilung besitzt die Dierenz
X
Würfelwurf.
der Augenzahlen beim zweifa hen Würfelwurf ?
47 (Ω,P )
Ü 6.7 In einem endli hen WRaum
A, B
seien
Ereignisse. Zeigen Sie:
a)
P (A ∩ B) + P (A) + P (A ∩ B) = 1.
b)
P (A ∩ B) − P (A)P (B) = P (A ∩ B) − P (A)P (B).
Ü 6.8 Versu hen Sie, einen endli hen WRaum
A, B
Ereignisse
(Ω,P )
zu konstruieren, in dem es vers hiedene
positiver Wahrs heinli hkeit mit der Eigens haft
P (A ∩ B) ≥ 9 · P (A)P (B) gibt. Kann die Zahl 9 sogar dur h 99 (oder eine no h gröÿere Zahl) ersetzt werden? Ü 6.9 In einem endli hen WRaum
(Ω,P )
seien
A1 , A2 , A3 , A4
Ereignisse. Zeigen Sie unter
Verwendung von Aufgabe 6.2:
P
4 [
j=1
Aj ≥
4 X j=1
P (Aj ) −
X
1≤i b). Wie groÿ ist die Wahrs heinli hkeit, dass Kandidat A während der gesamten Stimmauszählung führte? Zur Beantwortung dieser Frage setzen wir kurz n := a + b sowie cj := 1 bzw. cj := −1, falls der j -te ausgezählte Stimmzettel für A bzw. für B abgegeben wurde. Jede Stimmauszählung ist dann ein n-Tupel (c1 , . . . ,cn ), in dem a Komponenten glei h 1 und b Komponenten glei h −1 sind. Der Vorteil dieser Modellwahl besteht darin, dass na h Auszählung von k der n Stimmzettel die Summe c1 + . . . + ck genau dann positiv ist, wenn Kandidat A zu diesem Zeitpunkt in Führung liegt. S hreiben wir
Ω :=
n
ω := (c1 , . . . ,cn ) :
n X j=1
1{cj
= 1} = a,
n X j=1
1{cj
o
= −1} = b
für die Menge aller mögli her Auszählungsverläufe, so besitzt das interessierende Ereignis A liegt während der gesamten Stimmauszählung in Führung die Gestalt
60
8 Elemente der Kombinatorik
D := {ω = (c1 , . . . ,cn ) ∈ Ω : c1 + . . . + ck ≥ 1 für jedes k = 1, . . . ,n − 1}. Bei Annahme einer Glei hverteilung auf der na h Satz 8.4 d) a+b a -elementigen Menge Ω stellt si h somit das Problem, die Anzahl |D| der günstigen Fälle zu bestimmen. Hierzu denieren wir die Ereignisse E
:= {ω = (c1 , . . . ,cn ) ∈ Ω : c1 = −1}
( der erste Stimmzettel wird für B abgegeben ) sowie F := {ω = (c1 , . . . ,cn ) ∈ Ω : c1 = 1 und c1 + . . . + ck ≤ 0 für ein k ≥ 2} ( der erste Stimmzettel wird für A abgegeben und A liegt ni ht immer in Führung ). Oenbar sind D, E und F disjunkt, und es gilt Ω = D + E + F . Es ist illustrativ, die mögli hen Auszählungsverläufe graphis h darzustellen. Hierzu ordnen wir dem Tupel (c1 , . . . ,cn ) aus Ω einen übli herweise als Pfad bezei hneten Polygonzug zu, der in einem x,y -Koordinatensystem dur h die Punkte (0,0), (1,c1 ), (2,c1 + c2 ), ...., (n − 1,c1 + . . . + cn−1 ) und (n,c1 + . . . + cn ) verläuft. Man bea hte, dass der letzte dieser Punkte die Koordinaten (a + b,a − b) besitzt. Bild 8.1 zeigt vers hiedene sol he Pfade für den Fall a = 5, b = 3. Der linke Pfad korrespondiert zum Tupel (1,1, − 1,1,1, − 1, − 1,1) aus D, der re hte zum Tupel (−1, − 1,1,1,1, − 1,1,1) aus E . Das Tupel (1,1, − 1 − 1,1, − 1,1,1) aus F gehört zu dem im re hten Bild als gestri helte Linie beginnenden Pfad.
a−b
a−b
1 a+b
Bild 8.1
1 a+b
Pfade von Auszählungsverläufen und Spiegelungsprinzip
Oenbar besteht ein eineindeutiger Zusammenhang zwis hen Tupeln (c1 , . . . ,cn ) aus Ω und den dur h die Punkte (0,0) und (k,c1 + . . . + ck ), k = 1, . . . ,n, gegebenen Pfaden. Zur Menge E gehören alle Pfade, die wie der in Bild 8.1 re hts dur h den Punkt (1, − 1) verlaufen. Da jeder dieser Pfade genau einem Tupel (c2 , . . . ,cn ) mit a Einsen und b − 1 Minus-Einsen entspri ht, gilt na h Satz 8.4 d) n−1 a+b−1 |E| = = . (8.7) a a Das im Folgenden bes hriebene Spiegelungsprinzip zeigt, dass eine eineindeutige Korrespondenz zwis hen den Pfaden aus E und den Pfaden aus F besteht. Zu diesem Zwe k betra hten wir einen beliebigen Pfad aus E . Dieser Pfad muss da er zu Beginn die x-A hse na h unten verlässt und am Ende den Punkt (n,a − b) oberhalb der x-A hse
61 errei ht mindestens einmal die x-A hse s hneiden. Wir wählen den ersten S hnittpunkt und spiegeln den Pfad bis zu diesem Punkt an der x-A hse; dana h lassen wir ihn unverändert. Auf diese Weise entsteht (wie im re hten Bild 8.1) ein Pfad aus F . Da bei dieser Zuordnung vers hiedene Pfade aus E auf vers hiedene Pfade aus F übergehen und umgekehrt jeder Pfad aus F dur h die entspre hende umgekehrte Spiegelung auf einen Pfad aus E abgebildet wird, gilt |E| = |F |. Wegen Ω = D + E + F und (8.7) folgt a+b−1 a−b |E| a = = 1−2· . P (D) = 1 − 2 · P (E) = 1 − 2 · a+b |Ω| a+b a
Übungsaufgaben Ü 8.1 Wie viele vierstellige natürli he Zahlen haben lauter vers hiedene Ziern?
aus 49 beoba htet man häug, dass si h unter den se hs GewinnZwilling, d.h. mindestens ein Paar (i,i + 1) bendet. Wie wahrs heinli h
Ü 8.2 Beim Zahlenlotto 6
zahlen mindestens ein
ist dies? (Hinweis: Gegenereignis betra hten!) Ü 8.3 Analog zur
k
x ist die
:=
unteren Faktoriellen
x · (x − 1) · . . . · (x − k + 1), x0 := 1, x ∈ IR,
obere Faktorielle dur h xk
:=
x · (x + 1) · . . . · (x + k − 1), x0 := 1, x ∈ IR,
deniert. Zeigen Sie :
nk
ist die Anzahl der Mögli hkeiten,
k
vers hiedene Flaggen an
n
ver-
s hiedenen Masten zu hissen, wobei die Reihenfolge der Flaggen an einem Mast unters hieden wird. Dabei ist der Extremfall zugelassen, dass alle Flaggen an einem Mast hängen. Ü 8.4 Zeigen Sie : In völliger Analogie zu (8.6) gilt:
a)
(x + y)n =
n X n · xk · y n−k k
,
k=0 b)
(x + y)n =
n X n · xk · y n−k , x,y ∈ IR k
.
k=0 Ü 8.5 Zeigen Sie:
a)
b)
n n = , n ∈ IN, k = 0, . . . ,n, k n−k n X k n+1 = , m,n ∈ IN0 , m ≤ n, m m+1
k=m
Gesetz der oberen Summation).
(
62
8 Elemente der Kombinatorik
Ü 8.6 Auf wie viele Arten können vier rote, drei weiÿe und zwei grüne Kugeln in eine Reihe
gelegt werden? Ü 8.7 Ist es vorteilhafter, beim Spiel mit einem fairen Würfel auf das Eintreten mindestens einer
Se hs in vier Würfen oder beim Spiel mit zwei e hten Würfeln auf das Eintreten mindestens
4
einer Doppelse hs (Se hserPas h) in 24 Würfen zu setzen (Frage des Chevalier de Meré , 1654)? Ü 8.8 Bei der ersten Ziehung der
Glü ksspirale 1971 wurden für die Ermittlung einer 7stelligen
Gewinnzahl aus einer Trommel, die Kugeln mit den Ziern
0,1, . . . ,9
je 7mal enthält, na hei-
nander rein zufällig 7 Kugeln ohne Zurü klegen gezogen. a) Wel he 7stelligen Gewinnzahlen hatten hierbei die gröÿte und die kleinste Ziehungswahrs heinli hkeit, und wie groÿ sind diese Wahrs heinli hkeiten? b) Bestimmen Sie die Gewinnwahrs heinli hkeit für die Zahl
3 143 643.
) Wie würden Sie den Ziehungsmodus abändern, um allen Gewinnzahlen die glei he Ziehungswahrs heinli hkeit zu si hern? Ü 8.9
Bei der Auslosung der 32 Spiele der ersten Hauptrunde des DFBPokals 1986 gab es
einen Eklat, als der Loszettel der Stuttgarter Ki kers unbemerkt bu hstäbli h unter den Tis h gefallen und s hlieÿli h unter Auslosung des Heimre hts der zuletzt im Lostopf verbliebenen Manns haft Tennis Borussia Berlin zugeordnet worden war. Auf einen Einspru h der Stuttgarter Ki kers hin wurde vom DFBBundesgeri ht die gesamte Auslosung der ersten Hauptrunde neu angesetzt. Kurioserweise ergab si h dabei wiederum die Begegnung Tennis Borussia Berlin Stuttgarter Ki kers. a) Zeigen Sie, dass aus sto hastis hen Gründen kein Einwand gegen die erste Auslosung besteht. b) Wie groÿ ist die Wahrs heinli hkeit, dass si h in der zweiten Auslosung erneut die Begegnung Tennis Borussia Berlin Stuttgarter Ki kers ergibt? Hinweis: Nummeriert man alle Manns haften gedankli h von 1 bis 64 dur h, so ist das Ergebnis einer Manns haft
regulären Auslosung ein 64Tupel
a2i
Heimre ht hat
(a1 , . . . ,a64 ),
wobei Manns haft
a2i−1
gegen
(i = 1, . . . ,32).
Lernziele Sie sollten
• die Bedeutung der Multiplikationsregel verstanden haben; • mit k Permutationen und k Kombinationen sowie ihren Anzahlen si her umgehen können. 4
Antoine Gombault Chevalier de Meré (16071684), wirkte dur h das Stellen von Aufgaben über Glü ksspiele (u.a. Korrespondenz mit Pas al) anregend auf die Entwi klung der Wahrs heinli hkeitsre hnung.
63
9
Urnen- und Teil hen/Fä her-Modelle
Zahlrei he sto hastis he Vorgänge lassen si h in bequemer Weise dur h Urnen oder Teil hen/Fä herModelle bes hreiben. Der Vorteil einer sol hen abstrakten Bes hreibung besteht insbesondere darin, dass alle unwesentli hen Aspekte der ursprüngli hen Fragestellung wegfallen. Als Beispiel für diesen Abstraktionsprozess betra hten wir eine Standardsituation der statistis hen Qualitätskontrolle. Eine Werkstatt hat eine S ha htel mit 10 000 S hrauben einer bestimmten Sorte gekauft. Die Lieferrma behauptet, hö hstens 5% der S hrauben hielten die vorges hriebenen Maÿtoleranzen ni ht ein und seien somit Auss huss. Bei einer Prüfung von 30 rein zufällig ausgewählten S hrauben fand man 6 unbrau hbare. Sollte die Sendung daraufhin reklamiert werden? Für die sto hastis he Modellierung dieses Problems ist völlig belanglos, ob es si h um S hrauben, Computer hips, Autozubehörteile o.Ä. handelt. Wi htig ist nur, dass eine Grundgesamtheit von N (= 10 000) Objekten vorliegt, wobei wir uns als Objekte Kugeln vorstellen wollen. Der Tatsa he, dass es Objekte zweierlei Typs (unbrau hbar/brau hbar) gibt, wird dadur h Re hnung getragen, dass rote und s hwarze Kugeln vorhanden sind. Ersetzen wir die S ha htel dur h ein im Folgenden Urne genanntes undur hsi htiges Gefäÿ, und s hreiben wir r bzw. s für die Anzahl der roten bzw. s hwarzen Kugeln in dieser Urne, so besteht der Urneninhalt aus N = r + s glei hartigen, si h nur in der Farbe unters heidenden Kugeln, wobei N bekannt ist und r,s unbekannt sind. Die Behauptung, hö hstens 5% der gelieferten S hrauben seien Auss hussware , ist glei hbedeutend mit der Behauptung, dass die Anzahl r roter Kugeln hö hstens glei h 0.05 · N ist. Um diese Annahme zu prüfen, werden der Urne rein zufällig na heinander n Kugeln entnommen. Würden Sie an der Behauptung zweifeln, falls si h in der entnommenen Sti hprobe k rote Kugeln benden (im obigen Beispiel ist n = 30 und k = 6)? Als weiteres Beispiel einer eingekleideten Aufgabe betra hten wir das klassis he Sammlerproblem. Zu einer vollständigen Serie von Sammelbildern (Fuÿballspieler, Tiere, . . .) gehören n Bilder, die in Pa kungen zu je m Stü k verkauft werden. Ein realistis hes Zahlenbeispiel ist n = 358 und m = 6. Wir nehmen an, dass alle Pa kungsinhalte rein zufällig und unbeeinusst voneinander zusammengestellt sind. In diesem Zusammen hang stellen si h die natürli hen Fragen:
• Wie viele Pa kungen muss man im Mittel kaufen, bis eine vollständige Serie errei ht ist? • Mit wel her Wahrs heinli hkeit ist na h dem Kauf von k Pa kungen eine vollständige Serie errei ht?
64
9 Urnen- und Teil hen/Fä her-Modelle
Wir werden diese Probleme na h Präzisierung der Begriffe unbeeinusst voneinander und im Mittel in Kapitel 23 wieder aufgreifen. Oensi htli h kommt es beim Sammlerproblem einzig und allein auf die Anzahl n vers hiedener Sammelbilder und die Anzahl m vers hiedener Bilder pro Pa kung an. In einem abstrakten Teil hen/Fä herModell stellen wir uns n vers hiedene Fä her vor, wobei jedes Fa h einem Sammelbild zugeordnet ist. Deuten wir die Sammelbilder als Teil hen, so entspri ht dem Kauf einer Pa kung Sammelbilder das Besetzen von m vers hiedenen Fä hern mit je einem Teil hen. In diesem Teil hen/Fä herModell lauten die oben gestellten Fragen:
• Wie viele Besetzungsvorgänge sind im Mittel nötig, bis jedes Fa h mindestens einmal besetzt ist? • Mit wel her Wahrs heinli hkeit ist na h k Besetzungsvorgängen jedes Fa h mindestens einmal besetzt? Im Weiteren werden vers hiedene Urnen und Teil hen/Fä herModelle vorgestellt und die zugehörigen Ergebnisräume präzisiert. 9.1 Urnenmodelle
In einer Urne liegen glei hartige, von 1 bis n nummerierte Kugeln. Wir betra hten vier vers hiedene Arten, k Kugeln aus dieser Urne zu ziehen. (1) Ziehen unter Bea htung der Reihenfolge mit Zurü klegen Na h jedem Zug werden die Nummer der gezogenen Kugel notiert und diese Kugel wieder in die Urne zurü kgelegt. Bezei hnet aj die Nummer der beim j ten Zug erhaltenen Kugel, so ist
P erkn (mW ) = {1,2, . . . ,n}k = {(a1 , . . . ,ak ) : 1 ≤ aj ≤ n für j = 1, . . . ,k} (k Permutationen aus 1,2, . . . ,n mit Wiederholung) ein geeigneter Grundraum für dieses Experiment. (2) Ziehen unter Bea htung der Reihenfolge ohne Zurü klegen Erfolgt das Ziehen mit Notieren wie oben, ohne dass jedo h die jeweils gezogene Kugel wieder in die Urne zurü kgelegt wird (siehe Bild 9.1), so ist mit der Bedeutung von aj wie oben
P erkn (oW ) = {(a1 , . . . ,ak ) ∈ {1,2, . . . ,n}k : ai 6= aj für 1 ≤ i 6= j ≤ k} (k Permutationen aus 1,2, . . . ,n ohne Wiederholung) ein angemessener Ergebnisraum. Natürli h ist hierbei k ≤ n vorausgesetzt. (3) Ziehen ohne Bea htung der Reihenfolge mit Zurü klegen Wird mit Zurü klegen gezogen, aber na h Beendigung aller Ziehungen nur mitgeteilt, wie oft jede der n Kugeln gezogen wurde, so wählen wir den Ergebnisraum
65
Komnk (mW ) = {(a1 , . . . ,ak ) ∈ {1,2, . . . ,n}k : a1 ≤ . . . ≤ ak } (k Kombinationen aus 1,2, . . . ,n mit Wiederholung). In diesem Fall besitzt aj ni ht die in (1) und (2) zugewiesene Bedeutung, sondern gibt die j kleinste der Nummern der gezogenen Kugeln (mit Mehrfa hNennung) an. So besagt etwa das Ergebnis (1, 3, 3, 6) im Fall n = 7 und k = 4, dass von den 7 Kugeln die Kugeln Nr. 1 und Nr. 6 je einmal und die Kugel Nr. 3 zweimal gezogen wurden. (4) Ziehen ohne Bea htung der Reihenfolge ohne Zurü klegen Erfolgt das Ziehen wie in (3), aber mit dem Unters hied, dass (wie beim Lotto) ohne Zurü klegen gezogen wird, so ist
Komnk (oW ) = {(a1 , . . . ,ak ) ∈ {1,2, . . . ,n}k : a1 < . . . < ak } (k Kombinationen aus 1,2, . . . ,n ohne Wiederholung, k ≤ n) ein geeigneter Grundraum. Hier bedeutet aj die eindeutig bestimmte j kleinste Nummer der gezogenen Kugeln.
4 Bild 9.1:
7
2
6
Ziehen ohne Zurü klegen unter Bea htung der Reihenfolge
9.2 Teil hen/Fä herModelle
Es sollen k Teil hen (Daten) auf n von 1 bis n nummerierte Fä her (Spei herplätze) verteilt werden. Die Anzahl der Besetzungen sowie der zugehörige Grundraum hängen davon ab, ob die Teil hen (Daten) unters heidbar sind und ob Mehrfa hbesetzungen (mehr als ein Teil hen pro Fa h) zugelassen werden oder ni ht. Interpretieren wir die vorgestellten Urnenmodelle dahingehend um, dass den Teil hen die Ziehungen und den Fä hern die Kugeln entspre hen, so ergeben si h die folgenden Teil hen/Fä herModelle: (1) Unters heidbare Teil hen, Mehrfa hbesetzungen zugelassen In diesem Fall ist die Menge der Besetzungen dur h P erkn (mW ) wie in 9.1 (1) gegeben, wobei aj jetzt die Nummer des Fa hs bezei hnet, in das man das j te Teil hen gelegt hat. (2) Unters heidbare Teil hen, keine Mehrfa hbesetzungen In diesem Fall ist P erkn (oW ) (vgl. 9.1 (2)) der geeignete Ergebnisraum.
66
9 Urnen- und Teil hen/Fä her-Modelle
(3) Ni htunters heidbare Teil hen, Mehrfa hbesetzungen zugelassen Sind die Teil hen ni ht unters heidbar, so kann man na h Verteilung der k Teil hen nur no h feststellen, wie viele Teil hen in jedem Fa h liegen (siehe Bild 9.2 im Fall n = 4, k = 6). Die vorliegende Situation entspri ht dem Urnenmodell 9.1 (3), wobei das Zulassen von Mehrfa hbesetzungen gerade Ziehen mit Zurü klegen bedeutet. Der geeignete Grundraum ist Komnk (mW ).
1 Bild 9.2
2
3
4
Teil henFä herModell (3). Die dargestellte Besetzung entspri ht dem Tupel (1,3,3,3,4,4) ∈ Kom46 (mW ).
(4) Ni htunters heidbare Teil hen, keine Mehrfa hbesetzungen Dem Auss hlussprinzip, keine Mehrfa hbesetzungen zuzulassen, entspri ht das Ziehen ohne Zurü klegen. Der passende Grundraum ist hier Komnk (oW ) (vgl. 9.1 (4)).
Der Übersi htli hkeit halber sollen die vier betra hteten Urnen bzw. Teil hen/Fä her Modelle no h einmal s hematis h zusammengefasst werden:
Ziehen von k Kugeln aus einer Urne mit n Kugeln
Verteilung von k Teil hen auf n Fä her Bea htung der Reihenfolge?
Erfolgt Zurü klegen?
Teil hen Mehrfa hbesetzungen unters heidbar? erlaubt? Modell
Grundraum
Anzahl
Ja
Ja
(1)
P erkn (mW )
nk
Ja
Nein
(2)
P erkn (oW )
nk
Nein
Ja
(3)
Komnk (mW )
n+k−1 k
Nein
Nein
(4)
Komnk (oW )
n k
67
Übungsaufgaben Ü 9.1 Beim Zahlenlotto kann es vorkommen, dass im Laufe eines Kalenderjahres (52 Ausspie-
lungen) jede der 49 Zahlen mindestens einmal Gewinnzahl war. Bes hreiben Sie dieses Phänomen in einem Teil hen/Fä herModell (Sammlerproblem!). Ü 9.2 Eine Kundin eines Supermarktes, wel her
n
vers hiedene Artikel (jeden in genügend
groÿer Menge) führt, hat einen Einkaufskorb mit insgesamt
k
(ni ht notwendig vers hiedenen)
Artikeln zusammengestellt. Wel hes Urnen bzw. Teil hen/Fä herModell liegt hier vor? Wie viele vers hiedene Einkaufskörbe gibt es? Ü 9.3 Formulieren Sie den mehrfa h hintereinander ausgeführten Würfelwurf
a) in einem Urnenmodell
b) in einem Teil hen/Fä herModell.
Ü 9.4 10 Personen werden 4 Karten für ein Fuÿballspiel angeboten. Wir ma hen die Annahme
α)
es handelt si h um nummerierte Sitzplätze oder
Stehplätze sowie 1)
β)
es handelt si h um ni ht nummerierte
jede Person erhält hö hstens eine Karte oder 2)
es gibt keine derartige
Bes hränkung. Wel hes Urnen bzw. Teil hen/Fä herModell liegt in den Fällen a)
α1
b)
α2
)
β1
d)
β2
vor? Wie viele Kartenverteilungen gibt es jeweils? Ü 9.5 Von
k
Personen werden in einer anonymen Befragung die Geburtsmonate festgestellt.
Wel hes Teil hen/Fä herModell liegt hier vor? Wie viele Ergebnisse einer sol hen Befragung sind mögli h?
Lernziele Sie sollten
• die vorgestellten Urnen und Teil hen/Fä herModelle kennen und
• die begriffli he Äquivalenz von Urnenmodellen und Modellen für Besetzungsprobleme eingesehen haben.
68
10
Das Paradoxon der ersten Kollision
Bekanntli h ist die Urlaubs und Ferienzeit relativ arm an aufregenden Ereignissen, und wir sind längst daran gewöhnt, dass Politiker aller Couleur dieses Sommerlo h dur h ungewöhnli he Aktionen oder Wortbeiträge zur Selbstdarstellung nutzen. Umso erfreuli her ist es, dass wir die erste Sommerlo hSensation des Jahres 1995 ni ht der Politik, sondern dem reinen Zufall verdankten! So konnte man der Tagespresse am 29.6.1995 die folgende Meldung entnehmen:
Erstmals im Lotto dieselbe Zahlenreihe Stuttgart (dpa/lsw). Die Staatli he TotoLotto GmbH in Stuttgart hat eine Lotto-
sensation gemeldet: Zum ersten Mal in der 40jährigen Ges hi hte des deuts hen Zahlenlottos wurden zwei identis he Gewinnreihen festgestellt. Am 21. Juni dieses Jahres kam im Lotto am Mittwo h in der Ziehung A die Gewinnreihe 152527304248 heraus. Genau die selben Zahlen wurden bei der 1628. Ausspielung im Samstaglotto s hon einmal gezogen, nämli h am 20. Dezember 1986. Wel h ein Lottozufall: Unter den 49 Zahlen sind fast 14 Millionen vers hiedene Se hserreihen mögli h.
Zur wahrs heinli hkeitstheoretis hen Bewertung dieser angebli hen Sensation ist zunä hst zu bea hten, na h wel hem Ereignis gesu ht wurde. Oenbar gilt als Sensation, dass irgendeine Gewinnreihe irgendeines Lottos (Mittwo hslotto A, Mittwo hslotto B oder Samstagslotto) s hon in irgendeiner früheren Ziehung aufgetreten ist. Aus diesem Grunde müssen wir die Ausspielungen aller drei wö hentli h stattndenden Ziehungen zusammenfassen. Da bis zum 21.6.1995 2071 Ausspielungen des Samstagslottos und jeweils 472 Ausspielungen des Mittwo hslottos A (bzw. B) erfolgt waren, besteht das sensationelle Ereignis ans heinend darin, dass zum ersten Mal in der 3016ten Ausspielung eine Gewinnreihe erneut aufgetreten ist. Natürli h wäre die Sensation no h gröÿer gewesen, wenn diese erste Gewinnreihenwiederholung s hon früher erfolgt wäre. Für die na hfolgenden Betra htungen setzen wir 49 n := = 13 983 816 6
und denken uns alle Gewinnreihen lexikographis h dur hnummeriert, d.h. Nr. 1: Nr. 2: Nr. 3: .. .
Nr. n:
1 1 1
-
2 2 2
-
44
-
45
-
3 3 3 .. .
46
-
4 4 4
-
5 5 5
-
-
47
-
48
-
6 7 8 .. .
49.
69 In dieser Deutung können wir uns die Ermittlung einer Gewinnreihe als rein zufälliges Besetzen eines von insgesamt n vers hiedenen Fä hern vorstellen. Das ans heinend sensationelle Ereignis besteht offenbar darin, dass bei der sukzessiven rein zufälligen Besetzung von n = 13 983 816 vers hiedenen Fä hern s hon beim 3016ten Mal die erste Kollision auftrat, d.h. ein bereits besetztes Fa h erneut besetzt wurde. Intuitiv würde man nämli h den Zeitpunkt dieser ersten Kollision viel später erwar ten. Würden Sie z.B. bei n = 1000 Fä hern darauf wetten, dass die erste Kollision na h spätestens 50 Versu hen erfolgt ist? Zur Modellierung des Kollisionsphänomens betra hten wir die Zufallsvariable
Xn
:= Zeitpunkt der ersten Kollision beim sukzessiven rein zufälligen Besetzen von n Fä hern.
Da mindestens 2 und hö hstens n + 1 Versu he (Zeiteinheiten) bis zur ersten Kollision nötig sind, nimmt Xn die Werte 2,3, . . . ,n + 1 an, und es gilt
nk n · (n − 1) · (n − 2) · . . . · (n − k + 1) = (10.1) nk nk für jedes k = 1,2, . . . ,n + 1. Um (10.1) einzusehen, bea hte man, dass das Ereignis {Xn ≥ k + 1} glei hbedeutend damit ist, dass bei der rein zufälligen Verteilung von k unters heidbaren Teil hen auf n Fä her (Modell 9.2 (1)) alle Teil hen in vers hiedenen Fä hern liegen. Bei Annahme eines Lapla eModells (Grundraum P erkn (mW ), |P erkn (mW )| = nk ) gibt der Zähler in (10.1) gerade die Anzahl der günstigen Fälle (= |P erkn (oW )| = nk = n · (n − 1) · . . . · (n − k + 1)) an. P (Xn ≥ k + 1) =
Aus (10.1) folgt dur h Übergang zum Gegenereignis k−1 Y j P (Xn ≤ k) = 1 − 1− n
(10.2)
j=1
(k = 2,3, . . . ,n + 1; P (Xn ≤ 1) = 0).
Bild 10.1 zeigt die Wahrs heinli hkeiten P (Xn ≤ k) als Funktion von k für den Fall n = 13 983 816. Spezielle Zahlenwerte sind in Tabelle 10.1 aufgeführt. Für das Ereignis {Xn ≤ 3016} gilt P (Xn ≤ 3016) = 0.2775 . . . Die Wahrs heinli hkeit des vermeintli h äuÿerst unwahrs heinli hen Ereignisses ist somit kaum kleiner als die Wahrs heinli hkeit, beim Werfen zweier e hter Würfel eine Augensumme von hö hstens 5 zu erhalten (10/36 = 0.2777 . . .). Es mag überras hend ers heinen, dass wir bei fast 14 Millionen mögli hen Tippreihen dur haus auf das Auftreten der ersten Gewinnreihenwiederholung na h hö hstens 4500 Ausspielungen wetten können. Der Grund hierfür ist, dass wir auf irgendeine und ni ht auf eine bestimmte Kollision warten. Wie jetzt gezeigt werden soll, ist der Zeitpunkt der ersten Kollision √ bei der rein zufälligen sukzessiven Besetzung von n Fä hern von der Gröÿenordnung n.
70
10 Das Paradoxon der ersten Kollision
1.0
P (Xn ≤ k)
0.8 0.6 0.4 0.2 0 1500 Bild 10.1:
3000
4500
6000
7500
9000
10500 12000
k
Wahrs heinli hkeit für die erste Gewinnreihenwiederholung im Lotto na h hö hstens k Ziehungen
k 500 1000 1500 2000 2500 3000 3500 4000
P (Xn ≤ k) 0.0089 0.0351 0.0773 0.1332 0.2002 0.2751 0.3546 0.4356
k 4500 5000 5500 6000 6500 7000 7500 8000
P (Xn ≤ k) 0.5152 0.5909 0.6609 0.7240 0.7792 0.8266 0.8662 0.8986
k 8500 9000 9500 10000 10500 11000 11500 12000
P (Xn ≤ k) 0.9245 0.9448 0.9603 0.9720 0.9806 0.9868 0.9912 0.9942
Wahrs heinli hkeit für die erste Kollision na h hö hstens k Versu hen beim Besetzen von n = 49 6 Fä hern
Tabelle 10.1
10.1 Satz
Für jede positive reelle Zahl t gilt die Grenzwertaussage √ 2 lim P Xn ≤ n · t = 1 − e−t /2 . n→∞
Beweis:
Zu vorgegebenem t > 0 existiert für jede genügend groÿe Zahl n eine natürli he Zahl kn mit √ 2 ≤ kn ≤ n · t ≤ kn + 1 ≤ n + 1 (10.3) (warum?), und es folgt
P (Xn ≤ kn ) ≤ P (Xn ≤
√
n · t) ≤ P (Xn ≤ kn + 1).
(10.4)
71 Unter Verwendung der Unglei hung
1 − x ≤ e−x
(10.5)
(x ∈ IR)
Pm
für die Exponentialfunktion (Skizze!) und der Summenformel j=1 j = wir aus (10.2) die Abs hätzung kX kY n −1 n −1 j j P (Xn ≤ kn ) = 1 − 1− ≥ 1 − exp − n n j=1 j=1 1 kn (kn − 1) = 1 − exp − · . 2 n
m(m+1) 2
erhalten
Völlig analog liefert die Unglei hung 1 − x ≥ exp(−x/(1 − x)) (x < 1) (diese folgt aus der Unglei hung ln y ≥ 1−1/y für die Logarithmus-Funktion dur h Exponentiation und Substitution x = 1 − y ) die Abs hätzung kn X j P (Xn ≤ kn + 1) ≤ 1 − exp − n−j j=1 1 kn · (kn + 1) ≤ 1 − exp − · 2 n − kn
(man bea hte die Gültigkeit der Unglei hung n − j ≥ n − kn für j ∈ {1, . . . ,kn }!). Da (10.3) die Grenzwertaussagen
lim
n→∞
kn · (kn − 1) kn · (kn + 1) = lim = t2 n→∞ n n − kn
na h si h zieht, konvergieren beide S hranken in (10.4) gegen 1 − exp(−t2 /2). Setzen wir in Satz 10.1 speziell t = √ 1 P Xn ≤ n · 2 · ln 2 ≈ 2
√
2 · ln 2, so folgt für groÿes n (10.6)
und somit speziell P (Xn ≤ 4403) ≈ 1/2 im Fall n = 13 983 816. Der Beweis von Satz 10.1 zeigt aber au h, dass die Wahrs heinli hkeit P (Xn ≤ k) dur h k(k − 1) k(k − 1) 1 − exp − (10.7) ≤ P (Xn ≤ k) ≤ 1 − exp − 2n 2(n − k + 1) na h unten und oben abges hätzt werden kann.
Abs hlieÿend sei bemerkt, dass das Paradoxon der ersten Kollision in anderem Gewand als Geburtstagsproblem bekannt ist. Beim Geburtstagsproblem ist na h der Wahrs heinli hkeit gefragt, dass unter k rein zufällig ausgewählten Personen mindestens zwei an demselben Tag Geburtstag haben. Deuten wir die 365 Tage des Jahres (S haltjahre seien unberü ksi htigt) als Fä her und die Personen als Teil hen, so entspri ht das Feststellen der Geburtstage dem rein zufälligen Besetzen der 365 Fä her mit k Teil hen. Hierbei wird zwar die unrealistis he Annahme einer Glei hverteilung der Geburtstage über alle
72
10 Das Paradoxon der ersten Kollision
365 Tage gema ht; es kann aber gezeigt werden, dass Abwei hungen von dieser Annahme die Wahrs heinli hkeit für einen Mehrfa hgeburtstag nur vergröÿern. Da beim Geburtstagsproblem P (X365 ≤ 23) = 0.507 . . . > 1/2 gilt (vgl. (10.2)), kann dur haus darauf gewettet werden, dass unter√23 (oder mehr) Personen mindestens zwei am glei hen Tag Geburtstag haben. Wegen 365 · 2 · ln 2 = 22.49 . . . ist dabei die Approximation (10.6) s hon für n = 365 sehr gut. Eine weitere Erklärung dafür, dass die Zeit bis zur √ ersten Kollision im Teil hen/Fä her Modell bei n Fä hern von der Gröÿenordnung n ist, liefert die Darstellung [ P (Xn ≤ k) = P Ai,j . 1≤i 0: Pn ¯) · (yj − y¯) σxy j=1 (xj − x r(X,Y ) = q (21.10) = qP . P n 2 2 2 σx · σy ¯) · nj=1 (yj − y¯)2 j=1 (xj − x 21.11 Empiris her Korrelationskoezient
Die re hte Seite von (21.10) heiÿt empiris her Korrelationskoezient (im Sinne von Pearson) der Daten(Paare) (x1 ,y1 ), . . . ,(xn ,yn ). Teilt man in (21.10) Zähler und Nenner des re hts stehenden Bru hes dur h n − 1, so lässt si h der empiris he Korrelationskoefzient mittels der empiris hen Standardabwei hungen sx und sy von x1 , . . . ,xn bzw. y1 , . . . ,yn (siehe (5.8)) folgendermaÿen ausdrü ken: P 1 · nj=1 (xj − x ¯) · (yj − y¯) r := n−1 . sx · sy
Um ein Gefühl für die Stärke der Korrelation von Punktwolken zu erhalten, sind in Bild 21.3 für den Fall n = 50 vier Punkthaufen mit den zugehörigen Regressionsgeraden und empiris hen Korrelationskoezienten r skizziert. Eine A hsenbes hriftung wurde ni ht vorgenommen, weil r invariant gegenüber Transformationen der Form x → ax + b, 7
Das Wort Regression geht auf Sir (seit 1909) Fran is Galton (18221911) zurü k, der bei der Vererbung von Erbsen einen
Rü kgang des dur hs hnittli hen Dur hmessers feststellte. Galton, ein Cousin von Charles Robert Darwin (1809 1882), war ein Pionier in der Erfors hung der mens hli hen Intelligenz und ein Wegbereiter der Mathematis hen Statistik. Na h dem Studium der Medizin in Cambridge unternahm er ausgedehnte Fors hungsreisen in den Orient und na h Afrika. Seine späteren Arbeiten bes häftigten si h u.a. mit Meteorologie, Psy hologie, der Analyse von Fingerabdrü ken, Eugenik und Vererbungslehre. Das heute no h bestehende Galton Laboratory am University College London ist aus seinem Fors hungsinstitut hervorgegangen.
170
21 Kovarianz und Korrelation
y → cy + d mit a · c > 0 ist (Aufgabe 21.1). Das linke untere Bild verdeutli ht, dass der empiris he Korrelationskoezient nur eine Aussage über die Stärke eines linearen Zusammenhangs zwis hen Zufallsvariablen (Merkmalen) ma ht. Obwohl hier ein ausgeprägter quadratis her Zusammenhang vorliegt, ist die empiris he lineare Korrelation ungefähr 0. q y y q q q
q qq qq q q q q q q qq q q q q q q qq q q q q q q q q q qq qq q qq qq
r = 0.890
q q qq
qq q q
q
q
q q r = −0.0014 q
q
q
qq
qq
qq
qq
qq
y
qq q q q q q qq q q q qq q qq q
Bild 21.3
qq
q
q qq
q
qq
qq
q
qq
q
q
x
q
q
q
qq q
q
qq q q q q qq q q q q q q q q q q q q q q q qq q x q q qq q qq q q qq q q q q
r = −0.612
q
y
q q qq q q qq q q q qq q q qq q qq q q q qq q qq q q q q qq q qqq q q q
r = 0.255 q
x
qq q
q
q
x
Punktwolken und Korrelationskoezienten
21.12 Robuste lineare Regression
Dur h die Verwendung der ni ht robusten arithmetis hen Mittel und empiris hen Varianzen (vgl. 5.6 und 5.7) sind sowohl die Parameter a∗ ,b∗ der na h der Methode der kleinsten Quadrate gewonnenen Regressionsgeraden als au h der empiris he Pearson Korrelationskoezient r ni ht robust gegenüber dem Auftreten eventueller Ausreiÿer. Robuste Verfahren zur linearen Regression minimieren anstelle der in (21.8) auftretenden Quadratsumme die Summe n X
|yj − a − b · xj |
n X
g(yj − a − b · xj )
j=1
der absoluten Abwei hungen oder allgemeiner die Summe
j=1
bezügli h a und b (sog. MS hätzer, M steht für Minimum). Dabei ist g eine geeignet gewählte Funktion, wie z.B. 2 falls − k ≤ z ≤ k, z , g(z) := 2 · k · |z| − k 2 , falls z < −k oder k < z.
171 Der hier auftretende Parameter k besitzt in gewisser Weise eine Vermittlerfunktion zwis hen der Methode der kleinsten Quadrate (g(z) = z 2 ) und der LADMethode (g(z) = |z|). Eine Empfehlung zur Wahl von k ist das 1.483fa he des empiris hen Medians der absoluten Abwei hungen |yj −a∗ −b∗ ·xj |, j = 1, . . . ,n. Der Faktor 1.483 besitzt dabei eine an dieser Stelle ni ht begründbare Optimalitätseigens haft. Die Lösung der entstehenden Minimierungsaufgabe erfolgt mit Hilfe numeris her Iterationsverfahren. Einen Überbli k über Alternativen zur klassis hen Methode der kleinsten Quadrate gibt [BID℄. 21.13 Rangkorrelation na h Spearman8
Eine weitere Mögli hkeit, die Stärke eines statistis hen Zusammenhanges zwis hen zwei quantitativen Merkmalen X und Y zu messen, ist der Spearmans he Rangkorrelations-
koezient. Zu seiner Einführung benötigen wir den Begri des Ranges eines Sti hprobenwertes. Ausgangspunkt ist hier wie in 21.10 eine Sti hprobe (x1 ,y1 ), . . . ,(xn ,yn ) des MerkmalPaares (X,Y ). Dabei sei der Einfa hheit halber vorausgesetzt, dass alle Werte x1 , . . . ,xn und alle Werte y1 , . . . ,yn vers hieden sind, was
x(1) < x(2) < . . . < x(n) ,
y(1) < y(2) < . . . < y(n)
für die geordnete x bzw. y Sti hprobe (vgl. (5.5)) zur Folge hat. Ist xj unter den Werten x1 , . . . ,xn der qj kleinste, d.h. gilt xj = x(qj ) , so besitzt xj na h Denition den Rang qj unter x1 , . . . ,xn . In glei her Weise hat yj im Falle yj = y(rj ) den Rang rj in der y Sti hprobe. Eine Darstellung dieser Ränge mit Hilfe von Indikatoren ist gegeben dur h
qj =
n X i=1
1{xi
≤ xj },
rj =
n X i=1
1{yi
≤ yj }.
Zur Illustration dieser neuen Begrisbildung betra hten wir in Tabelle 21.1 die 100m Laufzeiten (xj ) und Weitsprungergebnisse (yj ) der 8 besten Siebenkämpferinnen bei den Olympis hen Spielen 1988 (vgl. [SDS℄, S. 302).
j xj x(j) qj yj y(j) rj
1 12.69 12.69 1 7.27 6.25 8
2 12.85 12.85 2 6.71 6.32 7
3 13.20 13.20 3 6.68 6.33 6
4 13.61 13.38 7 6.25 6.37 1
5 13.51 13.51 5 6.32 6.47 2
6 13.75 13.55 8 6.33 6.68 3
7 13.38 13.61 4 6.37 6.71 4
8 13.55 13.75 6 6.47 7.27 5
100mLaufzeiten und Weitsprungergebnisse der 8 besten Siebenkämpferinnen bei den Olympis hen Spielen 1988
Tabelle 21.1
8
Charles Edward Spearman (18631945), na h dem Studium der Psy hologie bei Wilhelm Wundt (18321920) in Leipzig und Georg Elias Müller (18501934) in Göttingen Professor für Psy hologie am Univ. College in London. Spearman war Mitbegründer der Intelligenztests.
172
21 Kovarianz und Korrelation
In Tabelle 21.1 fällt auf, dass die beste (= Rang 1) 100mLäuferin zuglei h die beste (= Rang 8) Weitspringerin war. Um einen statistis hen Zusammenhang zwis hen den Datenpaaren (x1 ,y1 ), . . . ,(xn ,yn ) zu messen, stellt der dur h Pn ¯) · (rj − r¯) j=1 (qj − q ρ := qP (21.11) P n 2 ¯) · nj=1 (rj − r¯)2 j=1 (qj − q
denierte (Spearmans he) Rangkorrelationskoezient eine Beziehung P P zwis hen den Rängen qj und rj her. Dabei ist q¯ := n−1 · nj=1 qj und r¯ := n−1 · nj=1 rj . Da q1 , . . . ,qn −1 und r1 , . . . ,rn jeweils eine Permutation Zahlen P Pn 1,2. . . ,n darstellen, gelten q¯P=n n 2 · Pn der n 2 = q j = n(n+1)(2n+1)/6 = j = (n+1)/2 = r ¯ sowie j=1 j j=1 j=1 rj . j=1 Hiermit ergeben si h dur h direkte Re hnung die alternativen Darstellungen
ρ
=
1 −
= −1 +
n X 6 (qj − rj )2 · n · (n2 − 1) j=1 n X
6 · n · (n2 − 1)
j=1
(rj + qj − n − 1)2 .
(21.12) (21.13)
(21.11) zeigt, dass der Rangkorrelationskoezient von (x1 ,y1 ), . . . ,(xn ,yn ) glei h dem Pearsons hen Korrelationskoezienten der RangPaare (q1 ,r1 ), . . . ,(qn ,rn ) ist. Insbesondere gilt damit −1 ≤ ρ ≤ 1. Na h (21.12) wird der Extremfall ρ = 1 genau dann errei ht, wenn für jedes j = 1, . . . ,n die Rangglei hheit qj = rj eintritt, also für jedes j der j kleinste xWert zum j kleinsten y Wert gehört. Der andere Extremfall ρ = −1 liegt na h (21.13) genau dann vor, wenn si h für jedes j = 1, . . . ,n die Ränge qj und rj zu n + 1 aufaddieren, also der kleinste xWert zum gröÿten y Wert korrespondiert, der zweitkleinste xWert zum zweitgröÿten y Wert usw. Diese extremen Fälle stellen si h also genau dann ein, wenn dur h die Punktwolke {(xj ,yj ) : j = 1, . . . ,n} irgendeine streng monoton wa hsende (bzw. streng monoton fallende) Kurve gezei hnet werden kann. Dies kann eine Gerade sein (dann ist au h der PearsonKorrelationskoezient r glei h 1 bzw. glei h -1), muss es aber ni ht. Für die Daten aus Tabelle 21.1 nimmt der (am einfa hsten na h Formel (21.12) bere hnete) Rangkorrelationskoezient den Wert −5/6 = −0.833 . . . an. Somit sind 100m Laufzeit und die errei hte Weite beim Weitsprung der Siebenkämpferinnen stark negativ rangkorreliert. 21.14 Korrelation und Kausalität
Einer der häugsten Trugs hlüsse im Zusammenhang mit dem Korrelationsbegri ist der irrige S hluss von Korrelation auf Kausalität. So stellte etwa die Deuts he Gesells haft für Personalführung na h einer Befragung über die Einstiegsgehälter von Berufsanfänger(innen) fest, dass Studiendauer und Einstiegsgehalt positiv korreliert sind, also ein langes Studium in der Tendenz zu höheren Anfangsgehältern führt. Unters heidet
173 man jedo h die Absolvent(inn)en na h ihrem Studienfa h, so stellt si h in jedem einzelnen Fa h eine negative Korrelation zwis hen Studiendauer und Einstiegsgehalt ein (vgl. [KRA℄). Der Grund für dieses in Bild 21.4 mit drei vers hiedenen Studienfä hern dargestellte SimpsonParadoxon für Korrelationen (vgl. 15.12) ist einfa h: Die Ab solvent(inn)en des mit dem Symbol 3 gekennzei hneten Fa hes erzielen im S hnitt ein höheres Startgehalt als ihre Kommiliton(inn)en im Fa h ◦ , weil das Studium im Fa h 3 vergli hen mit dem Fa h ◦ wesentli h aufwändiger ist. Das Fa h 2 nimmt hier eine Mittelstellung ein. Natürli h führt innerhalb jedes einzelnen Fa hes ein s hnellerer Studienabs hluss in der Tendenz zu einem höheren Anfangsgehalt. Jahresanfangsgehalt in Euro
45000
3
40000
3 3 33 3 3
2
35000
◦ ◦◦
30000
6
◦◦ ◦ ◦ ◦ 7
Bild 21.4
22 22 22 2 2 22
◦
◦
r = +0.77 3 33
r3 = −0.68
r2 = −0.85
r◦ = −0.90 8
9
10
11
12
Studiendauer
13
SimpsonParadoxon für Korrelationen
An diesem Beispiel wird deutli h, dass bei Verna hlässigung eines dritten Merkmals in Form einer sogenannten Hintergrundvariablen (hier des Studienfa hes) zwei Merkmale positiv korreliert sein können, obwohl sie in jeder Teilpopulation mit glei hem Wert der Hintergrundvariablen eine negative Korrelation aufweisen.
Übungsaufgaben Ü 21.1 Es seien X und Y b,c · Y + d) = r(X,Y ).
Zufallsvariablen und
a,b,c,d ∈ IR
mit
a · c > 0.
Zeigen Sie:
r(a · X +
Ü 21.2 Ein e hter Würfel wird zweimal in unabhängiger Folge geworfen; die Augenzahl des
j ten Wurfes sei mit Xj bezei hnet (j = 1,2). Bestimmen Sie: a) C(X1 ,X1 + X2 ) b) r(X1 ,X1 + X2 ) ) C(X1 , max(X1 ,X2 )) d) r(X1 , max(X1 ,X2 )). Ü 21.3 Zeigen Sie unter Verwendung von (14.19): Die Varianz einer na h (14.18) Pólyaverteilten
Zufallsvariablen
X
V (X) = n ·
ist
r (n − 1) · c r · 1− · 1+ . r+s r+s r+s+c
174
21 Kovarianz und Korrelation n mal (n ≥ 3) in unabhängiger Folge geworfen; Xj bezei hne die Pn−1 X sei dur h X := j=1 1{Xj < Xj+1 } E(X) b) V (X).
Ü 21.4 Ein e hter Würfel wird
im
j ten
Wurf erzielte Augenzahl. Die Zufallsvariable
deniert. Bestimmen Sie: a) Ü 21.5 Der Zufallsvektor
0, . . . ,ps > 0 a) b)
(X1 , . . . ,Xs )
besitze die Verteilung
C(Xi ,Xj ) = −n · pi · pj (i 6= j), r pi · pj r(Xi ,Xj ) = − (1 − pi ) · (1 − pj )
Hinweis:
M ult(n; p1 , . . . ,ps ),
wobei
p1 >
vorausgesetzt ist. Zeigen Sie:
Xi + Xj
(i 6= j).
besitzt die Binomialverteilung
Bin(n,pi + pj ).
Ü 21.6 Lösen Sie die Approximationsaufgabe (21.5) für den Fall
Y = max(X1 ,X2 ) und X = X1
im Beispiel des zweifa hen Würfelwurfes (vgl. Aufgabe 21.2). Ü 21.7
a) Wel he Lösung (c
E(X − c − dY )2
∗
bezügli h
,d∗ ) besitzt die Aufgabe, die mittlere quadratis he Abwei hung c und d zu minimieren?
b) Zeigen Sie die Gültigkeit der Unglei hung
b∗ · d∗ ≤ 1
mit
b∗
aus Satz 21.8.
Ü 21.8 Bestimmen Sie zu den Daten von Tabelle 21.1 die empiris he Regressionsgerade
a∗ + b∗ x
von
y
auf
x
sowie den empiris hen Korrelationskoezienten
y =
r.
ρ von (x1 ,y1 ), . . . ,(xn ,yn ) sei +1. Dabei yn = max(y1 ,y2 , . . . ,yn ). Wie verändert si h ρ, wenn (xn ,yn ) dur h das Paar (xn ,y0 ) mit y0 := min(y1 ,y2 , . . . ,yn )−1 ersetzt wird und alle anderen Paare (xj ,yj ) unverändert bleiben? Ü 21.9 Der Spearmans he Rangkorrelationskoezient
sei o.B.d.A.
Lernziele Sie sollten
• die Eigens haften 21.2 der Kovarianz kennen und die Varianz einer Indikatorsumme angeben können; • Unkorreliertheit und Unabhängigkeit unters heiden können; • die Bedeutung des Korrelationskoezienten na h Pearson als Maÿ für die Güte der linearen Vorhersagbarkeit einer Zufallsvariablen dur h eine andere Zufallsvariable verstanden haben; • die Cau hyS hwarzUnglei hung und die Methode der kleinsten Quadrate kennen; • wissen, dass der Spearmans he Rangkorrelationskoezient die Stärke eines monotonen Zusammenhangs zwis hen zwei Merkmalen bes hreibt; • für eine sa hlogis he Interpretation empiris her Korrelationskoezienten sensibilisiert sein.
175
22
Diskrete Wahrs heinli hkeitsräume
Die Grenzen der bislang betra hteten endli hen WRäume als Modelle für Zufallsvorgänge werden s hon bei einfa hen Wartezeitproblemen deutli h (siehe Kapitel 23). Um die mathematis hen Hilfsmittel so einfa h wie mögli h zu halten, bes hränken wir uns bei einer Erweiterung der Theorie auf den Fall diskreter Wahrs heinli hkeitsräume, d.h. auf die Situation einer abzählbarunendli hen Grundmenge Ω = {ω1 ,ω2 , . . .}. In Analogie zu den in Kapitel 6 angestellten Überlegungen liegt es hier nahe, jedem Elementarereignis {ωj } eine Wahrs heinli hkeit
p(ωj ) ≥ 0, j ≥ 1,
(22.1)
zuzuordnen, wobei die Summenbeziehung ∞ X
(22.2)
p(ωj ) = 1
j=1
erfüllt sein muss. Denieren wir dann X P (A) := p(ωj ) für A ⊆ Ω,
(22.3)
j∈IN:ωj ∈A
so ist P (A) als endli he Summe oder Grenzwert einer wegen (22.1) und (22.2) absolut konvergenten Reihe eine wohldenierte Zahl im Intervall [0,1], und das Paar (Ω,P ) ist aufgrund des Groÿen Umordnungssatzes für Reihen (siehe z.B. [WAL℄) ein diskreter Wahrs heinli hkeitsraum im Sinne der folgenden Denition. 22.1 Denition
Ein diskreter Wahrs heinli hkeitsraum (WRaum) ist ein Paar (Ω,P ), wobei Ω eine ni htleere endli he oder abzählbarunendli he Menge und P eine auf den Teilmengen von Ω denierte reellwertige Funktion mit folgenden Eigens haften ist: a) P (A) ≥ 0
für A ⊆ Ω,
b) P (Ω) = 1, ∞ ∞ X X Aj = P (Aj ),
) P j=1
(Ni htnegativität) (Normiertheit) (σ Additivität )
j=1
falls A1 ,A2 , . . . disjunkte Ereignisse sind.
Wie bisher heiÿt P eine Wahrs heinli hkeitsverteilung (WVerteilung) auf (den Teilmengen von) Ω und P (A) die Wahrs heinli hkeit eines Ereignisses A.
176
22 Diskrete Wahrs heinli hkeitsräume
Sind A und B disjunkte Ereignisse, so liefert die Wahl A1 = A,A2 = B,Aj = ∅ (j ≥ 3) zusammen mit 22.1 ) die Additivitätseigens haft 6.1 ). Folgli h ist jeder endli he W Raum gemäÿ Denition 6.1 au h ein diskreter WRaum. Man bea hte, dass in einem diskreten WRaum mit unendli her Grundmenge Ω alle aus den Axiomen 6.1 a) ) abgeleiteten Eigens haften eines WMaÿes gültig bleiben, da für ihre Herleitung im Verglei h zur σ Additivität 22.1 ) nur die s hwä here Eigens haft 6.1 ) der endli hen Additivität benutzt wurde. Dies gilt für die Folgerungen 6.2 a)g), die Siebformel 11.1, die Formel von der totalen Wahrs heinli hkeit 15.7 a) und die BayesFormel 15.7 b). Dabei ist die bedingte Wahrs heinli hkeit wie im Fall eines endli hen WRaumes deniert (vgl. 15.4). Wie bisher nennen wir jede Abbildung X : Ω → IR eine Zufallsvariable und n Zufallsvariablen auf Ω einen ndimensionalen Zufallsvektor (vgl. 17.10). Ist der Grundraum Ω abzählbarunendli h, so kann eine auf Ω denierte Zufallsvariable X abzählbar unendli h viele Werte x1 ,x2 , . . . annehmen. Dies bedeutet, dass bei der Untersu hung der Verteilung einer Zufallsvariablen unendli he Reihen auftreten können. In glei her Weise führt das Studium der gemeinsamen Verteilung P (X = xi ,Y = yj ) (i,j ≥ 1) zweier Zufallsvariablen mit unendli hen Werteberei hen auf Doppelreihen. Beispielsweise gilt X X P (X ≤ x,Y ≤ y) = P (X = xi ,Y = yj ), x,y ∈ IR, i:xi ≤x j:yj ≤y
wobei die Summationsreihenfolge na h dem Groÿen Umordnungssatz beliebig ist. Um die Vorteile eines bedenkenlosen Re hnens au h bei (Mehrfa h)Reihen mit ni ht notwendig positiven Gliedern nutzen zu können, fordern wir von jetzt ab stets die absolute Konvergenz jeder auftretenden Reihe. So existiert vereinbarungsgemäÿ der Erwartungswert einer Zufallsvariablen X nur dann, wenn die Bedingung X (22.4) |X(ω)| · P ({ω}) < ∞ ω∈Ω
erfüllt ist. Unter dieser Voraussetzung ist die in Kapitel 12 angegebene Denition X E(X) := X(ω) · P ({ω}) ω∈Ω
weiterhin sinnvoll, und alle Regeln wie 12.2 oder
E(X) =
∞ X j=1
E(g(X)) =
xj · P (X = xj ),
∞ X j=1
g(xj ) · P (X = xj )
(22.5)
(22.6)
(vgl. (12.7) und (12.6)) bleiben erhalten. Glei hes gilt für die in den Kapiteln 20 und 21 angestellten Überlegungen im Zusammenhang mit der Varianz, der Kovarianz und der Korrelation von Zufallsvariablen.
177 22.2 Das St. Petersburger Paradoxon1
Stellen Sie si h vor, Ihnen würde folgendes Spiel angeboten: Gegen einen no h festzulegenden Einsatz von a Euro wird eine e hte Münze mit den Seiten Wappen und Zahl in unabhängiger Folge geworfen. Liegt dabei im k ten Wurf zum ersten Mal Zahl oben, so erhalten Sie 2k−1 Euro als Gewinn ausbezahlt. Da die Wahrs heinli hkeit hierfür dur h 2−k gegeben ist (es muss k − 1 mal hintereinander Wappen und dann Zahl auftreten, vgl. Kapitel 23), nimmt der Spielgewinn ohne Abzug des zu diskutierenden Einsatzes den Wert 2k−1 mit der Wahrs heinli hkeit 2−k an. Ein formaler WRaum für dieses Spiel ist der Grundraum Ω = IN mit P ({k}) := 2−k , k ∈ IN. Denieren wir den Spielgewinn X als Zufallsvariable auf Ω dur h X(k) := 2k−1 , k ∈ IN, so gilt für jede natürli he Zahl n
X
ω∈Ω
|X(ω)| · P ({ω}) ≥
n X k=1
X(k) · P ({k}) =
n X k=1
2k−1 · 2−k =
n . 2
Dies bedeutet, dass die Forderung (22.4) ni ht erfüllt ist und dass somit der zufällige Gewinn beim St. Petersburger Spiel keinen Erwartungswert besitzt. Das Paradoxe am St. Petersburger Spiel besteht darin, dass wir das Spiel vom Standpunkt des Erwartungswertes her dadur h unvorteilhafter ma hen können, dass im Falle einer Serie von n Wappen das Spiel ohne Gewinn endet. Da der Erwartungswert dieses modizierten Spieles dur h n/2 gegeben ist (siehe obige Unglei hung), wäre beim St. Petersburger Spiel ein beliebig hoher Einsatz gere htfertigt. Andererseits dürfte kaum jemand bereit sein, mehr als 16 Euro als Einsatz zu bezahlen, da die Wahrs heinli hkeit, mehr als 16 Euro zu gewinnen, nur 1/32 wäre. Die Untersu hungen zum St. Petersburger Paradoxon dauern bis in die heutige Zeit an (siehe z. B. [SHA℄). 22.3 Das Spieler-Ruin-Problem
Zwei Spieler A und B mit einem Kapital von a bzw. b Euro werfen eine Münze. Tritt Kopf auf, zahlt B an A einen Euro, im Fall von Zahl ist es umgekehrt. Das Spiel wird solange in unabhängiger Folge wiederholt, bis einer der Spieler bankrott ist. Mit wel her Wahrs heinli hkeit gewinnt A dieses Spiel, wenn Kopf und Zahl mit den Wahrs heinli hkeiten p > 0 bzw. q := 1 − p > 0 auftreten?
Wir lösen dieses klassis he Problem dadur h, dass wir bei festem Gesamtkapital r := a + b beider Spieler die Wahrs heinli hkeit für den Gewinn von A und B in Abhängigkeit vom Anfangskapital von A betra hten. Wie in Abs hnitt 8.6 ist es bequem, die mögli hen Spielverläufe wie in Abs hnitt als Pfade in einem kartesis hen Koordinatensystem darzustellen (Bild 22.1). Besitzt A das Anfangskapital k , so beginnt der Pfad im Punkt (0,k). Setzen wir cj := bzw. cj = −1, falls A bzw. B das j -te Spiel gewinnt, so bes hreibt die Summe sm := k + c1 + . . . + cm das Kapital von A na h m Spielrunden. 1
Die Namensgebung St. Petersburger Paradoxon geht auf einen in der Zeits hrift der St. Petersburger Akademie publizierten Artikel von Daniel Bernoulli (17001782), einem Neen von Jakob Bernoulli, aus dem Jahre 1738 zurü k. In diesem Artikel bes hreibt D. Bernoulli obiges Spiel und stellt die Frage na h einem
gere hten Einsatz.
178
22 Diskrete Wahrs heinli hkeitsräume
Der Pfad verbindet die Punkte (0,k), (1,s1 ), (2,s2 ) . . . miteinander. Das Spiel endet, wenn der Pfad erstmalig entweder die Höhe r oder die Höhe 0 errei ht. Im ersten Fall hat Spieler A gewonnen (vgl. den dur hgezogenen Pfad in Bild 22.1), im zweiten Fall Spieler B (gestri helter Pfad in Bild 22.1). Ein formaler Grundraum für dieses Spiel ist die abzählbar-unendli he Menge
Ωk := {ω = (s1 , . . . ,sn ) : n ∈ IN, sn ∈ {0,r}, sj ∈ / {0,r} für j ≤ n − 1}. Dabei soll der Index k betonen, dass der Pfad in der Höhe k startet (was in die Denition der sj eingeht). Die Ereignisse A und B , dass Spieler A bzw. B gewinnen, sind dann diejenigen Teilmengen von Ωk , für die in der obigen Mengenbes hreibung die Bedingung sn ∈ {0,r} dur h sn = r bzw. dur h sn = 0 ersetzt wird. r
A gewinnt
k
Bild 22.1: Zum Spieler-Ruin-Problem
B gewinnt 0
S hreiben wir kurz Pk (A) für die Wahrs heinli hkeit, dass A bei einem Anfangskapital von k Euro gewinnt (k = 0,1, . . . ,r), so gilt oenbar
P0 (A) = 0,
(22.7)
Pr (A) = 1,
denn im Fall k = 0 bzw. k = r sind A bzw. B bereits bankrott. Im Fall 1 ≤ k ≤ r − 1 besitzt A mit Wahrs heinli hkeit p bzw. q na h dem ersten Spiel entweder k+1 oder k−1 Euro. Da die Ergebnisse vers hiedener Spiele voneinander unabhängig sind, stellt si h die Situation für A na h dem ersten Spiel wie zu Beginn (nur mit anderem Startkapital) dar. Na h der Formel von der totalen Wahrs heinli hkeit folgt
Pk (A) = p · Pk+1 (A) + q · Pk−1 (A),
k = 1,2, . . . ,r − 1,
und somit für die Dierenzen dk := Pk+1 (A) − Pk (A) die Rekursionsformel
q dk = dk−1 · , p
k = 1, . . . ,r − 1.
(22.8)
Hieraus liest man sofort die Wahrs heinli hkeit Pk (A) im Fall p = q = 1/2 ab: Da die Dierenzen d1 , . . . ,dr−1 na h (22.8) glei h sind, ergibt si h wegen (22.7) das Resultat Pk (A) = k/r und somit für unser anfangs gestelltes Problem die Lösung
P (A gewinnt) =
a , a+b
falls p = 1/2.
(22.9)
Im Fall p 6= 1/2 folgt aus (22.8) induktiv dj = (q/p)j · d0 (j = 1, . . . ,r − 1) und somit
179
Pk (A) = Pk (A) − P0 (A) =
k−1 X j=0
d j = d0 ·
k−1 j X q j=0
p
= d0 ·
1 − (q/p)k . 1 − q/p
Setzt man hier k = r, so ergibt si h wegen Pr (A) = 1 die Gröÿe d0 zu
d0 =
1 − q/p , 1 − (q/p)r
und man erhält
Pk (A) =
1 − (q/p)k , 1 − (q/p)r
falls p 6= 1/2,
insbesondere also für unser anfangs gestelltes Problem (siehe au h Ü 22.3) die Lösung
P (A gewinnt) =
1 − (q/p)a , 1 − (q/p)a+b
falls p 6= 1/2.
(22.10)
22.4 Bemerkungen zur σ Additivität Das Präx σ im Wort σ Additivität von 22.1 ) steht für die Mögli hkeit, abzählbar unendli he Vereinigungen von Ereignissen zu bilden. Diese Forderung ist im Falle einer unendli hen Grundmenge Ω stärker als die endli he Additivität. So existiert etwa eine auf allen Teilmengen von IN denierte Funktion m, wel he nur die Werte 0 und 1 annimmt und endli hadditiv ist, d.h. es gilt m(A + B) = m(A) + m(B) für disjunkte Mengen A,B ⊆ IN. Weiter gilt m(A) = 0 für jede endli he Menge A und m(A) = 1 für jede Teilmenge A von IN mit endli hem Komplement Ac . Wegen m(IN) = 1 und m({n}) = 0 für jedes n ≥ 1 kann diese Funktion m ni ht σ additiv sein. Bitte versu hen Sie ni ht, eine derartige Funktion elementar zu konstruieren. Ihr Existenzna hweis er folgt mit Hilfe eines s hwereren Ges hützes , des Auswahlaxioms der Mengenlehre.
Obwohl die Forderung der σ Additivität ni ht aus den Eigens haften (4.2) (4.4) relativer Häugkeiten heraus motiviert werden kann, wird sie generell für eine axiomatis he Grundlegung der Wahrs heinli hkeitstheorie akzeptiert. In diesem Zusammenhang sei neben der bahnbre henden Arbeit von Kolmogorow (vgl. [KOL℄) auf Felix Hausdors2 grundlegende Beiträge verwiesen (siehe [GIR℄). 22.5 Einige wi htige Reihen
In den nä hsten Kapiteln benötigen wir neben der Exponentialreihe
ex =
∞ X xk , k! k=0
2
x ∈ IR,
(22.11)
Felix Hausdor (18681942), Mathematiker und (unter dem Pseudonym Paul Mongré) S hriftsteller, na h Professuren in Leipzig, Bonn und Greifswald ab 1921 Professor an der Universität Bonn. Hausdor lieferte grundlegende Beiträge sowohl zur Reinen als au h zur Angewandten Mathematik, insbesondere zur Mengenlehre, zur Topologie und zur Maÿtheorie. Eine ausführli he Würdigung seines literaris hen Werkes ndet si h in [EIC℄. 1942 wählte er angesi hts der drohenden Deportation in ein Konzentrationslager zusammen mit seiner Frau und seiner S hwägerin den Freitod, vgl. [NEU℄.
180
22 Diskrete Wahrs heinli hkeitsräume
die geometris he Reihe ∞ X
xk =
k=0
1 , |x| < 1, 1−x
(22.12)
mit ihrer ersten und zweiten Ableitung ! ∞ ∞ X 1 d d X k k−1 = k·x = x dx dx 1 − x k=1
k=0
1 , |x| < 1, (1 − x)2
= ∞ X k=2
k−2
k · (k − 1) · x
∞ X
(22.13)
!
=
d2 dx2
=
2 , |x| < 1, (1 − x)3
k=0
k
x
=
d2 dx2
1 1−x
(22.14)
sowie die Binomialreihe (vgl. [HEU℄ oder [WAL℄) ∞ X α (1 + x)α = · xk , |x| < 1, α ∈ IR . k
(22.15)
k=0
Dabei ist der allgemeine Binomialkoezient dur h α α · (α − 1) · . . . · (α − k + 1) αk := = , k k! k!
α ∈ IR, k ∈ IN0
deniert. Eine einfa he Überlegung (Ü 22.1) liefert das Gesetz der oberen Negation k−α−1 α . = (−1)k · (22.16) k k
Übungsaufgaben Ü 22.1 Beweisen Sie das Gesetz der oberen Negation (22.16). Ü 22.2 Die Zufallsvariable
X
besitze die Verteilung
a) Zeigen Sie die Gültigkeit von
P∞
j=2
b) Existiert der Erwartungswert von
P (X = j) = 1/(j(j − 1))
für
j = 2,3, . . .
P (X = j) = 1.
X?
Ü 22.3 Wie groÿ ist in der Situation des Spieler-Ruin-Problems die Wahrs heinli hkeit, dass
Spieler
B
gewinnt?
Lernziele Sie sollten die Denition eines diskreten Wahrs heinli hkeitsraumes beherrs hen und erkennen, dass der si here Umgang mit Reihen ein unerlässli hes Hilfsmittel für die Bere hnung von Wahrs heinli hkeiten in diskreten WRäumen ist.
181
23
Wartezeitprobleme
In diesem Kapitel werden vers hiedene Wartezeitprobleme wie das Warten auf Treer in einer Bernoulli-Kette oder das Sammlerproblem (vgl. Kapitel 9) behandelt. 23.1 Warten auf den ersten Treer: die geometris he Verteilung
Die bisweilen frustrierende Situation des Wartens auf Erfolg bei Glü ksspielen wie Mens härgereDi hni ht! (Warten auf die erste Se hs), Monopoly (Warten auf einen Pas h im Gefängnis) oder Lotto (Warten auf einen Fünfer oder einen Se hser) ist vielen wohlbekannt. Der gemeinsame Nenner ist hier das Warten auf den ersten Treer in unbeeinusst voneinander ablaufenden Treer/NieteVersu hen. Mit wel her Wahrs heinli hkeit tritt dabei der erste Treer im j ten Versu h auf?
Zur Beantwortung dieser Frage bezei hnen wir wie früher einen Treer mit 1 und eine Niete mit 0. Die Treerwahrs heinli hkeit sei p, wobei 0 < p < 1 vorausgesetzt ist. Da der erste Treer genau dann im j ten Versu h auftritt, wenn wir der Reihe na h j − 1 Nullen und dann eine Eins beoba hten, sollte aufgrund der Unabhängigkeit der einzelnen Versu he (Produktexperiment!) die Wahrs heinli hkeit hierfür glei h (1 − p)j−1 · p sein. Ein formaler WRaum für dieses Wartezeitexperiment ist der Grundraum
Ω1 := {1,01,001,0001,00001, . . .}
(23.1)
p1 (ωj ) := P1 ({ωj }) := (1 − p)j−1 · p, j ∈ IN.
(23.2)
mit
Hier steht ωj für ein Wort aus j − 1 Nullen und einer Eins am Ende, also ω1 = 1, ω2 = 01, ω3 = 001, ω4 = 0001 usw. Na h (22.12) gilt ∞ X j=1
p1 (ωj ) = p ·
∞ X k=0
(1 − p)k = p ·
1 = 1, 1 − (1 − p)
so dass die über (23.2) und (22.3) (mit P1 und p1 anstelle von P bzw. p) erklärte Funktion P1 in der Tat eine WVerteilung auf Ω1 ist. Dabei soll die Indizierung mit 1 betonen, dass das Warten auf den ersten Treer modelliert wird. Setzen wir X(ωj ) := j − 1, j ∈ IN, so gibt die Zufallsvariable X die Anzahl der Nieten vor dem ersten Treer an. Wegen {X = k} = {ωk+1 } hat X eine geometris he Verteilung im Sinne der folgenden Denition. 23.2 Denition und Satz
Die Zufallsvariable X besitzt eine geometris he Verteilung mit Parameter p (0 < p < 1), kurz: X ∼ G(p), falls ihre Verteilung dur h
182
23 Wartezeitprobleme
P (X = k) = (1 − p)k · p,
k ∈ IN0 ,
gegeben ist. In diesem Fall gilt: a) E(X) =
1 1−p = − 1. p p
b) V (X) =
1−p . p2
Beweis:
a) folgt unter Bea htung von (22.5) und (22.13) aus
E(X)
=
∞ X
=
p · (1 − p) ·
k=0
k · (1 − p)k · p = p · (1 − p) ·
∞ X k=1
k · (1 − p)k−1
1 1−p = . (1 − (1 − p))2 p
Zum Na hweis von b) verwenden wir die nützli he Darstellung
V (X) = E(X · (X − 1)) + EX − (EX)2 .
(23.3)
Mit (22.6) für g(x) := x(x − 1) und (22.14) ergibt si h
E(X · (X − 1))
=
∞ X k=0
= =
k · (k − 1) · (1 − p)k · p
p · (1 − p)2 · 2
p · (1 − p) ·
∞ X k=2
k · (k − 1) · (1 − p)k−2
2 2 · (1 − p)2 = , 3 (1 − (1 − p)) p2
so dass b) aufgrund des s hon bewiesenen Teils a) und (23.3) folgt.
Da X die Anzahl der Nieten vor dem ersten Treer zählt, besitzt die um eins gröÿere Anzahl der Versu he bis zum ersten Treer den Erwartungswert 1/p. In der Interpretation des Erwartungswertes als dur hs hnittli her Wert auf lange Si ht sind also z.B. im S hnitt 6 Versu he nötig, um mit einem e hten Würfel eine Se hs zu werfen. Dass (plausiblerweise) sowohl der Erwartungswert als au h die Varianz der Wartezeit bis zum ersten Treer bei Verkleinerung der Treerwahrs heinli hkeit p zunehmen, verdeutli hen die Stabdiagramme der geometris hen Verteilung für p = 1/2 und p = 1/4 in Bild 23.1. 23.3 Warten auf den r ten Treer: die negative Binomialverteilung In Verallgemeinerung zu 23.1 fragen wir jetzt na h der Wahrs heinli hkeit, dass der rte Treer (r = 1,2,3, . . .) im j ten Versu h (j ≥ r) auftritt. Hierzu müssen unter den ersten j − 1 Versu hen r − 1 Treer und j − r Nieten sein, und der j te Versu h muss einen Treer liefern. Da jedes aus r Einsen und j − r Nullen bestehende Wort die j−1 Mögli hkeiten gibt, aus den Wahrs heinli hkeit (1 − p)j−r · pr besitzt und da es r−1 ersten j − 1 Versu hen r − 1 Plätze für Treer auszuwählen und die übrigen mit Nieten zu belegen, ist die gesu hte Wahrs heinli hkeit dur h
183
P (X = k)
P (X = k)
0.8
0.8 p = 0.8
0.6 0.4
0.4
0.2
0.2
0 1 2 3 4 5 6 7 8 9 Bild 23.1
pr,j :=
p = 0.5
0.6
k
0 1 2 3 4 5 6 7 8 9
k
Stabdiagramme geometris her Verteilungen
j−1 · (1 − p)j−r · pr , j = r, r + 1, r + 2, . . . r−1
(23.4)
k := j − r dur h, so folgt unter Bea htung der gegeben. Führen wir die Substitution n n = n−m sowie (22.16) und (22.15) Symmetriebeziehung m ∞ ∞ X X k+r−1 pr,j = pr · · (1 − p)k r−1 j=r k=0 ∞ X k+r−1 = pr · · (−1)k · (−(1 − p))k k k=0 ∞ X −r r · (−(1 − p))k = pr · (1 − (1 − p))−r = p · k k=0
=
1.
Dies bedeutet, dass die Werte pr,r , pr,r+1 , . . . eine Wahrs heinli hkeitsverteilung auf dem Grundraum {r,r + 1, . . .} denieren. Tiefere Einsi hten in die Struktur dieser Verteilung erhält man dur h Aufspaltung der Wartezeit bis zum rten Treer in die Anzahl der Versu he bis zum ersten Treer und die Wartezeiten zwis hen dem (j − 1)ten und dem j ten Treer, j = 2, . . . ,r. Ein Grundraum hierfür ist das rfa he kartesis he Produkt
Ωr := {ω = (a1 , . . . ,ar ) : aj ∈ Ω1 für j = 1, . . . ,r}
mit der in (23.1) denierten Menge Ω1 . Da a1 , . . . ,ar voneinander unbeeinusste Wartezeiten darstellen, modellieren wir das Warten auf den rten Treer als Produktexperiment mit dem Grundraum Ωr , wobei analog zu (14.13) die Wahrs heinli hkeitsverteilung Pr auf Ωr dur h Pr ({ω}) := P1 ({a1 }) · . . . · P1 ({ar }), ω = (a1 , . . . ,ar ), gegeben ist. Bezei hnet n(aj ) die Anzahl der Nullen im Wort aj , so gilt P1 ({aj }) = (1 − p)n(aj ) · p (j = 1, . . . ,r) und folgli h
184
P
Pr ({ω}) = (1 − p)
23 Wartezeitprobleme r j=1
n(aj )
· pr .
(23.5)
Denieren wir die Zufallsvariablen X1 ,X2 , . . . ,Xr auf Ωr dur h
Xj (ω) := n(aj ), falls ω = (a1 , . . . ,ar ), so sind X1 , . . . ,Xr na h den in Abs hnitt 17.11 angestellten Überlegungen unabhängig bezügli h Pr und besitzen aus Symmetriegründen dieselbe geometris he Verteilung G(p). Setzen wir weiter
X := X1 + X2 + . . . + Xr ,
(23.6)
so bes hreibt die Zufallsvariable X die Pr Anzahl der Nieten vor dem rten Treer. Wegen {X = k} = {(a1 , . . . ,ar ) ∈ Ωr : j=1 n(aj ) = k} und
r n o X k+r−1 n(aj ) = k = (a1 , . . . ,ar ) ∈ Ωr : k j=1
(von den k + r − 1 Versu hen vor dem rten Treer müssen genau k Nieten sein!) sowie (23.5) hat X die na hstehend denierte negative Binomialverteilung. 23.4 Denition und Satz
Die Zufallsvariable X besitzt eine negative Binomialverteilung mit Parametern r und p (r ∈ IN, 0 < p < 1), kurz: X ∼ N b(r,p), falls ihre Verteilung dur h k+r−1 P (X = k) = · pr · (1 − p)k , k ∈ IN0 , (23.7) k gegeben ist. In diesem Fall gilt: a) E(X) = r ·
1−p , p
b) V (X) = r ·
1−p . p2
Beweis:
Die Behauptungen a) und b) ergeben si h unmittelbar aus der Erzeugungsweise (23.6) zusammen mit 23.2 a), b) und 21.3.
Bild 23.2 zeigt Stabdiagramme der negativen Binomialverteilung für p = 0.8, p = 0.5 und r = 2, r = 3. Man bea hte, dass die Verteilung N b(r,p) für r = 1 mit der geometris hen Verteilung G(p) übereinstimmt. Ihre Namensgebung verdankt die negative Binomialverteilung der Darstellung −r P (X = k) = · pr · (−(1 − p))k k (vgl. (22.16)). Da eine N b(r,p)verteilte Zufallsvariable X die Anzahl der Nieten vor dem rten Treer in einer BernoulliKette zählt, bes hreibt Y := X + r die Anzahl der Versu he bis zum rten Treer. Wegen P (Y = j) = P (X = j − r) folgt mit (23.7)
185
P (X = k)
P (X = k)
0.8
0.8 p = 0.8, r = 2
0.6 0.4
0.4
0.2
0.2
0 1 2 3 4 5 6 7 8 9
p = 0.5, r = 2
0.6
k
P (X = k)
0 1 2 3 4 5 6 7 8 9
k
P (X = k)
0.8
0.8 p = 0.8, r = 3
0.6 0.4
0.4
0.2
0.2
0 1 2 3 4 5 6 7 8 9
Bild 23.2
P (Y = j) =
p = 0.5, r = 3
0.6
k
0 1 2 3 4 5 6 7 8 9
k
Stabdiagramme von negativen Binomialverteilungen
j−1 · pr · (1 − p)j−r , j−r
j ≥ r,
was (beruhigenderweise) mit (23.4) übereinstimmt. Aus der Erzeugungsweise (23.6) einer Zufallsvariablen X mit der negativen Binomialverteilung N b(r,p) ergibt si h analog zum Additionsgesetz 18.6 für die Binomialverteilung die folgende Aussage. 23.5 Additionsgesetz für die negative Binomialverteilung
Sind X und Y unabhängige Zufallsvariablen auf dem WRaum (Ω,P ) mit den negativen Binomialverteilungen X ∼ N b(r,p) und Y ∼ N b(s,p) (r, s ∈ IN; 0 < p < 1), so gilt
X + Y ∼ N b(r + s,p).
186
23 Wartezeitprobleme
23.6 Das Sammlerproblem
Würden Sie darauf wetten, dass na h 20 Würfen mit einem e hten Würfel jede Augenzahl mindestens einmal aufgetreten ist? Wie groÿ s hätzen Sie die Chan e ein, dass beim Lotto im Laufe eines Jahres (52 Ausspielungen) jede Zahl mindestens einmal Gewinnzahl gewesen ist?
Diese und ähnli he Fragen sind klassis he Probleme der Wahrs heinli hkeitstheorie, wel he s hon von de Moivre1 , Euler und Lapla e behandelt wurden und in der Literatur als Sammlerproblem, CouponColle torProblem oder Problem der vollständigen Serie bekannt sind. In der Einkleidung eines Teil hen/Fä herModells (vgl. Kapitel 9) gibt es beim Sammlerproblem n nummerierte Fä her, wobei ein Versu h darin besteht, s (s ≤ n) der n Fä her rein zufällig auszuwählen und mit je einem Teil hen zu besetzen. Dieser Besetzungsvorgang werde in unabhängiger Folge wiederholt. Wie viele Versu he sind nötig, bis jedes Fa h mindestens ein Teil hen enthält? Interpretieren wir die 6 Augenzahlen des Würfels bzw. die 49 Lottozahlen als Fä her, so führen die eingangs gestellten Fragen auf Sammlerprobleme mit n = 6, s = 1 (wie lange muss gewürfelt werden, bis jede Augenzahl mindestens einmal aufgetreten ist?) bzw. n = 49, s = 6 (wie viele Lotto-Ausspielungen müssen erfolgen, bis jede der 49 Zahlen mindestens einmal Gewinnzahl gewesen ist?). S hreiben wir Wj für die Anzahl der Versu he, bis Fa h Nr. j mindestens ein Teil hen enthält, so lässt si h die zufällige Anzahl Xn der zur Besetzung aller n Fä her erforderli hen Versu he als maximale Wartezeit in der Form
Xn := max(W1 ,W2 , . . . ,Wn ) ausdrü ken. Oenbar besitzt die Zufallsvariable Xn den Werteberei h {a,a+1,a+2, . . .} mit o n n ≤ m . a := min m ∈ IN : (23.8) s Um die folgenden Überlegungen ni ht mit Formalismen zu überladen, verzi hten wir auf die Angabe eines formalen Grundraumes für dieses Wartezeitexperiment. Den S hlüssel zur Bestimmung der Verteilung von Xn bildet die Glei hung
{Xn > k} =
n [
j=1
{Wj > k}, k ≥ a − 1.
(23.9)
S hreiben wir kurz Aj := {Wj > k}, so liegt wegen P (Xn > k) = P (∪nj=1 Aj ) die Anwendung der Formel des Ein und Auss hlieÿens 11.1 nahe. Hierzu benötigen wir jedo h für jedes r = 1, . . . ,n und jede Wahl von i1 , . . . ,ir mit 1 ≤ i1 < . . . < ir ≤ n die Wahrs heinli hkeit P (Ai1 ∩ . . . ∩ Air ). 1
Abraham de Moivre (16671754), musste na h dem Studium in Paris als Protestant Frankrei h verlassen. Er emigrierte 1688 na h London, wo er si h bis ins hohe Alter seinen Lebensunterhalt dur h Privatunterri ht in Mathematik verdiente. 1697 Aufnahme in die Royal So iety und 1735 in die Berliner Akademie. De Moivre gilt als bedeutendster Wahrs heinli hkeitstheoretiker vor P.S. Lapla e.
187 Oenbar tritt das Ereignis Ai1 ∩ . . . ∩ Air genau dann ein, wenn in den ersten k Versu hen keines der Fä her mit den Nummern i1 , . . . ,ir besetzt wird, d.h. wenn bei jedem der ersten k Versu he jeweils s Fä her aus der (n − r)elementigen NummernMenge {1,2, . . . ,n} \ {i1 , . . . ,ir } ausgewählt werden. Die Wahrs heinli hkeit dafür, dass dies bei einem Versu h ges hieht, ist dur h n−r s , n − r ≥ s, qr := (23.10) n s gegeben (Lapla eModell). Aufgrund der Unabhängigkeit von Ereignissen, wel he si h auf vers hiedene Versu he beziehen, gilt dann k qr , falls r ≤ n − s, P (Ai1 ∩ . . . ∩ Air ) = 0, falls r > n − s, so dass die Ereignisse A1 , . . . ,An austaus hbar im Sinne von 11.2 sind. Na h (11.6) und (23.9) folgt
P (Xn > k) =
n−s X r=1
(−1)r−1 ·
n · qrk , k ≥ a − 1, r
(23.11)
mit a wie in (23.8). Wegen P (Xn > k − 1) = P (Xn > k) + P (Xn = k) ergibt si h nun die Verteilung von Xn dur h Dierenzbildung in (23.11), und wir erhalten das folgende Resultat. 23.7 Satz
Die Anzahl Xn der zur Besetzung aller Fä her nötigen Versu he im Sammlerproblem mit n Fä hern und sAuswahl besitzt die Verteilung n−s X n (−1)r−1 · · qrk−1 · (1 − qr ), k ≥ a, P (Xn = k) = r r=1
und den Erwartungswert
E(Xn ) =
n−s X r=1
(−1)r−1 ·
a−1 n q · (qr − a · (qr − 1)) · r . r 1 − qr
(23.12)
Dabei ergibt si h (23.12) dur h direkte Re hnung aus der Darstellungsformel E(Xn ) = P ∞ k=a k · P (Xn = k) unter Bea htung von (22.13) und a−1 X k=1
k · xk−1 =
d dx
xa − 1 x−1
=
a · xa−1 · (x − 1) − (xa − 1) , |x| < 1. (x − 1)2
188
23 Wartezeitprobleme
Die Verteilung von Xn ist für den Fall n = 6,s = 1 (Wartezeit, bis beim Würfeln alle Augenzahlen aufgetreten sind) in Bild 23.3 verans hauli ht. Deutli h erkennbar ist dort eine für sto hastis he Extremwertprobleme typis he Asymmetrie (Xn ist ein Maximum von Zufallsvariablen!).
P (X = k)
0.09 0.06 0.03
0 Bild 23.3
10
20
30
40
k
Verteilung der Wartezeit beim Sammlerproblem mit n = 6, s = 1
In den Fällen n = 6, s = 1 und n = 49, s = 6 liefert Komplementbildung in (23.11) die Werte P (X6 ≤ 20) = 0.847 . . . bzw. P (X49 ≤ 52) = 0.946 . . ., was die eingangs gestellten Fragen beantwortet. Insbesondere kann getrost darauf gewettet werden, dass im Laufe eines Jahres jede Lottozahl mindestens einmal Gewinnzahl ist. Nebenbei sei bemerkt, dass dieser Fall in genau 38 der ersten 40 Jahre (= 95%!) des deuts hen Lottos 6 aus 49 eintrat. Im Spezialfall s = 1 ist eine Modellierung der Wartezeit Xn als Summe sto hastis h unabhängiger Wartezeiten mögli h. Hierzu bezei hnen wir einen Versu h als Treer, wenn er zur Besetzung eines no h freien Fa hes führt. Damit ist der erste Versu h immer ein Treer. Da na h dem Erzielen des j ten Treers jeder der weiteren Versu he mit Wahrs heinli hkeit (n − j)/n den nä hsten Treer ergibt (j = 1, . . . ,n − 1) und da alle Versu he unbeeinusst voneinander ablaufen, besitzen Xn und die Zufallsvariable
fn := 1 + Y1 + Y2 + . . . + Yn−2 + Yn−1 X
(23.13)
die glei he Verteilung (ein formaler Beweis soll hier ni ht geführt werden). Hierbei sind Y1 , . . . ,Yn−1 auf einem gemeinsamen WRaum denierte unabhängige Zufallsvariablen, wobei Yj − 1 die geometris he Verteilung G((n − j)/n) besitzt und ans hauli h für die Anzahl der Fehlversu he zwis hen dem j -ten und dem (j + 1)-ten Treer steht (j = 1, . . . ,n − 1) . Anwendungen der Darstellung (23.13) nden si h in den Übungsaufgaben 23.6 und 23.7.
Übungsaufgaben Ü 23.1 Ein e hter Würfel wird in unabhängiger Folge geworfen.
189 a) Wie groÿ ist die W', dass na h 6 Würfen mindestens eine Se hs aufgetreten ist? b) Wie oft muss man mindestens werfen, um mit einer Mindestwahrs heinli hkeit von
0.9
mindestens eine Se hs zu erhalten? Ü 23.2 Ein Lottospieler gibt wö hentli h 20 vers hiedene Tippreihen ab. Wie groÿ ist der
Erwartungswert seiner Wartezeit (in Jahren) auf den ersten
Se hser ?
Ü 23.3 In einer BernoulliKette seien vor dem zweiten Treer genau
k
Nieten aufgetreten.
Zeigen Sie, dass unter dieser Bedingung die Anzahl der Nieten vor dem ersten Treer eine Glei hverteilung auf den Werten
0,1,2, . . . ,k
besitzt.
Ü 23.4 Anja (A) und Bettina (B) drehen in unabhängiger Folge abwe hselnd ein Glü ksrad
mit den Sektoren A und B. Das Glü ksrad bleibe mit der W'
p
(bzw.
1 − p)
im Sektor A (bzw.
B) stehen. Gewonnen hat diejenige Spielerin, wel he als erste errei ht, dass das Glü ksrad in ihrem Sektor stehen bleibt. Anja beginnt. Zeigen Sie: a) Die Gewinnwahrs heinli hkeit für Anja ist b) Im Fall
√
p = (3 −
s heinli hkeit.
5)/2 ≈ 0.382
p/(1 − (1 − p) · p).
besitzen beide Spielerinnen die glei he Gewinnwahr-
Ü 23.5 Ein e hter Würfel wird solange geworfen, bis die erste Se hs auftritt. Wie groÿ ist die
Wahrs heinli hkeit, vorher genau zwei Vieren zu werfen? Anm.: Die Lösung ist in einem einfa hen Modell ohne Re hnung einzusehen. Ü 23.6
a) Zeigen Sie unter Verwendung von (23.13): Die Wartezeit
Xn
beim Sammlerpro-
s = 1 den Erwartungswert 1 1 1 . E(Xn ) = n · 1 + + + . . . + 2 3 n
blem besitzt im Fall
b) Wel hen Erwartungswert besitzt die Anzahl der Würfe mit einem e hten Würfel, bis jede Augenzahl mindestens einmal aufgetreten ist? Ü 23.7 Zeigen Sie unter Verwendung von (23.13): Die Wartezeit
besitzt im Fall
s=1
n−1 X
V (Xn ) = n · 2
Xn
beim Sammlerproblem
die Varianz
j=1
n−1 1 X 1 1 · − . j2 n j=1 j
Lernziele Sie sollten
• die geometris he Verteilung und die negative Binomialverteilung sowie deren Erzeugungsweise als Anzahl von Nieten vor dem ersten bzw. rten Treer in einer BernoulliKette kennen; • wissen, dass die dur hs hnittli he Wartezeit auf einen Treer in einer Bernoulli Kette mit Treerwahrs heinli hkeit p glei h dem reziproken Wert 1/p ist; • die Bedeutung der Formel des Ein und Auss hlieÿens für die Herleitung der Verteilung der Wartezeit beim Sammlerproblem eigesehen haben.
190
24
Die PoissonVerteilung
In diesem Kapitel lernen wir mit der Poisson1 Verteilung ein weiteres wi htiges Verteilungsgesetz der Sto hastik kennen. Die PoissonVerteilung entsteht als Approximation der Binomialverteilung Bin(n,p) (vgl. Kapitel 18) bei groÿem n und kleinem p. Genauer gesagt betra hten wir eine Folge von Verteilungen Bin(n,pn ), n ≥ 1, mit konstantem Erwartungswert
λ := n · pn ,
(24.1)
0 < λ < ∞,
setzen also pn := λ/n. Da Bin(n,pn ) die Verteilung der Treeranzahl in einer Bernoulli Kette der Länge n mit Treerwahrs heinli hkeit pn angibt, benden wir uns in einer Situation, in der eine wa hsende Anzahl von Versu hen eine immer kleiner werdende Treerwahrs heinli hkeit dahingehend kompensiert, dass die erwartete Treeranzahl konstant bleibt. Wegen n (n · pn )k nk n · pn n n · pn −k · pkn · (1 − pn )n−k = · k · 1− · 1− k k! n n n λ k nk λ −k λ n = · 1− · 1− · k! nk n n
für jedes n ≥ k und den Beziehungen nk λ −k lim = 1, lim = 1, 1 − n→∞ nk n→∞ n folgt dann
n λk · pkn · (1 − pn )n−k = e−λ · , n→∞ k k! lim
lim
n→∞
λ n = e−λ , 1− n
k = 0,1,2, . . .
(24.2)
BernoulliKette konDie Wahrs heinli hkeit für das Auftreten von k Treern P in obiger −λ · λk /k! = e−λ · eλ = 1 vergiert also gegen den Ausdru k e−λ λk /k!. Wegen ∞ k=0 e (vgl. (22.11)) bildet die re hte Seite von (24.2) eine WVerteilung auf IN0 , und wir erhalten die folgende Denition. 24.1 Denition
Die Zufallsvariable X besitzt eine PoissonVerteilung mit Parameter λ (λ > 0), kurz: X ∼ P o(λ), falls gilt:
P (X = k) = e−λ · 1
λk , k!
k = 0,1,2, . . .
Siméon Denis Poisson (17811840); studierte Mathematik an der É ole Polyte hnique, wo er 1806 selbst Professor wurde. Poisson leistete wi htige Beiträge insbesondere zur Mathematis hen Physik und zur Analysis. 1827 erfolgte seine Ernennung zum Geometer des Längenbureaus an Stelle des verstorbenen P.S. Lapla e. Die ungere htfertigterweise na h Poisson benannte Verteilung war s hon de Moivre bekannt.
191 Die PoissonApproximation (24.2) der Binomialverteilung wird man hmal au h Gesetz seltener Ereignisse genannt. Diese Namensgebung wird dur h die Erzeugungsweise der oben bes hriebenen Binomialverteilung Bin(n,pn ) als Summe von n Indikatoren unabhängiger Ereignisse glei her Wahrs heinli hkeit pn verständli h: Obwohl jedes einzelne Ereignis eine kleine Wahrs heinli hkeit pn = λ/n besitzt und somit selten eintritt, konvergiert die Wahrs heinli hkeit des Eintretens von k dieser Ereignisse gegen einen festen, nur von λ und k abhängenden Wert. Dabei gilt die Grenzwertaussage (24.2) au h unter der s hwä heren Annahme einer beliebigen Folge (pn )n≥1 von Wahrs heinli hkeiten mit limn→∞ n · pn = λ anstelle von (24.1) (siehe Übungsaufgabe 24.1). Dass ein sol hes Gesetz seltener Ereignisse au h für Indikatorsummen ni ht notwendig unabhängiger Ereignisse gelten kann, zeigt die in Übungsaufgabe 11.3 behandelte Verteilung der Anzahl Xn der Fixpunkte einer rein zufälligen Permutation der Zahlen 1,2, . . . ,n. In diesem Fall wird im j ten Versu h ein Treer gezählt, falls j Fixpunkt der zufälligen Permutation ist (j = 1, . . . ,n), also das Ereignis Aj = {(a1 , . . . ,an ) ∈ P ernn (oW ) : aj = j} eintritt. Wegen ! n−k 1 −1 1 X (−1)r · = ·e lim P (Xn = k) = lim n→∞ n→∞ k! r! k! r=0
nähert si h die Verteilung von Xn bei n → ∞ der PoissonVerteilung P o(1) an.
Bild 24.1 zeigt, dass die Wahrs heinli hkeitsmassen der PoissonVerteilung für kleine Werte von λ stark in der Nähe des Nullpunktes konzentriert sind, wohingegen si h bei wa hsendem λ zum einen der S hwerpunkt vergröÿert, zum anderen eine stärkere Ver s hmierung der Verteilung stattndet. Das theoretis he Gegenstü k dieses Phänomens ist die na hstehende Eigens haft 24.2 a). 24.2 Eigens haften der PoissonVerteilung
a) Falls X ∼ P o(λ), so gilt E(X) = V (X) = λ. b) Sind X,Y unabhängige Zufallsvariablen mit X ∼ P o(λ), Y ∼ P o(µ), so gilt das Additionsgesetz
den
PoissonVerteilungen
X + Y ∼ P o(λ + µ). Beweis:
a) folgt aus
E(X) =
∞ X k=0
und
k · e−λ ·
E(X · (X − 1))
=
∞
X λk−1 λk = λ · e−λ · = λ · e−λ · eλ = λ k! (k − 1)! k=1
∞ X k=0
=
k · (k − 1) · e−λ ·
λ2 · e−λ ·
∞ X k=2
λk k!
λk−2 = λ2 · e−λ · eλ = λ2 (k − 2)!
192
24 Die PoissonVerteilung
sowie aus (23.3). Der Na hweis von b) ist Gegenstand von Aufgabe 24.2.
P (X = k)
P (X = k)
0.6
0.6
0.5
0.5
λ = 0.5
0.4
0.4
0.3
0.3
0.2
0.2
0.1
0.1 0 1 2 3 4 5 6 7 8 9 10
k
λ=1
0 1 2 3 4 5 6 7 8 9 10
P (X = k)
k
P (X = k)
0.6
0.6
0.5
0.5
λ=2
0.4
0.4
0.3
0.3
0.2
0.2
0.1
0.1 0 1 2 3 4 5 6 7 8 9 10
Bild 24.1
k
λ=5
0 1 2 3 4 5 6 7 8 9 10
k
Stabdiagramme von PoissonVerteilungen
24.3 Das RutherfordGeigerExperiment Im Jahre 1910 untersu hten Rutherford2 und Geiger3
ein radioaktives Präparat über 2608 Zeitintervalle von je 7.5 Sekunden Länge. Dabei zählten sie insgesamt 10097 Zerfälle, also im Dur hs hnitt 3.87 Zerfälle innerhalb von 7.5 Sekunden. Die Ergebnisse dieses Experimentes sind in Tabelle 24.1 aufgeführt (vgl. [TOP℄, S.36). k nk
0 57
1 203
2 383
3 525
Tabelle 24.1 2
4 532
5 408
6 273
7 139
8 45
9 27
10 10
11 4
12 0
13 1
14 1
Werte zum RutherfordGeigerVersu h
Ernest Rutherford (18711937), 1898 Professor für Physik an der M Gill-Universität in Montreal. 1907 ging er na h Man hester und 1919 na h Cambridge; 1908 Nobelpreis für Chemie; er legte die Grundlage für die Entwi klung der Kernphysik (u.a. Entde kung der
3
αTeil hen).
Hans Wilhelm Geiger (18821945), na h Professuren in Kiel (1925) und Tübingen (1929) ab 1936 Direktor des Physikalis hen Instituts der TU Berlin. Geiger entwi kelte 1908 zusammen mit Rutherford einen Vorläufer des na h ihm benannten Zählers.
193 Dabei bezei hnet nk die Anzahl der Zeitintervalle, in denen k Zerfälle beoba htet wurden. Bild 24.2 zeigt die zugehörige empiris he Verteilung der relativen Häugkeiten sowie ein Stabdiagramm der dur h Glei hsetzen von arithmetis hem Mittel und Erwartungswert angepassten PoissonVerteilung mit Parameter λ = 3.87. 6
empiris he Häugkeitsverteilung angepasste Poissonverteilung
0.2 0.15 0.1 0.05
-
0 Bild 24.2
1
2
3
4
5
6
7
8
9
10
11
12
13
14
Zerfallshäugkeiten beim RutherfordGeigerVersu h mit angepasster PoissonVerteilung
Für einen Erklärungsversu h dieser nahezu perfekten Übereinstimmung ma hen wir die idealisierende Annahme, dass während eines Untersu hungszeitraumes nur ein vers hwindend geringer Anteil der Atome des Präparates zerfällt. Ferner soll jedes Atom nur von einem Zustand hoher Energie in einen Grundzustand niedriger Energie zerfallen können, was (wenn überhaupt) unabhängig von den anderen Atomen ohne Alterung sers heinung völlig spontan ges hehe. Für eine ausführli he Diskussion des physikalis hen Hintergrundes der getroenen Annahmen sei auf das Bu h von Topsøe ([TOP℄) verwiesen. Als Untersu hungszeitraum wählen wir ohne Eins hränkung das Intervall I := (0,1] und s hreiben X für die zufällige Anzahl der Zerfälle in I . Die Konstruktion eines formalen WRaumes erfolgt dabei ni ht. Der Erwartungswert EX von X (die sog. Intensität des radioaktiven Prozesses) sei λ. Wir behaupten, dass X unter gewissen mathematis hen Annahmen P o(λ)verteilt ist. Hierzu zerlegen wir I in die Intervalle Ij := ((j − 1)/n,j/n] (j = 1, . . . ,n) und s hreiben Xn,j für die Anzahl der Zerfälle in Ij . Es gilt dann
X = Xn,1 + Xn,2 + . . . + Xn,n ,
(24.3)
wobei wir, motiviert dur h obige Annahmen, die Unabhängigkeit und identis he Verteilung von Xn,1 , . . . ,Xn,n unterstellen. Insbesondere folgt E(Xn,j ) = λ/n. Ferner fordern wir die von Physikern fast unbesehen akzeptierte Regularitätsbedingung n [ lim P {Xn,j ≥ 2} = 0 , (24.4) n→∞
j=1
194
24 Die PoissonVerteilung
wel he besagt, dass bei feiner werdender Intervalleinteilung das Auftreten von mehr als einem Zerfall in irgendeinem Teilintervall immer unwahrs heinli her wird. Damit liegt es nahe, Xn,j dur h die Indikatorvariable 1{Xn,j ≥ 1} anzunähern, wel he in den Fällen Xn,j = 0 und Xn,j = 1 mit Xn,j übereinstimmt. Konsequenterweise betra hten wir dann die Indikatorsumme
Sn :=
n X j=1
1{Xn,j
≥ 1}
als eine Approximation der in (24.3) stehenden Summe, d.h. als eine Näherung für X . Da die Ereignisse {Xn,j ≥ 1} (j = 1, . . . ,n) sto hastis h unabhängig sind und die glei he Wahrs heinli hkeit pn := P (Xn,1 ≥ 1) besitzen, ist Sn eine Bin(n,pn )verteilte Zufallsvariable. Wegen 1{Xn,1
≥ 1} ≤ Xn,1
folgt mit 12.2 d) die Unglei hung
pn = E ( 1{Xn,1 ≥ 1}) ≤ E (Xn,1 ) =
λ n
.
Fordern wir no h limn→∞ npn = λ, so ergibt die auf Seite 191 erwähnte lei hte Verallgemeinerung von (24.2) (vgl. Übungsaufgabe 24.1) die Grenzwertaussage
lim P (Sn = k) = e−λ · λk /k! .
n→∞
Eine Zerlegung des Ereignisses {X = k} na h den Fällen {X = Sn } und {X 6= Sn } liefert
P (X = k) = P (X = k,X = Sn ) + P (X = k,X 6= Sn ) = P (Sn = k,X = Sn ) + P (X = k,X 6= Sn ) = P (Sn = k) − P (Sn = k,X 6= Sn ) + P (X = k,X 6= Sn ) . Da das Ereignis {X 6= Sn } das Eintreten des Ereignisses ∪nj=1 {Xn,j ≥ 2} na h si h zieht, folgt aus (24.4) die Beziehung limn→∞ P (X 6= Sn } = 0 und somit
lim P (Sn = k,X 6= Sn ) = 0 = lim P (X = k,X 6= Sn ) .
n→∞
n→∞
Insgesamt erhalten wir dann wie behauptet
P (X = k)
= =
lim P (Sn = k)
n→∞
e−λ ·
λk k!
195 24.4 Auftreten der PoissonVerteilung
Die PoissonVerteilung kommt immer dann als Verteilungsmodell in Betra ht, wenn gezählt wird, wie viele von vielen mögli hen, aber einzeln relativ unwahrs heinli hen Ereignissen eintreten. Neben den Zerfällen von Atomen sind z.B. au h die Anzahl registrierter Photonen oder Elektronen bei sehr geringem Fluss approximativ poissonverteilt. Weitere Beispiele sind die Anzahl fehlerhafter Teile in einer gewissen Produktionsserie, die Anzahl von Gewittern innerhalb eines festen Zeitraums in einer bestimmten Region oder die Anzahl Unfällen oder Selbstmorden, bezogen auf eine gewisse groÿe Population und eine festgelegte Zeitdauer.
Übungsaufgaben Ü 24.1 Zeigen Sie:
a) Für eine Folge
(xn )n≥1
mit der Eigens haft
n
limn→∞ xn = x
gilt:
x
lim (1 + xn /n) = e .
n→∞
Hinweis: Es gilt
log t ≤ t − 1
und
log t ≥ 1 − 1/t, t > 0.
b) Folgern Sie, dass Aussage (24.2) unter der s hwä heren Voraussetzung
lim n · pn = λ,
0 < λ < ∞,
n→∞
gültig bleibt. Ü 24.2 Beweisen Sie das Additionsgesetz 24.2 b) mit Hilfe von (17.8). Ü 24.3 Es sei
X ∼ P o(λ).
k wird P (X = k) P (X = k + 1)/P (X = k).
Für wel he Werte von
Hinweis: Betra hten Sie die Quotienten
maximal?
Ü 24.4 Wir nehmen (rein hypothetis h) an, für die kommende Ausspielung des Lottos 6 aus 49
wären 100 Millionen
unabhängig voneinander und rein zufällig erzeugte Tippreihen abgegeben
worden. a) Wie wäre dann die Anzahl der Reihen mit 6 Ri htigen (approximativ) verteilt? b) Wie groÿ wäre dann (approximativ) die W', dass hö hstens 3 Se hser auftreten? Ü 24.5 Die Zufallsvariablen
X
p = λ/(λ + µ),
Y seien unabhängig, und es gelte X ∼ P o(λ), Y ∼ P o(µ). X + Y = n besitzt X die Binomialverteilung Bin(n,p) mit
und
Zeigen Sie: Unter der Bedingung d.h. es gilt
P (X = k|X + Y = n) =
k n−k λ n λ · · 1− , k = 0,1, . . . ,n. λ+µ λ+µ k
Lernziele Sie sollten die PoissonVerteilung und die PoissonApproximation der Binomialverteilung kennen.
196
25
Gesetz groÿer Zahlen
In Kapitel 6 haben wir die Erfahrungstatsa he des empiris hen Gesetzes über die Stabilisierung relativer Häugkeiten zur Motivation der axiomatis hen Eigens haften von Wahrs heinli hkeiten als mathematis hen Objekten benutzt (vgl. die Diskussion na h Denition 6.1). In glei her Weise wurde die Denition des Erwartungswertes einer Zufallsvariablen über die auf lange Si ht erwartete Auszahlung pro Spiel motiviert (vgl. Kapitel 12). Im Gegensatz dazu geht das na hfolgende s hwa he Gesetz groÿer Zahlen vom axiomatis hen Wahrs heinli hkeitsbegri aus und stellt innerhalb eines sto hastis hen Modells einen Zusammenhang zwis hen arithmetis hen Mitteln und Erwartungswerten her. Im Spezialfall von Indikatorfunktionen ergibt si h hieraus ein Zusammenhang zwis hen relativen Häugkeiten und Wahrs heinli hkeiten. 25.1 S hwa hes Gesetz groÿer Zahlen
Es seien X1 ,X2 , . . . ,Xn sto hastis h unabhängige Zufallsvariablen auf einem diskreten WRaum (Ω,P ) mit glei hem Erwartungswert µ (= EX1 ) und glei her Varianz σ 2 (= V (X1 )). Dann gilt für jedes ε > 0 : n 1 X lim P · (25.1) Xj − µ ≥ ε = 0 . n→∞ n j=1
P Na h 12.2 b) und (12.3) gilt E n−1 nj=1 Xj = µ, und 20.4 d) sowie (21.1) P liefern V n−1 · nj=1 Xj = n−1 σ 2 . Mit Hilfe der Ts hebys howUnglei hung (20.4) folgt dann n 1 X σ2 0 ≤ P · (25.2) Xj − µ ≥ ε ≤ n · ε2 n Beweis:
j=1
und somit die Behauptung.
An dieser Stelle sei angemerkt, dass wir im Rahmen diskreter WRäume nur Modelle für endli h viele sto hastis h unabhängige Zufallsvariablen mit glei her Verteilung konstruieren können. Aus diesem Grunde müssten wir in (25.1) genau genommen P (n) bzw. (n) Xj anstelle von P bzw. Xj s hreiben, um die Abhängigkeit von einem konkreten Modell für n unabhängige Zufallsvariablen auszudrü ken. Zur Vereinfa hung der Notation wurde wie s hon früher stills hweigend ges hehen (vgl. 10.1, Ü 12.2 und Ü 20.4) auf diese s hwerfällige S hreibweise verzi htet.
197 25.2 Bemerkung und Denition
Sind allgemein Y1 ,Y2 , . . . auf einem gemeinsamen WRaum denierte Zufallsvariablen und a eine reelle Zahl mit der Eigens haft
lim P (|Yn − a| ≥ ε) = 0
n→∞
für jedes ε > 0,
so sagt man, dass die Folge (Yn ) sto hastis h gegen a konvergiert und s hreibt hierfür P
Yn −→ a
(bei n → ∞).
Das s hwa he Gesetz groÿer Zahlen besagt also, dass die Folge der arithmetis hen Mittel von unabhängigen Zufallsvariablen mit glei hem Erwartungswert µ und glei her Varianz sto hastis h gegen µ konvergiert. In diesem Sinne präzisiert es unsere intuitive Vorstellung des Erwartungswertes als eines auf die Dauer erhaltenen dur hs hnittli
hen Wertes wie in Kapitel 12. Dabei gilt die Aussage (25.1) au h unter s hwä heren Voraussetzungen (siehe z.B. Übungsaufgabe 25.2). Bild 25.1 zeigt mit PnHilfe von Pseudozufallszahlen erzeugte Plots der arithmetis hen Mittel Xn := n−1 j=1 Xj , n = 1,2, . . . ,300, der Augenzahlen X1 ,X2 , . . . ,Xn von n = 300 Würfen mir einem e hten Würfel. Es ist deutli h zu erkennen, dass si h diese Mittel gegen den Erwartungswert E(X1 ) = 3.5 stabilisieren.
Xn 6 5 4 3 2 1 0 Bild 25.1:
50
100
150
200
250
300
n
Simulierte arithmetis he Mittel der Augensumme beim Würfelwurf
Ein wi htiger Spezialfall des S hwa hen Gesetzes groÿer Zahlen ergibt si h bei der Betra htung von Indikatorfunktionen. Aus 25.1 folgt unmittelbar: 25.3
S hwa hes Gesetz groÿer Zahlen von Jakob Bernoulli
Sind A1 , . . . ,An sto hastis h unabhängige Ereignisse mit glei her Wahrs heinli hkeit p, so gilt: n 1 X lim P · 1{Aj } − p ≥ ε = 0 für jedes ε > 0 . (25.3) n→∞ n j=1
198
25 Gesetz groÿer Zahlen
Diese Aussage ist dasP Hauptergebnis der Ars Conje tandi von Jakob Bernoulli. S hreiben wir kurz Rn := n−1 · nj=1 1{Aj }, so kann die komplementäre Version von (25.3), also lim P (|Rn − p| < ε) = 1 für jedes ε > 0, (25.4) n→∞
wie folgt interpretiert werden: Die Wahrs heinli hkeit, dass si h die relative Treerhäugkeit Rn in einer BernoulliKette vom Umfang n von der Treerwahrs heinli hkeit p um weniger als einen beliebig kleinen, vorgegebenen Wert ε unters heidet, konvergiert beim Grenzübergang n → ∞ gegen Eins. Übersetzen wir (25.4) in die Spra he der Analysis, so existiert zu jedem ε > 0 und zu jedem η mit 0 < η < 1 eine von ε und η abhängende natürli he Zahl n0 mit der Eigens haft
P (|Rn − p| < ε) ≥ 1 − η
für jedes feste n ≥ n0 .
Das Gesetz groÿer Zahlen zeigt uns also, dass si h die Wahrs heinli hkeit von Ereignissen, deren Eintreten oder Ni hteintreten unter unabhängigen und glei hen Bedingungen beliebig oft wiederholt beoba htbar ist, wie eine physikalis he Konstante messen lässt. Es verdeutli ht au h, dass die axiomatis he Denition der Wahrs heinli hkeit zusammen mit den zur Herleitung von (25.1) benutzten Begrien sto hastis he Unabhängigkeit, Erwartungswert und Varianz genau das empiris he Gesetz über die Stabilisierung relativer Häugkeiten als intutitiven Hintergrund der Sto hastik erfasst. Zur Würdigung der Leistung von Jakob Bernoulli muss man si h vor Augen führen, dass damals (um 1685) Begrie wie Erwartungswert und Varianz sowie die Ts hebys howUnglei hung no h ni ht verfügbar waren und die Aussage (25.3) mittels direkter Re hnung erhalten wurde. Wie stolz Bernoulli auf sein Resultat war, zeigen die folgenden Worte aus seinen Tagebü hern:
Ho inventum pluris fa io quam si ipsam ir uli quadraturam dedissem, quod si maxime reperiretur, exigui usus esset. Diese Entde kung gilt mir mehr, als wenn i h gar die Quadratur des Kreises geliefert hätte; denn wenn diese au h gänzli h gefunden würde, so wäre sie do h sehr wenig nütz. Dem ist ni hts hinzuzufügen! Ein weit verbreitetes Missverständis des Gesetzes groÿer Zahlen zeigt si h allwö hentli h darin, dass viele Lottospieler(innen) bevorzugt diejenigen Zahlen tippen, wel he bei den bis dahin erfolgten Ausspielungen am seltensten gezogen wurden (vgl. 16.7 und [HR℄, Abs hnitt 5.4). Viellei ht glauben sie, das Gesetz groÿer Zahlen arbeite wie ein Bu hhalter, wel her auf einen Ausglei h der absoluten Häugkeiten der einzelnen Gewinnzahlen a htet, d.h. sie meinen, die Wahrs heinli hkeit
199
n X P 1{Aj } − n · p ≥ K j=1
(25.5)
sei bei fest vorgegebener positiver Zahl K klein und konvergiere eventuell sogar gegen Null. Wir werden jedo h im nä hsten Kapitel sehen, dass die in (25.5) stehende Wahrs heinli hkeit für jedes (no h so groÿe) K beim Grenzübergang n → ∞ gegen eins strebt (siehe Übungsaufgabe 26.5).
Übungsaufgaben Ü 25.1 Es seien
Sie:
P
Y1 ,Y2 , . . .
Zufallsvariablen mit
Yn −→ 0.
Yn ∼ Bin(n,pn )
und
limn→∞ npn = 0.
Hinweis: Es gilt |Yn | ≤ |Yn − npn | + npn und somit zu vorgegebenem ε > 0 {|Yn | ≥ ε} ⊆ {|Yn − npn | ≥ ε/2} für jedes genügend groÿe n. Ü 25.2
X1 , . . . ,Xn
seien Zufallsvariablen mit
Weiter existiere eine natürli he Zahl
k,
Zeigen
die Inklusion
E(Xj ) =: µ und V (Xj ) =: σ 2 für j = 1, . . . ,n. |i − j| ≥ k die Zufallsvariablen Xi und Xj
so dass für
unkorreliert sind. Zeigen Sie:
X 1 n lim P Xj − µ ≥ ε = 0 n→∞ n j=1
für jedes
ε > 0.
Hinweis: Ts hebys howUnglei hung und 21.2 f ). Ü 25.3 Ein e hter Würfel werde in unabhängiger Folge geworfen.
Wurf erzielte Augenzahl, 25.2:
Aj := {Yj < Yj+1 } (j ≥ 1).
X 1 n 5 lim P 1{Aj } − ≥ ε = 0 n→∞ 12 n j=1
Yj
bezei hne die beim
j ten
Zeigen Sie mit Hilfe von Übungsaufgabe
für jedes
ε > 0.
Ü 25.4 In der gynäkologis hen Abteilung eines Krankenhauses entbinden in einer bestimm-
ten Wo he
n
Frauen. Es werde angenommen, dass keine Mehrlingsgeburten auftreten und dass
die Wahrs heinli hkeit bei jeder Geburt für einen Jungen bzw. ein Mäd hen glei h sei. Auÿerdem werde angenommen, dass das Ges hle ht der Neugeborenen für alle Geburten sto hastis h unabhängig sei. Sei
an
die Wahrs heinli hkeit, dass mindestens 60 % der Neugeborenen Mäd-
hen sind. a) Bestimmen Sie
a10 .
b) Beweisen oder widerlegen Sie:
) Zeigen Sie:
a100 < a10 .
limn→∞ an = 0.
Lernziel Sie sollten die Bedeutung des s hwa hen Gesetzes groÿer Zahlen verstanden haben.
200
26
Zentraler Grenzwertsatz
Zentrale Grenzwertsätze gehören zu den s hönsten und im Hinbli k auf statistis he Fragestellungen (vgl. Kapitel 27 und 28) wi htigsten Resultaten der Wahrs heinli hkeitstheorie. Zur Einstimmung betra hten wir eine BernoulliKette der Länge n, also unabhängige Ereignisse A1 , . . . ,An mit glei her Wahrs heinli hkeit p (0 < p < 1) auf einem Wahrs heinli hkeitsraum (Ω,P ). Deuten wir Aj als Treer im j ten Versu h und setzen Xj := 1{Aj } (j = 1, . . . ,n), so besitzt die Summe Sn := X1 + . . . + Xn na h 18.2 und 18.3 die Binomialverteilung Bin(n,p). Wegen E(Sn ) = n · p (vgl. (18.6)) wandert der S hwerpunkt der Verteilung von Sn bei wa hsendem n na h Unendli h ab . Da Sn die Varianz V (Sn ) = n · p · (1 − p) besitzt (vgl. (21.4)), ndet zuglei h eine immer stärkere Vers hmierung der Wahrs heinli hkeitsmassen statt. Beide Eekte werden dur h die Standardisierung
Sn∗ :=
Sn − n · p Sn − E(Sn ) p = √ n·p·q V (Sn )
(26.1)
von Sn (vgl. 20.5) kompensiert, denn es gilt E(Sn∗ ) = 0 und V (Sn∗ ) = 1. Dabei haben wir in (26.1) der Kürze halber q := 1 − p ges hrieben. Man bea hte, dass Sn die Werte 0,1, . . . ,n und somit Sn∗ die Werte
j − np , √ npq
xn,j :=
j = 0,1, . . . ,n,
annimmt. Die Werte xn,j bilden die Klassenmittelpunkte der für den Fall p = 0.3 und vers hiedene Werte von n in Bild 26.1 dargestellten Histogramme standardisierter Binomialverteilungen. Dabei ist die Breite der Klassen die von j unabhängige Dierenz √ xn,j+1 − xn,j = 1/ npq . Die Höhe hn,j des Histogramms über xn,j ist so gewählt, dass der Flä heninhalt des entstehenden Re hte ks glei h der Wahrs heinli hkeit n ∗ P (Sn = xn,j ) = P (Sn = j) = · pj · q n−j j ist. Es gilt also
hn,j =
n √ · pj · q n−j . npq · j
201
0.4
0.4
n=5
-3 -2 -1 0
1
2
n = 20
3
-3 -2 -1 0
0.4
1
Bild 26.1
1
3
0.4
n = 50
-3 -2 -1 0
2
2
n = 100
3
-3 -2 -1 0
1
2
3
Histogramme standardisierter Binomialverteilungen für p = 0.3
Während in den Fällen n = 5 und n = 20 die Asymmetrie des Histogrammes in Bezug auf die vertikale A hse no h deutli h zu sehen ist, ers heint es s hon für den Fall n = 50 wesentli h symmetris her. Im Fall n = 100 ist zusätzli h der Graph einer glo kenförmig aussehenden Funktion eingezei hnet, wobei die Ähnli hkeit zwis hen Histogramm und Funktionss haubild frappierend wirkt. 60.4
ϕ(x)
-x -3
-2
Bild 26.2
Diese Glo kenfunktion ist dur h 2 x 1 , ϕ(x) := √ · exp − 2 2π
-1
0
1
2
3
Gauÿs he Glo kenkurve
x ∈ IR,
(26.2)
deniert und heiÿt Gauÿs he Glo kenkurve oder Di hte der standardisierten Normalverteilung (siehe Bild 26.2). Sie spielt in der Sto hastik eine zentrale Rolle.
202
26 Zentraler Grenzwertsatz
R∞ Aufgrund der Beziehung −∞ ϕ(x) dx = 1 (siehe z.B. [KR1℄, S.80) ist die Flä he zwis hen dem Graphen von ϕ und der xA hse glei h eins, und somit kann das S haubild von ϕ als idealisiertes Histogramm bei unendli h feiner Klasseneinteilung ange sehen werden. Die glo kenförmige Gestalt in Bild 26.2 wird allerdings erst dur h die unters hiedli he Einteilung der beiden A hsen errei ht; bei glei her Einteilung wäre das S haubild von ϕ viel a her. Ein Bli k auf Bild 26.1 lässt vermuten, dass beim Grenzübergang n → ∞ für ein gegebenes Intervall [a,b] der xA hse die Flä he des Histogrammes der standardisierten Binomialverteilung Bin(n,p) in den Grenzen von a bis b gegen die Flä he unter der Rb Gauÿs hen Glo kenkurve in denselben Grenzen, also gegen das Integral a ϕ(x)dx konvergiert. Dass dies in der Tat zutrit, ist der Inhalt des folgenden Satzes. 26.1 Zentraler Grenzwertsatz (ZGWS) von de MoivreLapla e
Die Zufallsvariable Sn besitze eine Binomialverteilung mit Parametern n und p, wobei 0 < p < 1 vorausgesetzt ist. Dann gilt für jede Wahl reeller Zahlen a,b mit a < b: Z b Sn − n · p ϕ(x) dx. lim P a ≤ (26.3) ≤ b = a) √ n→∞ n·p·q a b)
lim P
n→∞
Sn − n · p ≤ b √ n·p·q
=
Z
b
ϕ(x) dx.
−∞
(26.4)
Beweis:
a): Wir werden den Na hweis von (26.3) nur in der 1733 von de Moivre behandelten Situation der symmetris hen Binomialverteilung Bin(2n,1/2), also einer Trefferanzahl S2n aus einer geraden Anzahl 2n unabhängiger Versu he mit glei her Trefferwahrs heinli hkeit 1/2, führen. Der allgemeine Fall wurde a. 80 Jahre später von Lapla e formuliert, war aber vermutli h au h s hon de Moivre bekannt (siehe hierzu au h [SCH℄ und für einen Beweis [KR1℄, S.76 .).
√ ∗ = (S Wegen E(S2n ) = n und V (S2n ) = n/2 ist S2n 2n − n)/ n/2, und es gilt p p ∗ P (a ≤ S2n ≤ b) = P n + a n/2 ≤ S2n ≤ n + b n/2 X P (S2n = n + k) =
(26.5)
k∈In
=
X 2n 1 2n · n+k 2
(26.6)
k∈In
mit der Bezei hnung n o p p In := k ∈ ZZ : a n/2 ≤ k ≤ b n/2 .
Zum Na hweis der Konvergenz der in (26.6) auftretenden Summe gegen das Integral Rb in einem ersten S hritt den gröÿten Wert der Wahrs heina ϕ(x)dx untersu hen wir −2n für j = 0,1, . . . ,n. Da die Binomialkoezienten 2n li hkeiten P (S2n = j) = 2n j j ·2 für j = n maximal werden, gilt
203
Mn :=
max P (S2n = j) =
j=0,...,n
2n 2n 1 2n 1 (2n)! · = · . n 2 n!2 2
(26.7)
Um diesen Term auszuwerten, muss man die auftretenden Fakultäten in den Gri bekommen . Jeder, der s hon einmal auf seinem Tas henre hner die Taste n! betätigt hat, kennt das Problem des s hnellen Anwa hsens der Fakultäten (so gilt z.B. 12! = 479 001 600). Insofern war es für de Moivre ein Glü ksfall, dass James Stirling1 kurz zuvor die na h ihm benannte Formel √ n! ∼ nn · e−n · 2πn (26.8) hergeleitet hatte (für einen einfa hen Beweis siehe z.B. http://www.math.uni-augsburg. de/sto hastik/pukelsheim/2002f.pdf). Dabei bedeutet das Zei hen ∼ (lies: asympto tis h glei h), daÿ der Quotient aus linker und re hter Seite √ in (26.8) bei n → ∞ gegen 1 konvergiert. In dieser Terminologie gilt also z.B. n + n ∼ n. Setzen wir die mittels der StirlingFormel (26.8) gewonnenen asymptotis hen Ausdrü ke für (2n)! und n! in (26.7) ein, so folgt bei n → ∞ √ 2n 1 (2n)2n · e−2n · 2π · 2n 1 √ . Mn ∼ (26.9) · = √ 2 πn (nn · e−n · 2πn)2
Wir √ sehen also, dass die maximale Binomialwahrs heinli hkeit von der Gröÿenordnung 1/ n ist. Der zweite Beweiss hritt besteht darin, die in (26.6) auftretenden Wahrs heinli hkeiten P (S2n = n + k) mit Mn zu verglei hen. Dies ges hieht anhand des Quotienten
Qn,k :=
2n 2n 1 · n+k 2 2n 2n 1 · n 2
=
k−1 Y j=0 k Y
(n − j) =
(n + j)
j=1
k−1 Y j=0
k Y
j=1
1−
j n
j 1+ n
für k ≥ 0 (der Fall k < 0 liefert wegen Qn,k = Qn,−k ni hts Neues). Die Unglei hungen 1 − x ≤ exp(−x) und 1 − x ≥ exp(−x/(1 − x)),x < 1, ergeben dann völlig analog zur Beweisführung von Satz 10.1 auf Seite 70 die Abs hätzungen k−1 Y (k − 1) · k j (k − 1) · k exp − 1− ≤ ≤ exp − , 2(n − k + 1) n 2n j=0
exp 1
k · (k + 1) 2(n + k)
≤
k Y
j=1
1+
j n
≤ exp
k · (k + 1) 2n
James Stirling (16921770) wurde 1726 Mitglied der Londoner Royal So iety und war ab 1735 Ges häftsführer bei der s hottis hen Bergbaugesells haft in Leadhills. Hauptarbeitsgebiete: Algebrais he Kurven, Dierenzenre hnung, asymptotis he Entwi klungen. Bzgl. des Wettstreites zwis hen de Moivre und Stirling zur Entwi klung einer Näherungsformel für groÿe Fakultäten siehe [SCH℄).
204
26 Zentraler Grenzwertsatz
und somit na h direkter Re hnung die Unglei hungen 2 Qn,k k (k + 1) (k − 1)2 k ≤ exp ≤ . exp − 2 2n(n − k + 1) 2n(n + k) exp − k
(26.10)
n
von n abhängende Konstante C mit Da aufgrund der√Gestalt der Mengen In eine ni ht √ maxk∈In |k| ≤ C n existiert, folgt für jedes n mit n > C 2 √ 2 2 k (k + 1) ≤ C n(k + 1) ≤ C (1 + C√ n) =: un max k∈In 2n(n + k) 2n(n + k) 2(n − C n) und analog max k∈In
√ C3 n (k − 1)2 k √ =: vn . ≤ 2n(n − k + 1) 2(n + 1 − C n)
Da un und vn beim Grenzübergang n → ∞ gegen 0 konvergieren, erhalten wir unter Bea htung von (26.10), dass zu einer vorgegeben Zahl ε > 0 ein n0 mit Qn,k − 1 max für jedes n ≥ n0 (26.11) ≤ ε 2 k∈In exp (−k /n) existiert. Eine Anwendung der Dreie ksunglei hung liefert nun Z b Z b X ∗ P (a ≤ S2n = Q M − ϕ(x)dx ≤ b) − ϕ(x)dx n,k n a
a
k∈In
≤ An + Bn + Cn
mit
X X 1 −k2 /n , Bn := √1 Q Qn,k Mn − √ − e An := n,k , πn πn k∈In
Cn
k∈In
Z b X −k2 /n 1 √ − := ϕ(x)dx . e πn a
k∈In
Na h Denition von Qn,k und Mn gilt X An = P (S2n = n + k) 1 − k∈In
1 √ Mn · πn
1 ≤ 1 · 1 − , √ Mn · πn
so dass (26.9) die Konvergenz limn→∞ An = 0 liefert. Mittels (26.11) erhalten wir für n ≥ n0 p −k2 /n (b − a) n/2 + 1 1 X Qn,k ε · |In | · 1 √ √ ≤ ·ε Bn ≤ √ − 1 ≤ e e−k2 /n πn πn πn k∈I n
und somit lim supn→∞ Bn ≤ (b − a) · ε/ so ist
√
2π .
√
Setzen wir weiter yn,k := k/
n/2,
k ∈ ZZ,
205
X
k∈In
e−k
2 /n
1 = ·√ πn
X
yn,k ∈[a,b]
ϕ(yn,k ) · (yn,k+1 − yn,k )
Rb eine Näherungssumme für das Integral a ϕ(x)dx, weshalb au h Cn bei n → ∞ gegen 0 konvergiert. Insgesamt ergibt si h Z b b−a ∗ ·ε ϕ(x)dx ≤ √ lim sup P (a ≤ S2n ≤ b) − n→∞ 2π a und somit die Behauptung von Teil a), da ε beliebig klein gewählt werden kann.
b): Zum Na hweis von (26.4) wählen wir für festes b und vorgegebenes ε > 0 einen negativen Wert a mit den Eigens haften a < b und 1/a2 ≤ ε. Mit der Ts hebys how Unglei hung (20.4) folgt dann P (Sn∗ < a) ≤ P (|Sn∗ | ≥ |a|) ≤ 1/a2 ≤ ε. Unter Bea htung von
P (a ≤ Sn∗ ≤ b)
≤ P (Sn∗ < a) + P (a ≤ Sn∗ ≤ b) = P (Sn∗ ≤ b) ≤ ε + P (a ≤ Sn∗ ≤ b)
erhalten wir mit Teil a) beim Grenzübergang n → ∞ Z b Z b ϕ(x)dx. ϕ(x)dx ≤ lim inf P (Sn∗ ≤ b) ≤ lim sup P (Sn∗ ≤ b) ≤ ε + n→∞
a
n→∞
a
Lassen wir in dieser Unglei hungskette zunä hst a gegen −∞ und dana h ε gegen Null streben, so folgt die Behauptung.
Rb aR ϕ(x)dx b Die numeris he Auswertung des Integrals a ϕ(x)dx kann mit Hilfe der dur h Z t Φ(t) := ϕ(x) dx , t ∈ IR, (26.12) 26.2 Zur Bere hnung des Integrals
−∞
denierten Verteilungsfunktion der standardisierten Normalverteilung (siehe Bild 26.3 links) erfolgen, denn es gilt Z b ϕ(x) dx = Φ(b) − Φ(a), a < b. (26.13) a
Der Funktionswert Φ(t) gibt ans hauli h die unter der Gauÿs hen Glo kenkurve im Intervall (−∞,t] aufgelaufene Flä he an (siehe Bild 26.3 re hts). Werte der Funktion Φ sind in Anhang A1 auf Seite 259 tabelliert. So ist z.B. Φ(1.28) = 0.9R und Φ(0.31) = ∞ 0.622. Aufgrund der Symmetriebeziehung ϕ(x) = ϕ(−x), x ∈ IR, und −∞ ϕ(x)dx = 1 gilt
Φ(−t) = 1 − Φ(t),
t ∈ IR.
(26.14)
206
26 Zentraler Grenzwertsatz 61
60.4
Φ(t) 0.5
. ..... ......... ............. ............. ......................... . . . . ........................ ............................... .................................. ...................................... ........................................ ............................................... ............ ................................................ ..................................................... ............. ......................................................... ............. ..................................... ..................................... ....................................... .................................................................. ................ ........................................... . ............................................. . . . .................................................
ϕ(x)
Φ(t)
- t -3 Bild 26.3
0
3
-3
0
t
-x 3
S haubild von Φ und Flä he unter der Gauÿs hen Glo kenkurve
Dies bedeutet, dass Funktionswerte von Φ für negative Argumente mittels (26.14) und Tabelle A1 erhältli h sind, also z.B. Φ(−1) = 1 − Φ(1) = 1 − 0.841 = 0.159. Für diejenigen, wel he an einer Routine zur Bere hnung von Funktionswerten von Φ interessiert sind, sei die folgende Approximation für Φ(t) im Berei h t ≥ 0 angegeben (siehe [AS℄, S.932): t2 1 1 · (a1 s + a2 s2 + a3 s3 ) mit s = , Φ(t) ≈ 1 − √ exp − 2 1 + bt 2π
b = 0.33267, a1 = 0.4361836, a2 = −0.1201676, a3 = 0.937298.
Der maximale Fehler dieser Approximation ist kleiner als 10−5 .
26.3 Zur praktis hen Anwendung des ZGWS von de MoivreLapla e
Ist Sn eine Zufallsvariable mit der Verteilung Bin(n,p), so ist es im Hinbli k auf praktis he Anwendungen des ZGWS von de MoivreLapla e wi htig zu wissen, ob für die vorgegebenen Werte von n und p die Approximationen √ √ (26.15) P (np + a npq ≤ Sn ≤ np + b npq) ≈ Φ(b) − Φ(a), √ P (Sn ≤ np + b npq) ≈ Φ(b) (26.16) brau hbar sind.
Hier ndet man oft folgende Faustregel: Gilt n · p · q ≥ 9, d.h. ist die Standardabwei hung einer Binomialverteilung mindestens 3, so sind die Approximationen (26.15) und (26.16) für praktis he Zwe ke ausrei hend. In Bezug auf die in Bild 26.1 dargestellten Histogramme standardisierter Binomialverteilungen bedeutet diese Faustregel, dass zur Anwendung von (26.15) die Klassenbreite √ 1/ npq hö hstens glei h 1/3 sein darf. Im Fall p = 0.3 ist diese Forderung für n ≥ 43 erfüllt. Für sehr kleine oder sehr groÿe Werte von p ist das Stabdiagramm der Binomialverteilung Bin(n,p) für kleine Werte von n sehr asymmetris h (siehe z.B. Bild 18.2 für den Fall n = 10 und p = 0.1). Dies hat zur Folge, dass die Anwendung der Faustregel einen gröÿeren Wert von n erfordert, z.B. n ≥ 100 im Fall p = 0.1.
207 Praktis h wird der ZGWS von de MoivreLapla e wie folgt angewandt: Wollen wir für eine binomialverteilte Zufallsvariable Sn die Wahrs heinli hkeit
l X n P (k ≤ Sn ≤ l) = · pj · q n−j j
(26.17)
j=k
bestimmen, so liefert die Faustregel (26.15) im Fall n · p · q ≥ 9 die Approximation (mit xn,j wie auf S. 200) k − np Sn − np l − np ≤ √ ≤ √ P (k ≤ Sn ≤ l) = P √ npq npq npq l − np k − np ≈ Φ √ (26.18) − Φ √ npq npq = Φ(xn,l ) − Φ(xn,k ) . Eine vielfa h bessere Näherung als (26.18) ist ! ! k − np − 12 l − np + 21 − Φ P (k ≤ Sn ≤ l) ≈ Φ √ √ npq npq 1 1 1 1 . = Φ xn,l + · √ − Φ xn,k − · √ npq 2 2 npq
(26.19)
Die hier auftretenden und häug als Stetigkeitskorrektur bezei hneten Terme ±1/(2 · √ npq) können folgendermaÿen motiviert werden: Der Bestandteil P (Sn = l) (= P (Sn∗ = xn,l )) der Summe (26.17) tritt im Histogramm der standardisierten Binomialverteilung √ als Flä he eines Re hte kes mit Mittelpunkt xn,l und der Grundseite 1/ npq auf. Um diese Flä he bei der Approximation des Histogrammes dur h ein Integral über die Funktion ϕ besser zu erfassen, sollte die obere Integrationsgrenze ni ht xn,l , sondern xn,l + √ √ 1/(2 npq) sein. In glei her Weise ist die untere Integrationsgrenze xn,k − 1/(2 npq) begründet (siehe Bild 26.4).
26.4 Beispiel
Ein e hter Würfel wird 600 mal in unabhängiger Folge geworfen. Wie groÿ ist die Wahrs heinli hkeit, dass hierbei
• genau 100 Se hsen • mindestens 90 und hö hstens 110 Se hsen • mehr als 120 Se hsen auftreten? Zur Beantwortung dieser Fragen modellieren wir die zufällige Anzahl der Se hsen als Zufallsvariable Sn mit der Binomialverteilung Bin(n,p), wobei n = 600 und p = 1/6 gesetzt sind. Mit Hilfe der StirlingFormel (26.8) ergibt si h
208
26 Zentraler Grenzwertsatz 6
0.4
....... . .......................... . . ...................................... . .............................................. . ................................................... ................................................................................................ . ..................... . . . .................................. . . .......................................................................... ............................................................................... ..................................................................................... . ...................................................................................... ........................................................................................................................................................ . ..................... . . . . ................................ . . . . . ........................ ....................................................................................................... .......................................................................................................... ............................................................................................................ . .............................................................................................................. . ..................................................................................................................................................................................... . . . . . ....................... . . . . . ................................ . . . . ...................................... ........................................................................................................................................................ . . . . . ....................................................................................................................... . . . .......................................................................................................................... . . . ............................................................................................................................ . . . . ............................................................................................................................................................................................................. . . . . .......................................................................................................................... . . . . ............. .......... . . .................. . . ............................................................................................................................................................................................................ . . . . ............. .......... . . .................. . . ............................................................................................................................................................................................................ . . . . ............. .......... . . .................. . . ............................................................................................................................................................................................................ . . . . ............. .......... . . .................. . . ............................................................................................................................................................................................................ . . . . ........................................................................................................................... . . . . .......................................................................................................................... . . . . ......................................................................................... ................................. . . . . ........................................................................................................................... . . . . . . ............ .......... . . ................. . . ............................................................................................................................................................................................................ . . . . ......................................................................................... ................................. . . ................................................ . . . . . . . . . . . . . . . . . . . . .
xn,k Bild 26.4
0
ϕ(x)
xn,l 1.2
-x
Stetigkeitskorrektur im Fall Sn ∼ Bin(50,0.3), k = 11, l = 18
P (Sn = 100)
= ≈ =
100 500 600 1 5 · · 100 6 6 √ 5500 600600 e−600 2π · 600 √ √ · 100 500 100 −100 500 −500 2π · 500 · 100 e 2π · 100 6 · 6 500 e 1 q = 0.0437 . . . 2π · 600 · 61 · 56
Der exakte, mit Hilfe des Computeralgebrasystems MAPLE bere hnete Wert ist 0.04366. . .
√
npq ≈ 9.13 liefern (26.18) und Tabelle A1 90 − 100 Sn − 100 110 − 100 P (90 ≤ Sn ≤ 110) = P ≤ ≤ σn σn σn 10 10 −Φ − ≈ 2 · Φ(1.10) − 1 ≈ Φ 9.13 9.13 ≈ 2 · 0.864 − 1 = 0.728.
Mit σn :=
Die Approximation mit Stetigkeitskorrektur na h (26.19) ergibt analog 10.5 10.5 P (90 ≤ Sn ≤ 110) ≈ Φ −Φ − 9.13 9.13 ≈ 2 · Φ(1.15) − 1 ≈ 0.75, also eine vergli hen mit dem mittels MAPLE bere hneten exakten Wert 0.7501. . . wesentli h bessere Näherung. S hlieÿli h gilt na h (26.16)
P (Xn > 120)
=
1 − P (Xn ≤ 120) = 1 − P
Xn − 100 120 − 100 ≤ σn σn
209
≈
1−Φ
=
0.014.
20 9.13
≈ 1 − Φ(2.19) ≈ 1 − 0.986
Beispiel 26.4 verdeutli ht, dass angesi hts der heutzutage verfügbaren leistungsfähigen Computeralgebrasysteme der numeris he Aspekt des ZGWS von de MoivreLapla e, nämli h die Approximation von Summen von Wahrs heinli hkeiten der Binomialverteilung, zunehmend an Bedeutung verliert. Für die Entwi klung der Wahrs heinli hkeitstheorie waren diese Ergebnisse nur der Anfang zahlrei her Untersu hungen über das Verteilungsverhalten von Summen unabhängiger Zufallsvariablen. Die folgende Verallgemeinerung des ZGWS von de MoivreLapla e stellt aus historis her Perspektive einen gewissen Abs hluss dieser Untersu hungen dar. 26.5 Zentraler Grenzwertsatz von Lindeberg2 Lévy3
Es seien X1 , . . . ,Xn sto hastis h unabhängige und identis h verteilte Zufallsvariablen mit positiver Varianz σ 2 := V (X1 ). Setzen wir µ := E(X1 ) und Sn := X1 + . . . + Xn , so gilt: Z b Sn − n · µ √ ≤ b = ϕ(x) dx, für a < b. (26.20) a) lim P a ≤ n→∞ σ· n a b) lim P n→∞
Sn − n · µ √ ≤ b σ· n
=
Z
b
ϕ(x) dx,
−∞
(26.21)
b ∈ IR.
Der Beweis dieses Satzes erfordert mathematis he Hilfsmittel, die den hier geste kten Rahmen sprengen würden, und wird aus diesem Grunde ni ht geführt (siehe z.B. [KR1℄, S. 157.). Man bea hte, dass der ZGWS von LindebergLévy für den Spezialfall von Indikatorfunktionen in den Satz von de MoivreLapla e übergeht. Das Überras hende an den Aussagen (26.20) und (26.21) Pn ist die Tatsa he, dass das wahrs heinli hkeitstheoretis he Verhalten einer Summe j=1 Xj von unabhängigen und identis h verteilten Zufallsvariablen asymptotis h für n → ∞ nur vom Erwartungswert und von der Varianz, ni ht jedo h von der speziellen Gestalt der Verteilung von X1 bestimmt wird. Zahl k und setzen a := −k , so Wählen wir in (26.20) speziell b glei h einer p √ natürli hen nimmt (26.20) wegen n · µ = ESn und σ · n = V (Sn ) die Gestalt Z k p p lim P ESn − k V (Sn ) ≤ Sn ≤ ESn + k V (Sn ) = ϕ(x) dx n→∞
=
−k
2 · Φ(k) − 1
2
Jarl Waldemar Lindeberg (18761932), Dozent für Mathematik in Helsinki. Hauptarbeitsgebiete:
3
Paul Lévy (18861971), seit 1913 Professor an der É ole Polyte hnique in Paris, neben A.N. Kol-
Dierentialglei hungen, Wahrs heinli hkeitstheorie. mogorow einer der Hauptbegründer der modernen Wahrs heinli hkeitstheorie. Hauptarbeitsgebiete: Funktionalanalysis, Wahrs heinli hkeitstheorie.
210
26 Zentraler Grenzwertsatz
an. Für die Fälle k = 1, k = 2 und k = 3 gelten mit Tabelle A1 die Beziehungen
2Φ(1) − 1 ≈ 0.682, 2Φ(2) − 1 ≈ 0.954, 2Φ(3) − 1 ≈ 0.997,
so dass obige Grenzwertaussage die folgenden Faustregeln liefert:
Die Summe Sn von n unabhängigen und identis h verteilten Zufallsvariablen liegt für groÿes n mit der approximativen Wahrs heinli hkeit p • 0.682 in den Grenzen E(Sn ) ± 1 · V (Sn ), p • 0.954 in den Grenzen E(Sn ) ± 2 · V (Sn ), p • 0.997 in den Grenzen E(Sn ) ± 3 · V (Sn ). 26.6 Beispiel
Ein e hter Würfel wird n mal in unabhängiger Folge geworfen, wobei das Ergebnis des j ten Wurfes dur h die Zufallsvariable Xj modelliert werde. Da die Würfe unbeeinusst voneinander und unter glei hen Bedingungen ausgeführt werden, nehmen wir in einem sto hastis hen Modell an, dass die Zufallsvariablen unabhängig und identis h verteilt sind. Wegen E(X1 ) = 3.5 und V (X1 ) = 35/12 (vgl. (12.2) und Ü 20.1) gelten dann für die mit Sn := X1 + . . . + Xn bezei hnete Augensumme aufgrund der Re henregeln für Erwartungswert und Varianz die Identitäten E(Sn ) = 3.5 · n und V (Sn ) = 35/12·n ≈ 2.917·n. Die obigen Faustregeln besagen dann für den Fall n = 100: Die Augensumme aus 100 Würfelwürfen liegt mit der approximativen Wahrs heinli hkeit √ • 0.682 in den Grenzen 350 ± 291.7, also zwis hen 333 und 367, √ • 0.954 in den Grenzen 350 ± 2 · 291.7, also zwis hen 316 und 384, √ • 0.997 in den Grenzen 350 ± 3 · 291.7, also zwis hen 299 und 401.
Übungsaufgaben Ü 26.1 Eine e hte Münze (Zahl/Wappen) wird 10000 mal in unabhängiger Folge geworfen. Die
Y P (Y = 5000)
Zufallsvariable a)
Ü 26.2 Es seien
n
sei die Anzahl der dabei erzielten Wappen. Geben Sie Approximationen für b)
P (4900 ≤ Y ≤ 5100)
)
P (Y ≤ 5080)
an.
S1 , S2 , S3 . . . Zufallsvariablen, wobei Sn eine PoissonVerteilung mit Parameter
besitzt. Zeigen Sie mit Hilfe des ZGWS von LindebergLévy:
lim P (Sn ≤ n) = lim e−n ·
n→∞
n→∞
n X nj j=0
j!
=
1 . 2
Hinweis: Na h dem Additionsgesetz für die PoissonVerteilung kann die Verteilung von
Sn
als
Verteilung einer Summe von n unabhängigen und identis h verteilten Zufallsvariablen betra htet werden.
211 Ü 26.3 Zeigen Sie: In der Situation des Zentralen Grenzwertsatzes von LindebergLévy gilt
√ limn→∞ P ((Sn − nµ)/(σ n) = t) = 0
für jedes
t ∈ IR.
≤ dur h
= 1 − Φ(a), a ∈ IR. p
Ü 26.6 In einer Bernoulli-Kette mit Treerwahrs heinli hkeit
Zufallsvariable
Tn
a) Zeigen Sie:
bezei hne die
die Anzahl der Versu he, bis der
Hinweis: Bea hten Sie die Abs hnitte 23.3 und 23.4 sowie den Zentralen Grenzwertsatz von Lindeberg-Lévy. b) Wie groÿ ist approximativ die Wahrs heinli hkeit, dass bei fortgesetztem Werfen eines e hten Würfels die hundertste Se hs na h 650 Würfen no h ni ht aufgetreten ist?
Lernziele Sie sollten
• die Approximation der standardisierten Binomialverteilung dur h die Gauÿs he Glo kenkurve anhand von Bild 26.1 verinnerli ht haben; • die Zentralen Grenzwertsätze von de MoivreLapla e und LindebergLévy anwenden können; • die Faustregeln auf Seite 210 kennen.
212
27
S hätzprobleme
Unser Denken und Handeln stützt si h häug auf Sti hproben. In der Marktfors hung geben Sti hprobenverfahren wi htige Ents heidungshilfen zur Eins hätzung der Absatz han en für neue Produkte. Eins haltquoten von Fernsehsendungen werden tägli h auf Sti hprobenbasis festgestellt. Qualitätskontrollen erfolgen mit Hilfe von Sti hproben, und Steuererklärungen werden mangels Personal in den Finanzämtern nur sti hprobenartig genauer unter die Lupe genommen. Jedem Sti hprobenverfahren liegt der Wuns h zugrunde, mit geringem Zeit und Kostenaufwand eine mögli hst genaue Information über eine interessierende Population (Grundgesamtheit, vgl. Abs hnitt 5.2) zu erhalten. Beispiele für sol he Populationen bilden alle zu einem bestimmten Sti htag volljährigen Personen in Deuts hland, alle VierPersonenHaushalte der Stadt Rinteln (an der Weser), alle landwirts haftli hen Betriebe in Niedersa hsen oder alle 10 000 elektronis hen S halter der Tagesproduktion eines Unternehmens. Die gewüns hte Information bezieht si h im einfa hsten Fall auf ein quantitatives oder qualitatives Merkmal (vgl. Abs hnitt 5.1). So könnten etwa bei VierPersonenHaushalten der dur hs hnittli he jährli he Stromverbrau h oder das monatli he Haushaltsnettoeinkommen und für die Grundgesamtheit der landwirts haftli hen Betriebe die dur hs hnittli he Zahl von Mil hkühen pro Betrieb von Interesse sein. Für die Grundgesamtheit aller 10 000 elektronis hen S halter ist eine Information über den Prozentsatz der defekten S halter erwüns ht. Eine Erhebung ist die Feststellung der Ausprägungen des interessierenden Merkmals innerhalb der zur Diskussion stehenden Grundgesamtheit. Im Gegensatz zu einer Total oder Vollerhebung, bei der jedes Element der Grundgesamtheit befragt oder untersu ht wird, wählt man bei einer Teil oder Sti hprobenerhebung nur eine im Allgemeinen relativ kleine Teilmenge der Population aus und ermittelt die Ausprägung des interessierenden Merkmals an jedem Element dieser Teilmenge. Hier stellt si h s hon eines der vielen Probleme im Zusammenhang mit Sti hprobenverfahren: Oft wird die Sti hprobe aus Gründen der Praktikabilität gar ni ht aus der interessierenden Grundgesamtheit, sondern von vorneherein aus einer kleineren Teilpopulation, der sogenannten Erhebungsgesamtheit, gezogen. Ein Beispiel hierfür liefert die bekannte Sendung ZDFPolitbarometer . Die in die ser Sendung jeweils vorgestellten Zahlen, etwa zur berühmten Sonntagsfrage: Wenn am nä hsten Sonntag Bundestagswahl wäre... , basieren auf einer zufällig ausgewählten Sti hprobe von a. 1250 Wahlbere htigten. Da die Befragungen für das Politbarometer telefonis h stattnden, besteht hier die Erhebungsgesamtheit aus allen Personen, die über einen Telefonans hluss zu den Befragungszeiten prinzipiell errei hbar sind. Dies
213 bedeutet unter anderem, dass weder Personen mit Geheimnummern no h Personen, die aus nanziellen Gründen keinen Telefonans hluss besitzen, befragt werden können. Für einen Einbli k in grundlegende Probleme bei der Planung, der Dur hführung und der Anwendung von Sti hprobenverfahren sei auf [COC℄ verwiesen. Im Verglei h zu einer Vollerhebung, wie sie etwa bei Volkszählungen erfolgt, liegen die Vorteile einer Sti hprobenerhebung vor allem in einer Kostenminderung, einer s hnelleren Bes haung der Daten und in einer bes hleunigten Veröentli hung der Ergebnisse. Hier stellt si h allerdings die Frage na h der Repräsentativität der gewonnenen Sti hprobe. S hon in Abs hnitt 5.2 wurde darauf hingewiesen, dass dieser häug verwendete Begri meist in keinem Verhältnis zu seiner inhaltli hen Leere steht. So sieht etwa das ZDF die Sti hproben des Politbarometers als repräsentativ für die Bevölkerung in ganz Deuts hland an, obwohl auss hlieÿli h Personen mit Telefonans hluss befragt werden. Ans hauli h würde man von einer repräsentativen Sti hprobe erwarten, dass die in ihr enthaltene Information auf die Grundgesamtheit ho hgere hnet werden kann. Haben wir etwa in einer repräsentativen Sti hprobe von 200 der eingangs erwähnten 10 000 elektronis hen S halter 3 defekte gefunden, so würden wir die Zahl 3/200 (= 0.015) als vernünftigen S hätzwert für den Anteil aller defekten S halter in der Grundgesamtheit ansehen, also die Anzahl 3 mit dem Faktor 50 (= 10 000/200) auf eine ges hätzte Anzahl von 150 defekten unter allen 10 000 S haltern ho hre hnen. Diese Vorgehensweise ist jedo h mit einer gewissen Unsi herheit verbunden, da wir die mit r bezei hnete Anzahl aller defekten S halter ni ht kennen. Man bea hte, dass aufgrund der dur h die Sti hprobe erhaltenen Information selbst die extremen Fälle r = 3 und r = 9803 logis h ni ht ausges hlossen sind! Im ersten Fall benden si h dur h Zufall die einzigen drei defekten S halter in der Sti hprobe, im zweiten Fall haben wir eine Sti hprobe erhalten, die alle 197 überhaupt vorhandenen intakten S halter enthält. Eine Wahrs heinli hkeitssti hprobe ist eine Sti hprobe, die na h einem festgelegten sto hastis hen Modell gezogen wird. Im Gegensatz dazu gibt es viele andere Mögli hkeiten der Sti hprobenentnahme. So kann si h z.B. eine Sti hprobe aus Freiwilligen zusammensetzen, was insbesondere dann vorkommt, wenn subjektiv unangenehme Fragen gestellt werden. In anderen Fällen mögen nur lei ht zugängli he Elemente ausgewählt werden wie etwa diejenigen 10 Ratten in einem Käg mit 100 Ratten, die man am lei htesten mit der Hand fangen kann. Obwohl sol he ohne festgelegte Zufallsauswahl gewonnenen Sti hproben im Einzelfall brau hbar sein können, ist über die Güte ihrer Ergebnisse keine begründete Aussage mögli h. Wie im Folgenden anhand der einfa hsten Situation eines Merkmals mit zwei Ausprägungen (sogenanntes Ja/NeinMerkmal) dargelegt werden soll, ermögli ht gerade die Zuhilfenahme des Zufalls in Form eines sto hastis hen Modells für die Art der Sti hprobenentnahme einen begründeten S hluss von der Sti hprobe auf die Grundgesamtheit. 27.1 Hypergeometris hes und BinomialModell
Ein häug auftretendes Problem der Sti hprobentheorie besteht darin, die Gröÿe eines Anteils einer Grundgesamtheit zu s hätzen. In diesem Fall zerfällt die Grundgesamtheit
214
27 S hätzprobleme
in zwei Teile, einen Ja Teil von Elementen, die eine bestimmte Eigens haft E besitzen, und in einen Nein Teil derjenigen Elemente, wel he E ni ht aufweisen. Gefragt ist na h dem Quotienten
p :=
Anzahl der Elemente, die E besitzen . Anzahl aller Elemente der Grundgesamtheit
(27.1)
Interessierende Eigens haften bei Personen sind z.B. der Besitz der Blutgruppe 0, der regelmäÿige Kinogang (mindestens einmal pro Wo he) oder die Mitglieds haft in einem Sportverein. Bei einem PKW kann die interessierende Eigens haft darin bestehen, vor mehr als 10 Jahren zugelassen worden zu sein. Im Folgenden bezei hnen wir den Zähler in (27.1) mit r sowie den Nenner mit N und stellen uns alle Elemente der Grundgesamtheit als glei hartige, von 1 bis N nummerierte Kugeln vor, wobei denjenigen r Elementen, wel he die Eigens haft E besitzen, rote und den übrigen N − r Elementen s hwarze Kugeln zugeordnet werden. Modellieren wir die Gewinnung einer Zufallssti hprobe vom Umfang n als nmaliges rein zufälliges Ziehen ohne Zurü klegen aus einer mit allen N Kugeln gefüllten Urne, so ist na h (13.5) und (13.6) N −r r k · n r · (N − r)n−k n−k k · = (27.2) N k Nn n die Wahrs heinli hkeit, dass die gezogene Sti hprobe genau k rote Kugeln enthält (hypergeometris he Verteilung, vgl. 13.1).
Da es bei Fragestellungen der Praxis im Allgemeinen ni ht mögli h ist, jeder Teilmenge vom Umfang n die glei he Ziehungswahrs heinli hkeit zu garantieren, kann obiges Modell einer rein zufälligen Sti hprobe (sog. einfa he Sti hprobe) nur eine mehr oder weniger gute Annäherung an die Wirkli hkeit sein. Werden z.B. für eine Befragung per Telefon zunä hst die Telefonnummer und na h Zustandekommen einer Telefonverbindung eines der anwesenden Haushaltsmitglieder zufällig ausgewählt, so haben Singles mit Telefonans hluss im Verglei h zu anderen Personen eine gröÿere Wahrs heinli hkeit, in die Sti hprobe zu gelangen. Eine weitere in der Praxis auftretende S hwierigkeit mit obigem Modell besteht darin, dass nur in seltenen Fällen, wie z.B. bei einer Tagesproduktion von 10 000 elektronis hen S haltern, der Populationsumfang N bekannt ist. Bei Marketing und Demoskopie Studien hingegen weiÿ man oft nur, dass N im Verglei h zum Sti hprobenumfang n sehr groÿ ist. Um dieses Problem eines unbekannten, aber groÿen Populationsumfanges N in den Gri zu bekommen, bietet si h die folgende Modikation des bisherigen Modells an: Wir deuten den in (27.1) auftretenden Anteil p als Wahrs heinli hkeit für das Auftreten der Eigens haft E bei einem zufällig gewählten Element der Grundgesamtheit. Ziehen wir nun n mal rein zufällig mit Zurü klegen aus obiger Urne, so ist die Wahrs heinli hkeit, k mal eine rote Kugel zu erhalten, dur h den von N unabhängigen Ausdru k
215
n · pk · (1 − p)n−k k
, 0≤k≤n,
(27.3)
gegeben (Binomialverteilung, vgl. 18.3). Dass dieses einfa here BinomialModell eine gute Approximation für das ursprüngli he hypergeometris he Modell darstellt, wenn r und N − r (und damit au h der Populationsumfang N ) groÿ im Verglei h zum Sti hprobenumfang n sind, ergibt si h aus der äquivalenten Darstellung
r r−1 r−k+1 N −r N −r−1 N − r − (n − k) + 1 · · ... · · · · ... · N N −1 N −k+1 N −k N −k−1 N −n+1
des auf der re hten Seite von (27.2) auftretenden Bru hes. Ist n sehr klein im Verglei h zu r und N − r, so ist in diesem Produkt jeder der ersten k Faktoren ungefähr glei h p und jeder der übrigen n − k Faktoren ungefähr glei h 1 − p, also das Produkt eine Approximation für pk (1 − p)n−k . Formaler kann man hier r und N zwei gegen Unendli h konvergierende Folgen dur hlaufen lassen, wobei der Quotient r/N gegen p konvergiere. Dann geht bei diesem Grenzübergang die hypergeometris he Wahrs heinli hkeit (27.2) in die Binomialwahrs heinli hkeit (27.3) über. Wir sehen also, dass das BinomialModell bei Problemen der Anteilss hätzung in unend li hen Populationen bzw. in groÿen Populationen von unbekanntem Umfang Verwendung ndet. Die folgenden Überlegungen zeigen, dass die Anteilss hätzung in einer unendli hen Population und die S hätzung der Treerwahrs heinli hkeit in einer BernoulliKette glei hwertige Probleme darstellen. In einem Versu h soll der Einuss von Klärs hlamm auf die Lebensfähigkeit von Panzensamen untersu ht werden. Zu diesem Zwe k wird unter Zugrundelegung konstanter Versu hsbedingungen (u.a. Art des Klärs hlammes, Temperatur, Dauer des Keimungsversu hes) und eines homogenen Saatgutes (glei he Samenart mit glei her Ausgangslebensfähigkeit) für jeden Samen ein Treer markiert, wenn si h dieser zu einem norma len Keimling entwi kelt hat. Oenbar besteht hier die interessierende Grundgesamtheit aus der unendli hen Menge aller denkbaren Samen dieser Art; sie ist somit ktiv (vgl. Abs hnitt 5.2). Wir können jedo h einen Keimungsversu h mit n Samen als Bernoulli Kette vom Umfang n modellieren, wobei die unbekannte Treerwahrs heinli hkeit p als Anteil aller si h zu einem normalen Keimling entwi kelnden Samen in der unendli hen Grundgesamtheit aller heute und zukünftig vorhandenen Samen betra htet werden kann. Aus diesen Gründen bes häftigen wir uns zunä hst mit der Frage der S hätzung einer z.B. als Anteil in einer unendli h groÿen Population gedeuteten Wahrs heinli hkeit. Die bei Vorliegen einer endli hen Grundgesamtheit bekannten Umfanges N notwendige Modikation der S hätzung (sog. Endli hkeitskorrektur) wird in Abs hnitt 27.9 behandelt.
216
27 S hätzprobleme
27.2 S hätzung einer Wahrs heinli hkeit: Erste Überlegungen
Ein Treer/NieteExperiment sei unter glei hen, si h gegenseitig ni ht beeinussenden Bedingungen n mal wiederholt worden und habe insgesamt k Treer ergeben. Was können wir aufgrund dieser Information über die unbekannte Treerwahrs heinli hkeit p aussagen? Modellieren wir die vor Dur hführung der Experimente zufällige Treeranzahl als Zufallsvariable Sn , so besitzt Sn aufgrund der Rahmenbedingungen die Binomialverteilung Bin(n,p). Bislang wurden bei gegebenen Werten von n und p Verteilungseigens haften von Sn studiert. So wissen wir etwa, dass P (Sn = k) glei h dem in (27.3) stehenden Ausdru k ist und dass die Verteilung von Sn na h dem Zentralen Grenzwertsatz von de MoivreLapla e bei groÿem n gut dur h die Gauÿs he Glo kenkurve approximiert wird. An dieser Stelle müssen wir uns jedo h auf eine völlig neue Situation einstellen! Im Gegensatz zu oben haben wir nun eine Realisierung k von Sn beoba htet und mö hten hieraus eine begründete Aussage über die unbekannte zugrunde liegende Wahrs heinli hkeit p treen. Was kann man etwa im Reiÿzwe kenbeispiel in Kapitel 4 aus einer Treeranzahl von 124 in 300 Versu hen über p s hlieÿen? Da die in (27.3) stehende Wahrs heinli hkeit P (Sn = k) für jedes p mit 0 < p < 1 und jedes k ∈ {0,1, . . . ,n} e ht gröÿer als 0 ist und da jedes Ereignis, dessen Wahrs heinli hkeit positiv ist, eintreten kann, folgt zunä hst eine banale, aber wi htige Erkenntnis: Sind in n Versu hen k Treer erzielt worden, ist nur die Aussage es gilt 0 < p < 1 mit Si herheit ri htig. Jede genauere Aussage über die unbekannte Trefferwahrs heinli hkeit, wie etwa es gilt 0.22 ≤ p ≤ 0.38 , kann u.U. fals h sein; sie ist prinzipiell umso fals her , je genauer sie ist! Hier kollidiert oenbar der Wuns h na h einer mögli hst präzisen Aussage über p mit der Stärke der Überzeugung von der Ri htigkeit dieser Aussage. Eine Lösung dieses Problems führt auf den Begri des Vertrauensberei hes (vgl. 27.5). Da jedem Parameter p ∈ (0,1) ein wahrs heinli hkeitstheoretis hes Modell, nämli h das der Binomialverteilung Bin(n,p) entspri ht, haben wir auf der Su he na h dem unbekannten p anhand einer beoba hteten Realisierung von Sn die Qual der Wahl zwis hen den vers hiedenen Modellen Bin(n,p) mit 0 < p < 1. Um die Abhängigkeit dieser zur Auswahl stehenden Modelle von p zu verdeutli hen und um zu betonen, dass Wahrs heinli hkeiten erst na h Festlegung von p, d.h na h vollständiger Angabe eines Modells konkret bere hnet werden können, indizieren wir die Verteilung von Sn dur h den Parameter p und s hreiben n Pp (Sn = k) = · pk · (1 − p)n−k . (27.4) k Sind in n Versu hen k Treer erzielt worden, so liegt es nahe, die Trefferwahrs heinli hkeit p dur h die relative Treerhäugkeit
pˆ :=
k n
(27.5)
217 zu s hätzen. Zur Beurteilung der Genauigkeit dieses anhand vorliegender Daten ( k Treer in n Versu hen) gewonnenen S hätzwertes für das unbekannte p müssen wir uns vor Augen halten, dass k eine Realisierung der binomialverteilten Zufallsvariablen Sn und somit pˆ eine Realisierung der Zufallsvariablen
Rn :=
Sn n
(27.6)
ist. Na h den Re henregeln für Erwartungswert und Varianz sowie na h (18.6) und (21.4) gelten für die zufällige relative Treerhäugkeit Rn die Beziehungen
Ep (Rn ) =
1 1 · Ep (Sn ) = · n · p = p, n n
(27.7)
Vp (Rn ) =
1 p · (1 − p) 1 · Vp (Sn ) = 2 · n · p · (1 − p) = . n2 n n
(27.8)
Dabei haben wir au h hier dur h Indizierung mit p betont, dass Erwartungswert und Varianz unter der Modellannahme Sn ∼ Bin(n,p) bere hnet werden.
Glei hung (27.7) drü kt aus, dass die zufällige relative Treerhäugkeit Rn als S hätzung für eine unbekannte Wahrs heinli hkeit erwartungstreu und damit in einem ganz bestimmten Sinne repräsentativ ist: Unabhängig vom zugrunde liegenden Wert von p ist der Erwartungswert der Verteilung des zufälligen S hätzwertes Rn glei h p. Aus Glei hung (27.8) entnehmen wir, dass die Varianz der Verteilung des zufälligen S hätzwertes Rn ganz glei h, wel hes p tatsä hli h zugrunde liegt mit wa hsendem Sti hprobenumfang n abnimmt und dass somit ein konkreter S hätzwert pˆ umso genauer sein wird, je gröÿer n ist. 27.3 MaximumLikelihoodS hätzmethode
Die S hätzung einer unbekannten Wahrs heinli hkeit dur h die relative Treerhäugkeit ist einer wi htigen allgemeinen S hätzmethode untergeordnet. Diese Methode kann wie folgt bes hrieben werden:
Stehen in einer bestimmten Situation vers hiedene wahrs heinli hkeitstheoretis he Modelle zur Konkurrenz, so halte bei vorliegenden Daten dasjenige Modell für das glaubwürdigste, unter wel hem die beoba hteten Daten die gröÿte Wahrs heinli hkeit des Auftretens besitzen. In unserer Situation einer BernoulliKette vom Umfang n mit unbekannter Treerwahrs heinli hkeit p entspre hen den Daten die beoba htete Treeranzahl k aus den n Versu hen und den konkurrierenden Modellen die Binomialverteilungen Bin(n,p) mit 0 ≤ p ≤ 1. Da bei gegebenen Daten die dur h den Parameter p gekennzei hneten Modelle als variabel betra htet werden, s hreibt man n Lk (p) := Pp (Sn = k) = · pk · (1 − p)n−k (27.9) k
218
27 S hätzprobleme
und nennt die dur h (27.9) denierte Funktion Lk : [0,1] → IR die LikelihoodFunktion zur Beoba htung k . Es wirkt auf den ersten Bli k gekünstelt, die Wahrs heinli hkeit Pp (Sn = k) nur anders hinzus hreiben und mit dem Etikett Likelihood (von engl.: Wahrs heinli hkeit) zu versehen. Die S hreibweise Lk (p) oenbart jedo h eine für die S hlieÿende Statistik typis he Si htweise: Im Gegensatz zu wahrs heinli hkeitstheoretis hen Untersu hungen, bei denen eine feste WVerteilung betra htet und dann Wahrs heinli hkeiten für vers hiedene Ereignisse bere hnet werden, halten wir jetzt ein Ergebnis k fest und untersu hen die Wahrs heinli hkeit des Auftretens von k unter vers hiedenen, dur h einen Parameter p gekennzei hneten Modellen! Dabei besagt die oben bes hriebene, zuerst von R.A. Fisher1 mathematis h genauer untersu hte allgemeine S hätzmethode, dass bei gegebenem k derjenige Wert p die gröÿte Glaubwürdigkeit erhalten soll, für den die Funktion Lk maximal wird. Ein sol her Wert, d.h. ein Wert p∗ ∈ [0,1] mit der Eigens haft
Lk (p∗ ) = max Lk (p),
(27.10)
0≤p≤1
heiÿt ein MaximumLikelihoodS hätzwert (kurz: MLS hätzwert) für p zur Beoba htung k .
L6 (p)
6 0.001
- p 0 Bild 27.1
0.2
0.4
0.6
0.8
1
LikelihoodFunktion L6 (p) im Fall n = 10
Bild 27.1 zeigt die LikelihoodFunktion für die Situation von 6 Treern in 10 Versu hen, d.h. das S haubild von L6 (p) im Fall n = 10. Es ist kein Zufall, dass diese Funktion an der Stelle 0.6 ihren Maximalwert annimmt und dass diese Stelle gerade mit der relativen Treerhäugkeit pˆ = k/n = 6/10 übereinstimmt. Wir behaupten nämli h, dass für jedes k = 0,1, . . . ,n die relative Treerhäugkeit pˆ = k/n der eindeutig bestimmte MLS hätzwert für p ist. 1
Sir Ronald Aylmer Fisher (18901962), 1919 Berufung an die Rothamsted Experimental Station, 1933 Na hfolger von Karl Pearson auf dessen Lehrstuhl für Eugenik in London, 19431957 Lehrstuhl für Genetik in Cambridge. Fisher gilt als Begründer der modernen mathematis h orientierten Statistik (1912 erste Arbeit zur MLMethode). Die Idee der MLMethode war allerdings s hon früher bekannt, z.B. bei Daniel Bernoulli und Carl Friedri h Gauÿ.
219 Hierzu betra hten wir zunä hst die beiden Spezialfälle k = n (nur Treer) und k = 0 (nur Nieten). Wegen Ln (p) = pn bzw. L0 (p) = (1 − p)n ergeben si h unmittelbar die MLS hätzwerte p∗ = 1 (= n/n = pˆ) bzw. p∗ = 0 (= 0/n = pˆ). Um für festes k ∈ {1, . . . ,n − 1} die Funktion Lk bezügli h p zu maximieren, leiten wir Lk na h p ab. Mit Hilfe der Produktregel ergibt si h für 0 < p < 1 n k−1 d p (1 − p)n−k−1 · (k (1 − p) − (n − k) p), Lk (p) = k dp d Lk (p) = 0 als notwendige Bedingung so dass die aus der Analysis bekannte Forderung dp für ein lokales Maximum oder Minimum von Lk auf den Wert p∗ = k/n = pˆ führt. Da die Ableitung von Lk für p < pˆ positiv und für p > pˆ negativ ist, folgt in der Tat die Beziehung
Lk (ˆ p) = max Lk (p), 0≤p≤1
(27.11)
wobei das Maximum von Lk nur an der Stelle pˆ angenommen wird. Wir fassen zusammen: In einer BernoulliKette vom Umfang n liefert die relative Trefferhäugkeit pˆ = k/n eine erwartungstreue S hätzung für die unbekannte Erfolgswahrs heinli hkeit p. Werden in n Versu hen k Treer beoba htet, so besitzt dieses Ergebnis in Abhängigkeit von p ∈ [0,1] die gröÿte Wahrs heinli hkeit des Eintretens für den Wert pˆ. Die relative Treerhäugkeit pˆ ist somit die MaximumLikelihoodS hätzung für p. Im Folgenden behandeln wir das Problem der Genauigkeit dieser S hätzung. 27.4 Eine ominöse Behauptung und ihre Grundlage
Was sagen Sie zu einem Statistiker, der in obiger Situation einer BernoulliKette vom Umfang n die relative Treerhäugkeit pˆ beoba htet hat und daraufhin mit einem Gewissheitsgrad von 19 zu 1 behauptet, für das unbekannte p sei die Aussage 2.24 2.24 pˆ − √ ≤ p ≤ pˆ + √ (27.12) n n ri htig? Dieser Statistiker setzt mit seiner aufgestellten Behauptung z.B. bei einer beoba hteten Anzahl von 43 Treern in 100 Versu hen groÿes Vertrauen in die Aussage p liegt zwis hen 0.206 und 0.654 . Wäre dieselbe relative Treerhäugkeit von 0.43 aus einer viel gröÿeren Serie, nämli h aus n = 10 000 Versu hen erzielt worden, hätte er sogar dasselbe groÿe Vertrauen in die präzisere Aussage es gilt 0.4076 ≤ p ≤ 0.4524 gesetzt. Da aber jeder Wert p mit 0 < p < 1 über die Verteilung Bin(n,p) jede Trefferanzahl k mit k ∈ {0,1, . . . ,n} erzeugen kann , ist selbst ein sehr erfahrener Statistiker mit einer Behauptung der Art (27.12) gegen einen Irrtum ni ht gefeit. Bevor wir der Frage na hgehen, wodur h obiges Vertrauen gere htfertigt sein mag, müssen wir uns verdeutli hen, dass es niemanden gibt, der die Behauptung des Statistikers überprüfen könnte. Da nur Meister Zufall die unbekannte Wahrs heinli hkeit p kennt, kann grundsätzli h ni ht festgestellt werden, ob (27.12) eine ri htige oder fals he Aussage ist!
220
27 S hätzprobleme
Die Angabe eines Gewissheitsgrades von 19 zu 1 mag uns zu der irrigen Annahme verleiten, der Statistiker billige der Aussage (27.12) eine Wahrs heinli hkeit von 0.95 zu. Solange wir diese Wahrs heinli hkeit als einen rein subjektiven Grad der Überzeugung von der Ri htigkeit der Aussage (27.12) ansehen, könnte dies zutreen. Wenn wir jedo h die Bestandteile pˆ, n und p in (27.12) betra hten, su hen wir dort zunä hst bei gegebenen Daten, d.h. bei einer beoba hteten relativen Treerhäugkeit, vergebli h na h einer Zufallskomponente (p ist zwar unbekannt, aber ni ht zufällig)! Der S hlüssel zum Verständnis von (27.12) liegt darin, die beoba htete relative Trefferhäugkeit pˆ als Realisierung der zufälligen relativen Treerhäugkeit Rn aus (27.6) aufzufassen und die Wahrs heinli hkeit 2.24 2.24 Pp Rn − √ ≤ p ≤ Rn + √ (27.13) n n √ √ zu studieren. Man bea hte, dass die Zufallsvariablen Rn − 2.24/ n und Rn + 2.24/ n die zufälligen Endpunkte des zufälligen Intervalles 2.24 2.24 In := Rn − √ , Rn + √ (27.14) n n bilden. Damit stellt der Ausdru k in (27.13) die unter dem Modellparameter p bere hnete Wahrs heinli hkeit dafür dar, dass das zufällige Intervall In dieses unbekannte p enthält.
√ Setzen wir kurz ε := 2.24/ n und bea hten die Glei hheit {Rn − ε ≤ p ≤ Rn + ε} = {|Rn −p| ≤ ε}, so liefern (27.7), (27.8), eine Anwendung der Ts hebys howUnglei hung (20.4) auf X := Rn sowie die Abs hätzung p · (1 − p) ≤
1 4
die Unglei hungskette 2.24 2.24 Pp Rn − √ ≤ p ≤ Rn + √ n n
(27.15)
2.24 = 1 − Pp Rn − p > √ n n · p · (1 − p) ≥ 1 − n · 2.242 1 ≥ 1 − 4 · 2.242 = 0.9501 . . .
(27.16)
Für jeden Wert des Modellparameters p enthält also das in (27.14) denierte zufällige Intervall In das unbekannte p mit einer Mindestwahrs heinli hkeit von 0.95. Diese Aussage ist wie folgt zu interpretieren: Nehmen wir einmal an, wir könnten das Experiment beoba hte die relative Treerhäu gkeit in einer BernoulliKette vom Umfang n unter glei hen, si h gegenseitig ni ht beeinussenden Bedingungen l mal wiederholen. Bezei hnen wir die si h bei der j ten Wiederholung ergebende zufällige relative Treerhäugkeit mit Rn,j und das gemäÿ
221 (27.14) mit Rn,j anstelle von Rn gebildete zufällige Intervall mit In,j (j = 1, . . . ,l), so sind die Ereignisse An,j := {p ∈ In,j } (j = 1, . . . ,l) aufgrund der si h ni ht beeinussenden Bedingungen sto hastis h unabhängig. Ferner besitzen sie wegen der Glei hheit der Bedingungen unter dem Modellparameter p dieselbe Wahrs heinli hkeit Pp (An,1 ). Na h dem S hwa hen Gesetz groÿer Zahlen von Jakob Bernoulli (vgl. 25.3) konvergiert der P zufällige relative Anteil l−1 · lj=1 1{An,j } aller Experimente, bei denen das Intervall In,j die unbekannte Erfolgswahrs heinli hkeit p enthält, beim Grenzübergang l → ∞ sto hastis h gegen die Wahrs heinli hkeit Pp (An,1 ). Na h (27.16) gilt dabei Pp (An,1 ) ≥ 0.95.
. . ,pˆl beoWürden wir also in den l Experimenten die relativen Treerhäugkeiten pˆ1 , . √ n, pˆj + [ p ˆ − 2.24/ ba hten, so enthielten die gemäÿ (27.12) gebildeten Intervalle j √ 2.24/ n ] (j = 1,2,, . . . ,l) auf die Dauer, d.h. bei wa hsendem l, in mindestens 95% aller Fälle die unbekannte Erfolgswahrs heinli hkeit p. Aus diesem Grunde setzen wir groÿes Vertrauen in die Aussage (27.12), obwohl wir tatsä hli h nur eines dieser l Experimente dur hgeführt und somit nur eine aus n Versu hen bestimmte relative Treerhäugkeit pˆ vorliegen haben (s. a. Bild 27.3). Ersetzt man in der Unglei hungskette (27.16) den ominös ers heinenden Wert 2.24 (die√ ser ist eine Näherung für 5) dur h eine beliebige Zahl u > 0, so folgt u u 1 √ √ ≤ p ≤ Rn + Pp Rn − . (27.17) ≥ 1− 4 · u2 n n
Für u := 5 ergibt si h hieraus die untere S hranke 0.99, d.h. ein Gewissheitsgrad von 99 zu 1 für die im Verglei h zu (27.12) weniger präzise Aussage
5 5 pˆ − √ ≤ p ≤ pˆ + √ n n
(27.18)
über das unbekannte p. Dieser im Verglei h zu (27.12) gröÿeren Ungenauigkeit der Antwort steht aber die höhere Garantiewahrs heinli hkeit von 0.99 im Verglei h zu 0.95 gegenüber.
√ √ Häug benötigt man für Aussagen der Gestalt Rn − u/ n ≤ p ≤ Rn + u/ n eine MindestGarantiewahrs heinli hkeit von 1 − α. Da wir nur Vertrauen in das Eintreten ho hwahrs heinli her Ereignisse besitzen, sollte diese nahe bei 1 liegen, d.h. α sollte klein sein. Übli he Werte für Garantiewahrs heinli hkeiten sind 0.9, 0.95 oder 0.99; sie entspre hen den Werten α = 0.1, α = 0.05 bzw. α = 0.01. Ist also √ die re hte Seite von (27.17) in der Form 1 − α vorgegeben, erhalten wir u = 1/(2 α) und die Unglei hung 1 1 ≤ p ≤ Rn + √ Pp Rn − √ (27.19) ≥ 1 − α. 2 αn 2 αn Unter Bea htung der Randbedingung 0 ≤ p ≤ 1 bedeutet dies, dass das zufällige Intervall 1 1 I˜n := max Rn − √ ,0 , min Rn + √ ,1 (27.20) 2 αn 2 αn
222
27 S hätzprobleme
den unbekannten Modellparameter p mit einer Mindestwahrs heinli hkeit von 1 − α enthält ganz glei h, wel hes p tatsä hli h zugrunde liegt. Von diesem Intervall sollte jedo h in der Praxis kein Gebrau h gema ht werden, da es wesentli h kleinere Intervalle gibt, die das unbekannte p ebenfalls mit der Mindest Wahrs heinli hkeit 1 − α eins hlieÿen. Denn bislang haben wir ni ht die spezielle Struktur der Binomialverteilung berü ksi htigt, sondern nur die verteilungsunspezis he Ts hebys howUnglei hung angewandt. Bevor in Abs hnitt 27.6 bessere GarantieIn tervalle für den Parameter p der Binomialverteilung konstruiert werden, benötigen wir einige Begrisbildungen, wel he an die Aussage (27.19) ans hlieÿen. 27.5 Der Begri des Vertrauensberei hes
Die Grenzen des zufälligen Intervalles aus (27.20), wel hes das unbekannte p mit der Garantiewahrs heinli hkeit 1 − α enthält, sind mit Hilfe der zufälligen relativen Trefferhäugkeit Rn gebildete Zufallsvariablen. Anstelle von Rn hätten wir au h die glei hwertige Treeranzahl Sn ( = n · Rn ) verwenden können. Dies ist im Folgenden der Fall, da wir mit der Binomialverteilung von Sn arbeiten werden.
In Verallgemeinerung der Aussage (27.19) geben wir uns eine (kleine) Wahrs heinli hkeit α ∈ (0,1) vor und betra hten ein zufälliges Intervall
Jn = [pu (Sn ) , po (Sn )]
⊆ [0,1]
(27.21)
mit den zufälligen, von Sn abhängenden Endpunkten pu (Sn ) < po (Sn ). Jn heiÿt Vertrauensintervall für p zur Vertrauenswahrs heinli hkeit 1 − α oder kurz (1 − α)Vertrauensberei h für p, falls für jedes p ∈ (0,1) gilt:
Pp (p ∈ Jn ) = Pp (pu (Sn ) ≤ p ≤ po (Sn )) ≥ 1 − α ,
(27.22)
d.h. falls das zufällige Intervall Jn den Modellparameter p mit einer Mindestwahrs heinli hkeit von 1 − α enthält. Synonym für Vertrauensintervall werden im Folgenden au h die Begrie Kondenzintervall und Kondenzberei h gebrau ht. Anstelle von Vertrauenswahrs heinli hkeit s hreiben wir häug au h Kondenzwahrs heinli hkeit oder den bereits verwendeten Begri Garantiewahrs heinli hkeit. Die in (27.21) denierten Zufallsvariablen pu (Sn ), po (Sn ) hängen von der gewählten Kondenzwahrs heinli hkeit 1 − α ab, was man bereits an der Gestalt der Intervallgrenzen in (27.20) erkennt. Ferner sind in der Denition des Intervalles Jn in (27.21) ausdrü kli h die Fälle pu (Sn ) := 0 oder po (Sn ) := 1 zugelassen, d.h. einer der beiden Endpunkte des Intervalles kann die jeweils natürli he Grenze für p sein. Der Fall pu (Sn ) = 0 tritt typis herweise dann auf, wenn ein Treer ein s hädigendes Ereignis wie z.B. den Ausfall eines te hnis hen Gerätes oder die Infektion mit einem lebensbedrohenden Virus darstellt (siehe z.B. Übungsaufgabe 27.3). Hier ist man nur an einer verlässli hen oberen S hranke po (Sn ) für die unbekannte Ausfall oder Infektionswahrs heinli hkeit interessiert.
223 Dementspre hend nennen wir eine beliebige Funktion po (Sn ) von Sn eine obere Kondenzgrenze für p zur Kondenzwahrs heinli hkeit 1 − β (0 < β < 1), falls für jedes p ∈ (0,1) die Unglei hung
Pp (p ≤ po (Sn )) ≥ 1 − β
(27.23)
erfüllt ist. Analog heiÿt die Zufallsvariable pu (Sn ) eine untere Kondenzgrenze für p zur Kondenzwahrs heinli hkeit 1 − β , falls für jedes p ∈ (0,1) gilt:
Pp (pu (Sn ) ≤ p) ≥ 1 − β.
(27.24)
Man bea hte, dass si h (27.23) und (27.24) mit der Wahl β := α als Spezialfälle von (27.22) ergeben, wenn wir dort pu (Sn ) := 0 bzw. po (Sn ) := 1 setzen. Eine wi htige Überlegung ist, dass wir aus zwei einseitigen Kondenzaussagen der Form (27.23) und (27.24) zur Kondenzwahrs heinli hkeit 1 − α/2 eine zweiseitige Kondenzaussage vom Typ (27.22) konstruieren können: Gelten für Zufallsvariablen po (Sn ) und pu (Sn ) die Beziehungen Pp (p ≤ po (Sn )) ≥ 1 − α/2 und Pp (pu (Sn ) ≤ p) ≥ 1 − α/2, d.h. sind (27.23) und (27.24) jeweils mit β = α/2 erfüllt, so folgt wegen
{pu (Sn ) ≤ p ≤ po (Sn )} = {pu (Sn ) ≤ p} ∩ {p ≤ po (Sn )}
(27.25)
mit Übungsaufgabe 6.1 die zweiseitige Kondenzaussage Pp (pu (Sn ) ≤ p ≤ po (Sn )) ≥ 1 − α. Insbesondere lässt si h aus zwei 97.5%Kondenzgrenzen eine zweiseitige Kondenzaussage zur Vertrauenswahrs heinli hkeit 0.95 konstruieren. Die mit Hilfe einer Realisierung k der Zufallsvariablen Sn bestimmten Realisierungen pu (k) und po (k) der Zufallsvariablen pu (Sn ) bzw. po (Sn ) in (27.23) bzw. (27.24) heiÿen eine konkrete untere bzw. obere Kondenzs hranke für p zur Kondenzwahrs heinli hkeit 1−β . In glei her Weise wird eine Realisierung des zufälligen Intervalles Jn in (27.21) ein konkretes Kondenzintervall für p zur Kondenzwahrs heinli hkeit 1 − α genannt. Wir werden im Weiteren das Attribut konkret weglassen und s hle hthin von Kondenzs hranken und Kondenzintervallen spre hen, d.h. terminologis h ni ht mehr zwis hen Zufallsvariablen und deren Realisierungen unters heiden. Die Interpretation der dur h einen konkreten Vertrauensberei h gegebenen praktis h si heren Aussage über p hat dabei stets wie in Abs hnitt 27.4 zu erfolgen. 27.6 Vertrauensgrenzen für eine Wahrs heinli hkeit
In einer BernoulliKette vom Umfang n seien k Treer aufgetreten. Wir stellen uns das Problem, untere und obere Vertrauensgrenzen pu (k) bzw. po (k) (k = 0,1 . . . ,n) für das unbekannte p zu konstruieren, so dass für die zufälligen Gröÿen po (Sn ) bzw. pu (Sn ) die Unglei hungen (27.23) bzw. (27.24) erfüllt sind. Die grundlegende Idee zur Konstruktion von po (k) bzw. pu (k) besteht darin, Modellparameter p auszus hlieÿen, unter denen die Wahrs heinli hkeit für hö hstens k bzw. mindestens k Treer in n Versu hen hinrei hend klein wird. Hierzu betra hten wir zunä hst den Fall k = 0 (kein Treer in n Versu hen). Es ist unmittelbar einsi htig, hier pu (0) := 0 zu setzen. Untersu hen wir die Wahrs heinli hkeit
224
27 S hätzprobleme
(1 − p)n =
n · p0 · (1 − p)n−0 0
(27.26)
in Abhängigkeit vom unbekannten Modellparameter p, so ist ersi htli h, dass es bei wa hsendem p immer unwahrs heinli her wird, in n Versu hen keinen Treer zu erzielen. Es liegt somit nahe, die obere Vertrauensgrenze po (0) für p so festzulegen, dass die in (27.26) stehende Wahrs heinli hkeit für p = po (0) hinrei hend klein ist. Im Hinbli k auf die in (27.23) auftretende kleine Ausnahmewahrs heinli hkeit β bestimmen wir po (0) als Lösung p der Glei hung
(1 − p)n = β
(27.27)
und setzen folgli h
po (0) := 1 − β 1/n .
Da die Funktion (1 −
(1 − p)
n
≤ β
p)n
(27.28) mit wa hsendem p monoton fällt, ergibt si h
für jedes p ≥ po (0).
(27.29)
Diese Beziehung veranlasst uns zu behaupten, p sei hö hstens 1−β 1/n , und alle gröÿeren Modellparameter seien praktis h auszus hlieÿen. Analog setzen wir im Fall k = n die obere Vertrauensgrenze po (n) zu 1 und bestimmen pu (n) als Lösung p der Glei hung n pn = · pn · (1 − p)n−n = β, n denieren also
pu (n) := β 1/n .
(27.30)
In diesem Fall liefert die Monotonie der Funktion pn die Unglei hung
pn ≤ β
für jedes p ≤ pu (n)
(27.31)
und somit den praktis h si heren Auss hluss aller Modellparameter p, die kleiner als pu (n) sind. Um au h in dem als drittes zur Diskussion stehenden Fall 1 ≤ k ≤ n − 1 alle Modellparameter p oberhalb bzw. unterhalb der zu konstruierenden Gröÿen po (k) bzw. pu (k) praktis h auss hlieÿen zu können , betra hten wir die Unter bzw. Übers hrei tungswahrs heinli hkeiten, hö hstens k bzw. mindestens k Treer zu erhalten. Für jedes k ∈ {1, . . . ,n − 1} gilt die Integraldarstellung Z p k X n j n! p (1 − p)n−j = 1 − (27.32) tk (1 − t)n−k−1 dt. j k!(n − k − 1)! 0 j=0
Diese ergibt si h dur h eine direkte Re hnung, da beide Seiten von (27.32) als Funktionen von p identis he Ableitungen besitzen und mit der Festlegung 00 := 1 an der Stelle p = 0 denselben Wert 1 liefern.
225 Für unsere Überlegungen ist ni ht die genaue Gestalt der re hten Seite von (27.32) wi htig, sondern die aus (27.32) folgende, ans hauli h einsi htige Tatsa he, dass die Unters hreitungswahrs heinli hkeit eine stetige und mit wa hsendem p streng monoton fallende Funktion darstellt. Wählen wir deshalb po (k) in Analogie zu (27.26) und (27.27) als die eindeutig bestimmte Lösung p der Glei hung k X n (27.33) · pj · (1 − p)n−j = β, j j=0
so ergibt si h k X n · pj · (1 − p)n−j ≤ β j j=0
für jedes p ≥ po (k),
(27.34)
so dass wir analog zu oben alle Modellparameter p, die gröÿer als po (k) sind, praktis h auss hlieÿen können. Da in glei her Weise für jedes k ∈ {1,2, . . . ,n−1} die Übers hreitungswahrs heinli hkeit Z p n X n j n! p (1 − p)n−j = tk−1 (1 − t)n−k dt (27.35) j (k − 1)!(n − k)! 0 j=k
eine stetige und streng monoton wa hsende Funktion von p ist, erhalten wir mit der Festsetzung von pu (k) als eindeutig bestimmter Lösung p der Glei hung n X n (27.36) · pj · (1 − p)n−j = β j j=k
die Unglei hung n X n · pj · (1 − p)n−j ≤ β j j=k
für jedes p ≤ pu (k)
(27.37)
und somit wie oben den praktis hen Auss hluss aller Modellparameter p, die kleiner als pu (k) sind. Bislang haben wir für jede beoba htbare Treeranzahl k zwei Werte po (k) und pu (k) so festgelegt, dass die Wahrs heinli hkeit für hö hstens k bzw. mindestens k Treer unter oberhalb von po (k) bzw. unterhalb von pu (k) liegenden Parametern p kleiner als β ist. Um na hzuweisen, dass po (k) und pu (k) tatsä hli h Kondenzgrenzen zur Kondenzwahrs heinli hkeit 1 − β liefern, müssen wir zeigen, dass die Zufallsvariablen po (Sn ) und pu (Sn ) die Wahrs heinli hkeitsUnglei hungen (27.23) und (27.24) erfüllen! Zum Na hweis von (27.23) halten wir p ∈ (0,1) fest und betra hten die Menge
M := {k ∈ {0,1, . . . ,n} : p > po (k)}
(27.38)
derjenigen Realisierungen k der zufälligen Treeranzahl Sn , für wel he der Modellparameter p oberhalb des Wertes po (k) liegt. Wegen
226
27 S hätzprobleme
Pp (p ≤ po (Sn )) = 1 − Pp (p > po (Sn )) = 1 − Pp (Sn ∈ M ) ist die Unglei hung Pp (Sn ∈ M ) ≤ β zu zeigen. Hier kann oenbar der Fall M 6= ∅ angenommen werden (andernfalls wäre Pp (Sn ∈ M ) = 0). Setzen wir
ko := ko (p) := max{k ∈ {0,1, . . . ,n} : p > po (k)} = max M ,
(27.39)
so ergibt si h wegen M = {0,1, . . . ,ko } (wir benötigen im Folgenden nur die Inklusion ⊆ ), der Monotonie der Unters hreitungswahrs heinli hkeit, der Beziehung po (ko ) < p sowie (27.33) die Unglei hungskette
Pp (Sn ∈ M )
≤ =
Pp (Sn ≤ ko ) ≤ Ppo (ko ) (Sn ≤ ko ) n po (ko )j (1 − po (ko ))n−j = β , j
ko X j=0
so dass (27.23) dur h Komplementbildung folgt. Völlig analog beweist man (27.24).
20
6
k 10
M
Bild 27.2
ko (p)
q 0q
0
q
q
q
q q
q
q q
q q
q
q
q
.q.. .. . . p
q
q
q
q
q q
q
q
pu (k)
q
q
q q
q
q
q
q
q
q q
q
q
po (k)
q
q
q
q q
1
-
Kondenzgrenzen für den Parameter p der Binomialverteilung (n = 20, β = 0.1)
Bild 27.2 zeigt die Intervalle [pu (k),po (k)] für den Fall n = 20, β = 0.1 und k = 0,1, . . . ,20. Dabei sind zusätzli h zu einer fest gehaltenen Wahrs heinli hkeit p der Wert ko (p) aus (27.39) und die Menge M aus (27.38) verans hauli ht. Die Bestimmung der Kondenzgrenzen pu (k) und po (k) erfolgt numeris h mit Hilfe eines Computers. In den Fällen n = 20, n = 30, n = 40 und n = 50 sowie β = 0.025 können die Werte pu und po aus Tabelle 27.1 abgelesen werden. Für die Situation, dass in 30 Versu hen kein einziger Treer beoba htet wurde, also den Fall n = 30 und k = 0, ergibt
227 si h z.B. der Wert 0.116 als obere Kondenzgrenze für p zur Vertrauenswahrs heinli hkeit 0.975. Diese Vertrauensgrenze verkleinert si h auf 0.071, falls in 50 Versu hen kein Treer auftritt. Als weiteres Beispiel betra hten wir die Situation, dass in 50 Versu hen 20 Erfolge beoba htet wurden. In diesem Fall ist [0.264,0.548] das konkrete Vertrauensintervall für p zur Garantiewahrs heinli hkeit 0.95. Dieses Intervall ist wesentli h kürzer als das mit Hilfe von (27.20) gewonnene konkrete Intervall [0.084,0.718]. k
n = 20 pu (k) po (k)
0
0.000
0.168
0.000
0.116
0.000
0.088
0.000
0.071
1
0.001
0.249
0.001
0.172
0.001
0.132
0.001
0.106
2
0.012
0.317
0.008
0.221
0.006
0.169
0.005
0.137
3
0.032
0.379
0.021
0.265
0.016
0.204
0.013
0.165
4
0.057
0.437
0.038
0.307
0.028
0.237
0.022
0.192
5
0.087
0.491
0.056
0.347
0.042
0.268
0.033
0.218
6
0.119
0.543
0.077
0.386
0.057
0.298
0.045
0.243
7
0.154
0.592
0.099
0.423
0.073
0.328
0.058
0.267
8
0.191
0.639
0.123
0.459
0.091
0.356
0.072
0.291
9
0.231
0.685
0.147
0.494
0.108
0.385
0.086
0.314
10
0.272
0.728
0.173
0.528
0.127
0.412
0.100
0.337
11
0.315
0.769
0.199
0.561
0.146
0.439
0.115
0.360
12
0.361
0.809
0.227
0.594
0.166
0.465
0.131
0.382
13
0.408
0.846
0.255
0.626
0.186
0.491
0.146
0.403
14
0.457
0.881
0.283
0.657
0.206
0.517
0.162
0.425
15
0.509
0.913
0.313
0.687
0.227
0.542
0.179
0.446
16
0.563
0.943
0.343
0.717
0.249
0.567
0.195
0.467
17
0.621
0.968
0.374
0.745
0.270
0.591
0.212
0.488
18
0.683
0.988
0.406
0.773
0.293
0.615
0.229
0.508
19
0.751
0.999
0.439
0.801
0.315
0.639
0.247
0.528
20
0.832
1.000
0.472
0.827
0.338
0.662
0.264
0.548
21
0.506
0.853
0.361
0.685
0.282
0.568
22
0.541
0.877
0.385
0.707
0.300
0.587
23
0.577
0.901
0.409
0.730
0.318
0.607
24
0.614
0.923
0.433
0.751
0.337
0.626
25
0.653
0.944
0.458
0.773
0.355
0.645
Tabelle 27.1
n = 30 pu (k) po (k)
n = 40 pu (k) po (k)
n = 50 pu (k) po (k)
Kondenzgrenzen für den Parameter p der Binomialverteilung (β = 0.025)
Bild 27.3 verans hauli ht die s hon in Abs hnitt 27.4 angespro hene Fluktuation der konkreten Kondenzintervalle [pu (k),po (k)] bei wiederholter Bildung unter glei hen, unabhängigen Bedingungen. Zur Erzeugung von Bild 27.3 wurde 30 mal eine BernoulliKette der Länge n = 50 mit Treerwahrs heinli hkeit p = 0.35 mit Hilfe von PseudoZufallszahlen (vgl. Abs hnitt 19.4) simuliert und jedes Mal gemäÿ Tabelle 27.1 das
228
27 S hätzprobleme
konkrete Vertrauensintervall für p bere hnet. Aufgrund der gewählten Kondenzwahrs heinli hkeit von 0.95 sollten nur etwa ein bis zwei der 30 Intervalle den wahren Wert (= 0.35) ni ht enthalten, was im vorliegenden Fall au h zutrit (eines der Intervalle enthält p ni ht).
n = 50 0.8 0.6 0.4 0.2 0 5
Bild 27.3
10
15
20
25
30
Konkrete Kondenzintervalle für p (1 − α = 0.95)
27.7 Approximative Kondenzintervalle für groÿes n Eine Approximation der Kondenzgrenzen po (k) und pu (k) für groÿe Sti hprobenumfänge erhält man mit Hilfe des ZGWS von de MoivreLapla e, indem zur Bestimmung der Lösung p = po (k) der Glei hung Pp (Sn ≤ k) = β (vgl. (27.33)) die Approximation (vgl. (26.19)) ! ! k − np + 12 Sn − np k − np Pp (Sn ≤ k) = Pp p ≤p ≈ Φ p np(1 − p) np(1 − p) np(1 − p)
verwendet und die Glei hung ! k − np + 12 = β Φ p np(1 − p)
na h p aufgelöst wird. S hreiben wir Φ−1 für die Umkehrfunktion von Φ, so ist diese Aufgabe äquivalent zur Bestimmung einer Lösung p der Glei hung
k − np + 21 p = Φ−1 (β) . np(1 − p)
(27.40)
In glei her Weise führt die Approximation
Pp (Sn ≥ k) = 1 − Pp (Sn ≤ k − 1) ≈ 1 − Φ auf die Lösung p der Glei hung
k − 1 − np + 12 p np(1 − p)
!
229
k − np − 21 p = Φ−1 (1 − β) np(1 − p)
(27.41)
als Näherungswert für die untere Vertrauensgrenze pu (k) (vgl. (27.36). Der auf der re hten Seite von (27.41) stehende Wert c := Φ−1 (1 − β) heiÿt das (1 − β) Quantil der standardisierten Normalverteilung. Wegen Φ(c) = 1 − β ist die Flä he unter der Gauÿs hen Glo kenkurve ϕ(x) im Berei h c ≤ x < ∞ gerade β . Aufgrund der Symmetrieeigens haft ϕ(x) = ϕ(−x) gilt Φ−1 (β) = −c (siehe Bild 27.4), so dass die re hte Seite von (27.40) dur h −c gegeben ist. Einige wi htige Quantile der standardisierten Normalverteilung sind in Tabelle 27.2 aufgeführt. 1 6
60.4
1−β
Φ(t)
ϕ(x) 0.5
. ... ....... ........... ................... ..................... ................... ....................... ............................ ................................ .............................................
.. ...... .. ............... ................ .... ............................. ............................. ........ ................................................... ............................................
β
-3 Bild 27.4
β
−c
c
0
β
-x
3
- t c
−c
-3
3
β und (1 − β)Quantil der standardisierten Normalverteilung
0.9
1−β
0.95
0.975
0.99
0.995
Φ−1 (1 − β) 1.282 1.645 1.960 2.326 2.576 Tabelle 27.2
.
Quantile der standardisierten Normalverteilung
Die Auösung von (27.40), (27.41) na h p (Nenner ho hmultiplizieren, quadrieren und die entstehende quadratis he Glei hung lösen!) liefert die Approximationen q 2 2 k + 21 + c2 + c · k + 12 − n−1 (k + 12 )2 + c4 po (k) ≈ (27.42) , n + c2
pu (k) ≈
k−
1 2
+
c2 2
−c·
q
k−
1 2
− n−1 (k − 12 )2 +
n + c2
c2 4
.
(27.43)
Die unters hiedli hen Vorzei hen vor der Wurzel rühren daher, dass für po (k) die gröÿere und für pu (k) die kleinere Lösung der jeweiligen quadratis hen Glei hung ausgewählt werden. Da der Herleitung dieser Formeln der ZGWS von de MoivreLapla e zugrunde lag und da die Güte der Approximation der standardisierten Binomialverteilung dur h die
230
27 S hätzprobleme
Gauÿs he Glo kenkurve bei festem n umso s hle hter ist, je näher p bei den extremen Werten 0 und 1 liegt, sollten die Kondenzgrenzen (27.42) und (27.43) nur dann angewandt werden, wenn die relative Treerhäugkeit k/n den Werten 0 und 1 ni ht zu nahe kommt. Für den Fall β = 0.025, also c = 1.96 (vgl. Tabelle 27.2) und n = 50, k = 10 liefern die Formeln (27.42) und (27.43) die Approximationen po (10) ≈ 0.341 und pu (10) ≈ 0.105, vergli hen mit den exakten Werten po (10) = 0.337 und pu (10) = 0.100 aus Tabelle 27.1. Im Fall k ≥ 50 und n − k ≥ 50 (mindestens 50 Treer und 50 Nieten) können die Vertrauensgrenzen in (27.42) und (27.43) für praktis he Anwendungen unter Verwendung der Abkürzung pˆ = k/n dur h die im Verglei h zu (27.42) und (27.43) wesentli h einfa heren groben Näherungen c p po (k) ≈ pˆ + √ · pˆ · (1 − pˆ) , (27.44) n
c p pu (k) ≈ pˆ − √ · pˆ · (1 − pˆ) n
(27.45)
ersetzt werden.
27.8 Planung des Sti hprobenumfangs
Ein wi htiges Problem bei der S hätzung einer Wahrs heinli hkeit bzw. eines Anteils in einer ktiven unendli h groÿen Population ist die Festlegung desjenigen Sti hprobenumfangs, der zur Erzielung einer vorgegebenen Genauigkeit nötig ist. Hier denke man etwa an ein Meinungsfors hungsinstitut, wel hes den Prozentsatz aller Wähler einer bestimmten Partei A bis auf einen Fehler von ± 2% s hätzen mö hte. Wie in Abs hnitt 27.1 modellieren wir diesen Prozentsatz als die Treerwahrs heinli hkeit p einer Bernoulli Kette. Man bea hte, dass po (k) und pu (k) in (27.44) bzw. (27.45) approximative Kondenzgrenzen zur Kondenzwahrs heinli hkeit 1 − β sind. Wollen wir aus diesen Grenzen ein approximatives zweiseitiges Kondenzintervall [pu (k),po (k)] zur Kondenzwahrs heinli hkeit 1 − α konstruieren, so müssen wir c := Φ−1 (1 − α/2) setzen, was etwa im Fall α = 0.05 auf den Wert c = 1.96 führt. Aus (27.44) und (27.45) folgt, dass das Kondenzintervall [pu (k),po (k)] die Länge c p Ln := 2 · √ · pˆ · (1 − pˆ) (27.46) n
besitzt. Soll das unbekannte p bei vorgebener Kondenzwahrs heinli hkeit bis auf ±ε genau ges hätzt werden (im Falle des Meinungfors hungsinstitutes ist ε = 0.02), so führt die Forderung Ln ≤ 2 · ε auf die Unglei hung c 2 nmin ≥ (27.47) · pˆ · (1 − pˆ) ε
231 für den benötigten Mindeststi hprobenumfang nmin . Da die relative Treerhäugkeit pˆ erst na h Dur hführung des Experimentes bekannt ist, bieten si h hier im Hinbli k auf eine Planung des Sti hprobenumfangs die folgenden Lösungen an: Hat man kein Vorwissen über pˆ, so kann man das Produkt pˆ(1 − pˆ) dur h seinen gröÿtmögli hen Wert 1/4 ersetzen und gelangt so zu der Abs hätzung 1 c 2 nmin ≥ · , (27.48) 4 ε also etwa n ≥ 2 401 im Fall ε = 0.02 und α = 0.05. Weiÿ man jedo h z.B. (etwa aufgrund früherer Befragungen), dass pˆ hö hstens glei h 0.2 ist, so kommt man mit ungefähr 0.2 · 0.8 · (1.96/0.02)2 ≈ 1 537 Befragungen aus.
27.9 Anteilss hätzung in endli hen Populationen
Im Folgenden sei p = r/N wie in (27.1) der unbekannte Anteil derjenigen Elemente einer endli hen Population bekannten Umfangs N , die eine interessierende Eigens haft E besitzen. Dabei betra hten wir wie in Abs hnitt 27.1 die Elemente der Population als nummerierte Kugeln, von denen r rot und N − r s hwarz sind.
Es liegt nahe, als S hätzwert für p den Anteil pˆ roter Kugeln in einer rein zufälligen Sti hprobe vom Umfang n ohne Zurü klegen zu verwenden. Zur Beurteilung der Qualität dieses S hätzverfahrens müssen wir pˆ als Realisierung des zufälligen relativen Anteils Rn roter Kugeln in der Sti hprobe ansehen. Es gilt Rn = n−1 · Xn , wobei die Zufallsvariable Xn die Anzahl der gezogenen roten Kugeln angibt. Unter dem unbekannten Modellparameter p = r/N besitzt Xn die hypergeometris he Verteilung Hyp(n,r,s) mit s = N − r (siehe 13.1). Wegen Ep (Rn ) = n−1 Ep (Xn ) und Vp (Rn ) = n−2 Vp (Xn ) liefern 13.1 a) und 21.6 b) unter Bea htung von N = r + s die Beziehungen (27.49)
Ep (Rn ) = p, Vp (Rn ) =
n−1 1 · p · (1 − p) · 1 − . n N −1
(27.50)
Dabei haben wir wiederum die Abhängigkeit des Erwartungswertes und der Varianz vom unbekannten Modellparameter p hervorgehoben. Eigens haft (27.49) drü kt die Erwartungstreue des dur h Rn gegebenen S hätzverfahrens aus. Eigens haft (27.50) zeigt, wie die Varianz der S hätzung vom unbekannten Anteil p, vom Sti hprobenumfang n und vom Populationsumfang N abhängt. Der im Verglei h zu (27.8) auftretende Endli hkeitskorrekturFaktor
ρ := 1 −
n−1 N −1
∈ (0,1)
(27.51)
rührt von der Endli hkeit der Population und der Tatsa he her, dass das Ziehen ohne Zurü klegen erfolgt.
232
27 S hätzprobleme
Laien meinen oft, das als Auswahlsatz bezei hnete Verhältnis a := n/N zwis hen Sti hprobenumfang und Umfang der Grundgesamtheit spiele eine wi htige Rolle für die Genauigkeit einer Anteilss hätzung. So würden viele etwa einer Sti hprobe vom Umfang n = 100 aus einer Population vom Umfang N = 1 000 (d.h. a = 0.1) eine gröÿere Genauigkeit zubilligen als einer Sti hprobe vom Umfang n = 1 000 aus einer Grundgesamtheit vom Umfang N = 10 000 000 (d.h a = 0.0001). Mit der Approximation ρ ≈ 1 − a gilt jedo h na h Formel (27.50)
Vp (Rn ) ≈
1 · p · (1 − p) · (1 − a), n
so dass si h für die vermeintli h genauere Sti hprobe (n = 100,N = 1 000) die Varianz p(1 − p) · 0.009 ergibt. Die Varianz der vermeintli h ungenaueren Sti hprobe mit dem Auswahlsatz a = 0.0001 ist aber kleiner als p(1 − p) · 0.001 (bea hte die Unglei hung 1 − a < 1). Der ents heidende Grund hierfür ist der wesentli h gröÿere Sti hprobenumfang 1 000. Zur Bestimmung von Vertrauensberei hen für p kann völlig analog zu früher verfahren werden. Zunä hst liefert die verteilungsunspezis he Ts hebys howUnglei hung die Aussage √ √ ρ ρ ≤ p ≤ Rn + √ ≥ 1 − α Pp Rn − √ (27.52) 2 αn 2 αn (Übungsaufgabe 27.6, vgl. (27.19)). Analog wie in Abs hnitt 27.6 existieren jedo h unter Ausnutzung der speziellen Struktur der hypergeometris hen Verteilung von Xn = n · Rn bessere Kondenzgrenzen für die unbekannte Anzahl r roter Kugeln und somit au h für den unbekannten Anteil p = r/N . Wir wollen aber hierauf ni ht näher eingehen. Ein (hier ni ht bewiesener) Zentraler Grenzwertsatz für die hypergeometris he Verteilung (siehe z.B. [MOR℄, S. 62) besagt, dass für praktis he Zwe ke die Verteilung der Zufallsvariablen
p
Xn − n · p
(27.53)
n · p · (1 − p) · ρ
ausrei hend gut dur h die Gauÿs he Glo kenkurve approximiert wird, wenn der Nenner in (27.53) mindestens 3 ist. Die Vorgehensweise aus Abs hnitt 27.7 liefert dann als approximative Vertrauensgrenzen für p zur Vertrauenswahrs heinli hkeit 1 − β die re hten Seiten von (27.42) und (27.43), wobei die dort auftretende Gröÿe c = Φ−1 (1 − β) stets √ dur h c˜ := c · ρ zu ersetzen ist.
Übungsaufgaben Ü 27.1 In einer BernoulliKette mit unbekannter Treerwahrs heinli hkeit
erste Treer im
k ten
ba htung auf und zeigen Sie, dass der MaximumLikelihoodS hätzwert für ist.
p ∈ (0,1)
sei der
Versu h aufgetreten. Stellen Sie die LikelihoodFunktion zu dieser Beo-
p dur h 1/k gegeben
233 Ü 27.2 In einer BernoulliKette mit unbekannter Treerwahrs heinli hkeit
mal in unabhängiger Folge su hsnummern seien
p ∈ (0,1)
wird
n
beoba htet, wann der erste Treer auftritt; die zugehörigen Ver-
k1 ,k2 , . . . ,kn .
Modellieren Sie diese Situation in einem geeigneten Pro-
duktraum und zeigen Sie, dass der MLS hätzwert für Pn −1 dur h 1/(n j=1 kj ) gegeben ist.
p
zum Beoba htungsvektor
(k1 , . . . ,kn )
bovine spongiforme Enzepha-
Ü 27.3 Zur Erfors hung der Übertragbarkeit der Krankheit BSE (
lopathie)
wird in einem Tierversu h 275 biologis h glei hartigen Mäusen über einen gewissen
Zeitraum tägli h eine bestimmte Menge Mil h von BSEkranken Kühen verabrei ht. Innerhalb dieses Zeitraums entwi kelte keine dieser Mäuse irgendwel he klinis hen Symptome, die auf eine
2
BSEErkrankung hindeuten könnten . Es bezei hne
p die Wahrs heinli hkeit, dass eine Maus der untersu hten Art unter genau den obi-
gen Versu hsbedingungen innerhalb des Untersu hungszeitraumes BSEspezis he Symptome aufweist. a) Wie lautet die obere Kondenzs hranke für
p
zur Garantiewahrs heinli hkeit 0.99 ?
b) Wie viele Mäuse müssten anstelle der 275 untersu ht werden, damit die obere Kondenz−4 ist? s hranke für p hö hstens 10
) Nehmen Sie vorsi htigerweise an, die obere Kondenzs hranke aus Teil a) sei die Wahrs heinli hkeit
p.
wahre Wie viele Mäuse mit BSESymptomen würden Sie dann unter
10 000 000 Mäusen erwarten? a) In einer repräsentativen Umfrage haben si h 40% aller 1250 ( = Sti hprobenum-
Ü 27.4
fang beim ZDFPolitbarometer) Befragten für die Partei
A
ausgespro hen. Wie genau ist
dieser S hätzwert, wenn wir die Befragten als rein zufällige Sti hprobe ansehen und eine Vertrauenswahrs heinli hkeit von 0.95 zugrunde legen? b) Wie groÿ muss der Sti hprobenumfang mindestens sein, damit der Prozentsatz der Wähler einer Volkspartei (zu erwartender Prozentsatz a. 40%) bis auf (Vertrauenswahrs heinli hkeit 0.95)?
± 1 % genau ges hätzt wird
Ü 27.5 Das folgende Problem stellte si h im Zweiten Weltkrieg, als aus den Seriennummern
erbeuteter Waen die Gesamtproduktion ges hätzt werden sollte: In einer Urne benden si h
N
von 1 bis
N
nummerierte Kugeln;
N
sei unbekannt.
nmaligen rein zufälligen Ziehen ohne Zurü klegen ergaben si h die Nummern k1 ,k2 ,.. . . . ,kn . Zeigen Sie, dass der MaximumLikelihoodS hätzwert für N zu dieser Beoba htung ˆ := maxj=1,...,n kj gegeben ist. dur h N
a) Beim
b) Wie groÿ muss
N
sein, damit die Wahrs heinli hkeit, dass in einer Sti hprobe vom Umfang
vier die gröÿte Nummer hö hstens glei h 87 ist, kleiner als 0.05 wird? Ü 27.6 Beweisen Sie die Kondenzaussage (27.52). Ü 27.7 Es sei
Sn
die zufällige Treeranzahl in einer Bernoulli-Kette der Länge
kannter Treerwahrs heinli hkeit
p. α ∈ (0,1)
Kondenzintervall für a) Zu jedem keit 2
p, 0 < p < 1. Jn
bezei hne ein mit Hilfe von
Sn
n
mit unbe-
konstruiertes
Wel he der folgenden Aussagen sind wahr? existiert ein Kondenzintervall
Jn
für
p
zur Kondenzwahrs heinli h-
1 − α.
Die ges hilderte Situation lehnt si h an einen Aufsatz von D. M. Taylor et al., Veterinary Re ord (1995), S. 592, an, für dessen Zusendung i h Herrn Prof. Dr. med. E. Greiser, Bremen, herzli h danke.
234
27 S hätzprobleme
b) Für jedes Vertrauensintervall
Jn
für
Jn ) ≤ α .
) Die wahre Treerwahrs heinli hkeit
p p
zur Kondenzwahrs heinli hkeit
muss ni ht im Kondenzintervall
d) Wiederholt man die Bildung eines Kondenzintervalls
Jn
1−α Jn
zur Kondenzw'
gilt
Pp (p ∈
liegen.
1−α
sehr oft
anhand jeweils neuer unabhängiger Realisierungen der Bernoulli-Kette der Länge
(1 − α) · 100% Treerwahrs heinli hkeit p.
enthalten auf die Dauer mindestens die unbekannte
n,
so
der konstruierten Kondenzintervalle
e) Ein Kondenzintervall zur Kondenzwahrs heinli hkeit
1 − α/2 ist 1 − α.
stets doppelt so lang
wie ein Kondenzintervall zur Kondenzwahrs heinli hkeit
f ) Der Dur hs hnitt von zwei Kondenzintervallen zur Kondenzwahrs heinli hkeit ist ein Kondenzintervall zur Kondenzwahrs heinli hkeit
1 − α.
1 − α/2
Lernziele Die Ausführungen dieses Kapitels, insbesondere über die MaximumLikelihoodS hätzmethode und Kondenzberei he, berühren Grundfragen der S hlieÿenden Statistik. Sie sollten
• verinnerli ht haben, dass gegebene Daten wie z.B. eine beoba htete relative Trefferhäugkeit als Ergebnisse eines Zufallsexperimentes unter vers hiedenen sto hastis hen Modellen (z.B. Binomialverteilungen mit unters hiedli hem p) auftreten können; • die Bedeutung des hypergeometris hen Modells und des BinomialModells für die Anteilss hätzung in Populationen eingesehen haben; • die MaximumLikelihoodS hätzmethode kennen und anwenden können (vgl. die Übungsaufgaben 27.1, 27.2 und 27.5); • Kondenzberei he ri htig interpretieren können.
235
28
Statistis he Tests
Mit der Verfügbarkeit zahlrei her StatistikSoftwarepakete erfolgt das Testen statistis her Hypothesen in den empiris hen Wissens haften vielfa h nur no h per Knopfdru k na h einem beinahe s hon rituellen S hema. Statistis he Tests erfreuen si h u.a. deshalb einer ungebro henen Beliebtheit, weil
• ihre Ergebnisse objektiv und exakt zu sein s heinen, • alle von ihnen Gebrau h ma hen, • der Na hweis der statistis hen Signikanz eines Resultates dur h einen Test vielfa h zum Erwerb eines Doktortitels notwendig ist. In diesem Kapitel geben wir einen Einbli k in die Problematik des Testens statistis her Hypothesen. Dabei geht es insbesondere darum, die grundsätzli hen Mögli hkeiten und Grenzen statistis her Tests aufzuzeigen. Zur Verans hauli hung der Grundideen dient das na hstehende klassis he Beispiel. 28.1 Beispiel: Die
tea tasting lady
Eine englis he Lady trinkt ihren Tee stets mit einem Zusatz Mil h. Eines Tages verblüt sie ihre Teerunde mit der Behauptung, sie könne allein am Ges hma k unters heiden, ob zuerst die Mil h oder zuerst der Tee eingegossen worden sei. Dabei sei ihr Ges hma k zwar ni ht unfehlbar; sie würde aber im Verglei h zum blinden Raten öfter die ri htige Eingieÿreihenfolge treen. Um der Lady eine Chan e zu geben, ihre Behauptung unter Beweis zu stellen, ist folgendes Verfahren denkbar: Es werden ihr n mal hintereinander zwei Tassen Tee gerei ht, von denen jeweils eine vom Typ Mil h vor Tee und die andere vom Typ Tee vor Mil h ist. Die Reihenfolge dieser beiden Tassen wird dur h den Wurf einer e hten Münze festgelegt. Hinrei hend lange Pausen zwis hen den n Ges hma ksproben garantieren, dass die Lady unbeeinusst von früheren Ents heidungen urteilen kann. Aufgrund dieser Versu hsanordnung können wir die n Ges hma ksproben als unabhängige Treer/NieteVersu he mit unbekannter Treerwahrs heinli hkeit p modellieren, wobei die ri htige Zuordnung als Treer angesehen wird. Da der Fall p < 1/2 ausges hlossen ist (der Strategie des Ratens entspri ht ja s hon p = 1/2), ist eine Antwort auf die Frage gilt p = 1/2 oder p > 1/2? zu nden. Na h den in Kapitel 27 angestellten Überlegungen ist klar, dass wir diese Frage zumindest so, wie sie formuliert ist ni ht beantworten können. Denn die Ents heidungsgrundlage für eine Antwort kann nur die von der Lady in n Ges hma ksproben errei hte Treeranzahl sein. Hat sie etwa von 20 Tassenpaaren 17 ri htig zugeordnet, könnten wir ihr aufgrund dieses überzeugenden Ergebnisses auÿergewöhnli he ges hma kli he Fähigkeiten attestieren, obwohl sie viellei ht nur geraten und dabei sehr groÿes Glü k
236
28 Statistis he Tests
gehabt hat. Da si h unsere Antwort auf eine zufallsbehaftete Gröÿe, nämli h auf die mit Sn bezei hnete zufällige Trefferanzahl in n Ges hma ksproben, stützt, sind fals he Ents heidungen grundsätzli h ni ht auszus hlieÿen. Im vorliegenden Fall sind wir von den Fähigkeiten der Lady nur dann wirkli h überzeugt, wenn sie so viele Treer erzielt, dass ein sol hes Ergebnis unter der Hypothese p = 1/2 äuÿerst unwahrs heinli h wäre. Um die beiden Hypothesen H0 : p = 1/2 und H1 : p > 1/2 einem Test zu unterziehen, wählen wir die folgende Ents heidungsregel: Wir bes hlieÿen, der Lady n = 20 Tassenpaare zu rei hen und ihr nur dann besondere Fähigkeiten zuzuspre hen, wenn sie mindestens k = 14 mal die ri htige Eingieÿreihenfolge erkannt hat. Andernfalls, also bei hö hstens k − 1 = 13 Treern, sind wir der Auassung, dass das erzielte Ergebnis dur haus au h bei bloÿem Raten mögli h gewesen wäre und folgli h ni ht den Anspru h erheben kann, bedeutungsvoll (signikant) zu sein. Wir ents heiden uns also im Fall S20 ≥ 14 für die Hypothese H1 und im Fall S20 ≤ 13 für die Hypothese H0 . Zur Beurteilung dieser Ents heidungsregel betra hten wir die Wahrs heinli hkeit n X n gn,k (p) := Pp (Sn ≥ k) = · pj · (1 − p)n−j , j j=k
mindestens k Treer in n Versu hen zu erzielen, in Abhängigkeit von der unbekannten Treerwahrs heinli hkeit p. Im Fall n = 20 und k = 14 stellt gn,k (p) die Wahrs heinli hkeit dafür dar, dass der Test zum Ergebnis H1 trit zu kommt, d.h. dass wir der Lady besondere ges hma kli he Fähigkeiten attestieren. Die Funktion g20,14 ist in Bild 28.1 dargestellt. Wegen g20,14 (0.5) = 0.0576 . . . haben wir mit unserem Verfahren errei ht, dass der Lady im Falle blinden Ratens nur mit der kleinen Wahrs heinli hkeit von ungefähr 0.058 besondere ges hma kli he Fähigkeiten zugespro hen werden. Wir können diese Wahrs heinli hkeit einer fäls hli hen Ents heidung für H1 verkleinern, indem wir den kritis hen Wert k = 14 vergröÿern und z.B. erst eine Ents heidung für H1 treen, wenn mindestens 15 oder sogar mindestens 16 von 20 TassenPaaren ri htig zugeordnet werden. So ist etwa P0.5 (S20 ≥ 15) ≈ 0.0207 und P0.5 (S20 ≥ 16) ≈ 0.0059. Die Frage, ob man k = 14 oder einen anderen Wert wählen sollte, hängt von den Konsequenzen einer fäls hli hen Ents heidung für H1 ab. Im vorliegenden Fall bestünde z.B. die Gefahr einer gesells haftli hen Bloÿstellung der Lady bei einem weiteren Ges hma kstest, wenn man ihr ges hma kli he Fähigkeiten attestiert, die sie in Wirkli hkeit gar ni ht besitzt. Bild 28.1 zeigt, dass aufgrund der Monotonie der Funktion g20,14 mit einer gröÿeren Trefferwahrs heinli hkeit p der Lady (plausiblerweise) au h die Wahrs heinli hkeit wä hst, mindestens 14 Treer in 20 Versu hen zu erzielen. Ist etwa p = 0.9, so gelangen wir bei obigem Verfahren mit der Wahrs heinli hkeit g20,14 (0.9) = 0.997 . . . zur ri htigen Antwort H1 trit zu , ents heiden uns also nur mit der sehr kleinen Wahrs heinli h keit 0.002 . . . fäls hli herweise für H0 . Beträgt p hingegen nur 0.7 (was si herli h au h bemerkenswert wäre), so gelangen wir mit der Wahrs heinli hkeit 1 − g20,14 (0.7) = P0.7 (S20 ≤ 13) = 0.392 zur fals hen Ents heidung H0 gilt. Die Wahrs heinli hkeit, uns fäls hli herweise für H0 zu ents heiden, d.h. tatsä hli h vorhandene ges hma kli he Fähigkeiten abzuspre hen, hängt also stark davon ab, wie groÿ diese Fähigkeiten in
237
1 6
1 6 g20,14 (p)
0.8
0.6
0.4
0.4
0.2
0.2 -
0 0.6
0.7
0.8
0.9
Bild 28.1
g20,14 (p)
0.8
0.6
0.5
g40,26 (p)
1
p
-
0 0.5
0.6
0.7
0.8
0.9
1
p
Die Funktionen g20,14 und g40,26
Form der Treerwahrs heinli hkeit p wirkli h sind. Um der Lady eine Chan e zu geben, au h im Fall p = 0.7 ein Ergebnis zu errei hen, das der Hypothese des bloÿen Ratens deutli h widerspri ht, müssen wir die Anzahl n der gerei hten Tassenpaare vergröÿern. Wählen wir etwa n = 40 Tassenpaare und lehnen H0 ab, falls mindestens k = 26 Treer erzielt werden, so ist die Wahrs heinli hkeit einer fäls hli hen Ablehnung von H0 wegen P0.5 (S40 ≥ 26) = 0.0403 . . . im Verglei h zum bisherigen Verfahren etwas kleiner geworden. Die in Bild 28.1 re hts zusätzli h zu g20,14 eingezei hnete Funktion g40,26 gibt in Abhängigkeit von p die Wahrs heinli hkeit an, dass wir aufgrund der 40 Ges hma ksproben zur Antwort H1 gilt gelangen. Es ist deutli h zu erkennen, dass si h dur h die Verdoppelung der Versu hsanzahl von 20 auf 40 die Wahrs heinli hkeit einer ri htigen Ents heidung bei zugrunde liegender Treerwahrs heinli hkeit p = 0.7 von 0.608 auf über 0.8 erhöht hat. 28.2 Grundbegrie der Testtheorie
Wie bei S hätzproblemen liegt au h bei statistis hen Testproblemen die Situation vor, dass zufallsbehaftete reell oder vektorwertige Daten beoba htet werden, wobei man diese Daten als Realisierungen einer Zufallsvariablen X bzw. eines Zufallsvektors auffasst. Da nur die Verteilung von X von Interesse ist, bleibt der formale Denitionsberei h der Zufallsvariablen im Hintergrund; im Zweifelsfall können Standardmodelle wie 18.2 oder 18.7 verwendet werden. Ein weiteres gemeinsames Merkmal von S hätz und Testproblemen ist die Abste kung eines Rahmens in Form der Menge der überhaupt für mögli h era hteten Verteilungen von X . Oft hängen die Verteilungen dieses aufgrund der gegebenen Versu hsbedingungen formulierten Modellrahmens von einem oder mehreren reellwertigen Parametern ab. Es ist dann übli h, für diesen Parameter den kleinen grie his hen Bu hstaben ϑ (lies: theta) zu wählen und die Verteilungen mit ϑ zu indizieren, d.h. Pϑ zu s hreiben. Der Modellrahmen wird dann dur h die mit dem groÿen grie his hen Bu hstaben Θ (Theta)
238
28 Statistis he Tests
bezei hnete Menge aller überhaupt für mögli h era hteten Parameter, den sogenannten Parameterraum, abgeste kt. Ma hen wir die stills hweigende Annahme, dass vers hiedenen Parametern au h vers hiedene Verteilungen entspre hen, so kann der Modellrahmen in der Form der wahre zugrunde liegende Parameter ϑ gehört zu Θ oder kurz ϑ ∈ Θ bes hrieben werden. In der im vorigen Kapitel behandelten Situation einer BernoulliKette vom Umfang n mit unbekannter Treerwahrs heinli hkeit p entspre hen der Zufallsvariablen X die Treeranzahl, dem Parameter ϑ die Treerwahrs heinli hkeit p und der Menge der mögli hen Verteilungen von X die Menge aller Binomialverteilungen Bin(n,p) mit 0 ≤ p ≤ 1. Somit ist der Parameterraum Θ das Intervall [0,1], im Beispiel der tea tasting lady sogar das kleinere Intervall [1/2 ,1]. Im Unters hied zu S hätzproblemen, in denen der unbekannte Parameter ϑ mit Hilfe einer Realisierung x von X mögli hst gut ges hätzt werden soll und im Allgemeinen na h einem Vertrauensberei h für ϑ gefragt ist, wird bei einem Testproblem die Menge Θ gemäÿ
Θ = Θ0 + Θ1 in zwei ni htleere disjunkte Teilmengen Θ0 und Θ1 zerlegt. Ein statistis her Test ist eine Ents heidungsregel, die innerhalb des vorgegebenen ModellRahmens für jede mögli he Realisierung x von X festlegt, ob man si h für die
Hypothese H0 : Es gilt ϑ ∈ Θ0 oder für die
Alternative (Gegenhypothese) H1 : Es gilt ϑ ∈ Θ1 ents heidet. In Beispiel 28.1 ist Θ0 = {1/2} und Θ1 = (1/2,1], und wir würden die Hypothese H0 in der Form die Lady besitzt keine besondere Gabe, die Eingieÿreihenfolge am Ges hma k zu erkennen formulieren. Eine Hypothese H0 : ϑ ∈ Θ0 heiÿt einfa h, falls sie si h nur auf eine Verteilung bezieht, also |Θ0 | = 1 gilt. Andernfalls nennt man H0 zusammengesetzt. Glei hes gilt für die Alternative. Im Beispiel der tea tasting lady liegen also eine einfa he Hypothese und eine zusammengesetzte Alternative vor. Die Tatsa he, dass für jede Realisierung x der Zufallsvariablen X eine Ents heidung für H0 oder für H1 getroen werden soll, bedeutet formal, dass wir die mit X bezei hnete Menge aller mögli hen Realisierungen von X , den sogenannten Sti hprobenraum, gemäÿ X = K0 + K1 in zwei disjunkte Teilmengen K0 und K1 zerlegen. Die Mengen K0 und K1 denieren die Ents heidungsregel
239
Falls x ∈ K0 , so ents heide für H0 ,
Falls x ∈ K1 , so ents heide für H1 . Im Beispiel 28.1 der tea tasting lady gilt X = Sn , und der Sti hprobenraum X ist die Menge {0,1,2, . . . ,n} aller mögli hen Treeranzahlen. Ferner sind die Mengen K0 und K1 dur h K0 = {0,1, . . . ,k − 1} und K1 = {k,k + 1, . . . ,n} gegeben. Anstelle der symmetris hen Formulierung ents heide zwis hen den beiden Mögli hkei ten H0 und H1 ist die Spre hweise zu testen ist die Hypothese H0 gegen die Alternative H1 übli h. Dieser Spra hgebrau h beinhaltet eine unters hiedli he Bewertung von H0 und H1 und somit der Mengen Θ0 und Θ1 . Er wird dadur h verständli h, dass die Ents heidungen für H0 oder für H1 in einer gegebenen Situation unters hiedli he Konsequenzen haben können (siehe hierzu Abs hnitt 28.3). Aus denselben Überlegungen heraus nennt man die Menge K1 des Sti hprobenraums X den kritis hen Berei h und die Menge K0 den Annahmeberei h des Tests. Hinsi htli h der Ents heidung des Tests aufgrund einer Realisierung x von X sind folgende Spre hweisen übli h:
• Im Fall x ∈ K1 , d.h. einer Ents heidung für H1 , sagt man die Hypothese H0 wird verworfen bzw. die Beoba htung x steht im Widerspru h zu H0 . • Im Fall x ∈ K0 , d.h. einer Ents heidung für H0 , sagt man die Hypothese H0 wird ni ht verworfen bzw. die Beoba htung x steht ni ht im Widerspru h zu H0 . Hat etwa die tea tasting lady aus Beispiel 28.1 bei 20 Tassenpaaren und dem gewählten kritis hen Berei h K1 = {14,15, . . . ,20} stolze 15 mal die ri htige Eingieÿreihenfolge erkannt, so würden wir anhand dieses Ergebnisses die Hypothese H0 : p = 1/2 verwerfen und das erhaltene Resultat von 15 Treern als im Widerspru h zur Annahme blinden Ratens ansehen. Ist ϑ ∈ Θ0 , und wird die Ents heidung H1 gilt gefällt, so spri ht man von einem Fehler erster Art. Ein Fehler zweiter Art entsteht, wenn ϑ ∈ Θ1 ist und für H0 gilt ents hieden wird. Die unters hiedli hen Mögli hkeiten sind in der Wirkungstabelle des Tests (Tabelle 28.1) verans hauli ht. Der Ausdru k Wirkli hkeit unterstellt, dass wir an die Angemessenheit des Modellrahmens {Pϑ : ϑ ∈ Θ} für eine vorliegende Situation glauben. Dies bedeutet, dass wir die Existenz eines nur Meister Zufall bekannten wahren Parameters ϑ ∈ Θ annehmen, wel her über das WMaÿ Pϑ das Auftreten der Daten im Sti hprobenraum X steuert.
240
28 Statistis he Tests Wirkli hkeit
Ent-
H0
gilt
H1
gilt
ϑ ∈ Θ0
ϑ ∈ Θ1
ri htige
Fehler
Ents heidung
2. Art
s heidung
Tabelle 28.1
Fehler
ri htige
1. Art
Ents heidung
Wirkungstabelle eines Tests
Im Beispiel der tea tasting lady begeht man einen Fehler erster Art, falls man ihr Fähigkeiten attestiert, die ni ht vorhanden sind. Einem Fehler zweiter Art entspri ht die Ni htanerkennung einer tatsä hli h existierenden Begabung. Da die vorliegenden Daten (Realisierungen der Zufallsvariablen X ) im Allgemeinen sowohl von einer Verteilung Pϑ mit ϑ ∈ Θ0 als au h von einer Verteilung Pϑ mit ϑ ∈ Θ1 erzeugt worden sein können und da der wahre zugrunde liegende Parameter ni ht bekannt ist, sind Fehler erster und zweiter Art unvermeidbar. Unser Ziel kann oenbar nur sein, die Wahrs heinli hkeiten für Fehlents heidungen dur h geeignete Wahl eines Tests, d.h. dur h adäquate Festlegung eines kritis hen Berei hs K1 , klein zu halten. Man nennt die dur h Θ −→ [0,1] g: ϑ 7−→ g(ϑ) := Pϑ (X ∈ K1 ) gegebene Funktion die Gütefunktion des zu K1 gehörenden Tests. Sie ist wie das Testverfahren selbst dur h die Wahl von K1 bestimmt und ordnet jedem Parameterwert ϑ die Verwerfungswahrs heinli hkeit der Hypothese H0 unter Pϑ zu. Bild 28.1 zeigt die Gütefunktion g20,14 des mit dem kritis hen Berei h K1 := {14, 15, . . . ,20} und 20 Tassenpaaren operierenden Tests im Beispiel der tea tasting lady. Im re hten Bild 28.1 ist zusätzli h die Gütefunktion g40,26 des auf 40 Tassenpaaren basierenden Tests mit dem kritis hen Berei h K1 := {26,27, . . . ,40} dargestellt. Um die Wahrs heinli hkeit einer fals hen Ents heidung mögli hst klein zu halten, ist eine Gütefunktion g mit kleinen Werten auf Θ0 (Idealfall: g(ϑ) = 0 für jedes ϑ ∈ Θ0 ) und groÿen Werten auf Θ1 (Idealfall: g(ϑ) = 1 für jedes ϑ ∈ Θ1 ) wüns henswert. Die Gütefunktionen der trivialen Tests mit den kritis hen Berei hen K1 = X (dieser Test lehnt H0 ohne Ansehen der Daten immer ab) bzw. K1 = ∅ (dieser Test erhebt ohne Ansehen der Daten nie einen Widerspru h gegen H0 ) sind identis h 1 bzw. identis h 0, so dass diese Tests jeweils die eine Hälfte des Idealfalls darstellen, für die andere Hälfte jedo h s hle htestmögli h sind. Angesi hts der Unvermeidbarkeit von Fehlents heidungen hat si h zur Konstruktion vernünftiger Tests die folgende Vorgehensweise eingebürgert: Man gibt si h eine obere S hranke α ∈ (0,1) für die Wahrs heinli hkeit des Fehlers erster Art vor und betra htet nur diejenigen Tests, wel he die Bedingung
241
g(ϑ) ≤ α
für jedes ϑ ∈ Θ0
(28.1)
erfüllen. Ein sol her Test heiÿt (Signikanz)Test zum (Signikanz)Niveau α oder Niveau αTest. Dabei sind Werte von α im Berei h von 0.01 bis 0.1 übli h. Dur h die Bes hränkung auf Tests zum Niveau α wird errei ht, dass die Hypothese H0 im Fall ihrer Gültigkeit auf die Dauer (d.h. bei oftmaliger Dur hführung unter unabhängigen glei hartigen Bedingungen) in hö hstens 100 · α% aller Fälle verworfen wird (vgl. das S hwa he Gesetz groÿer Zahlen 25.3). Man bea hte, dass bei dieser Vorgehensweise der Fehler 1. Art im Verglei h zum Fehler 2. Art als s hwerwiegender era htet wird und deshalb mittels (28.1) kontrolliert werden soll. Dementspre hend muss in einer praktis hen Situation die Wahl von Hypothese und Alternative (diese sind rein formal austaus hbar!) anhand sa hlogis her Überlegungen erfolgen. Zur Konstruktion eines vernünftigen Niveau αTests mit kritis hem Berei h K1 für H0 gegen H1 ist es intuitiv nahe liegend, K1 aus denjenigen Sti hprobenwerten in X zu bilden, wel he unter H0 am unwahrs heinli hsten und somit am wenigsten glaubhaft sind. Dieser Gedanke lag bereits den Tests in Beispiel 28.1 zugrunde. Führt ein Niveau αTest für das Testproblem H0 gegen H1 bei kleinem α zur Ablehnung von H0 , so erlauben die beoba hteten Daten begründete Zweifel an der Nullhypothese, da si h unter dieser Hypothese das Testergebnis nur mit einer Wahrs heinli hkeit von hö hstens α eingestellt hätte, s.a. Abs hnitt 28.10. Hier sind au h die Spre hweisen die Ablehnung von H0 ist signikant zum Niveau α bzw. die Daten stehen auf dem α · 100 %Niveau im Widerspru h zu H0 übli h. Der Wert 1 − α wird häug als die statistis he Si herheit des Urteils Ablehnung von H0 bezei hnet. Ergibt die Dur hführung des Tests hingegen das Resultat H0 wird ni ht verworfen , so bedeutet dies nur, dass die vorliegende Beoba htung x bei einer zugelassenen Irrtumswahrs heinli hkeit α für einen Fehler erster Art ni ht im Widerspru h zu H0 steht. Formulierungen wie H0 ist veriziert oder H0 ist validiert sind hier völlig fehl am Platze. Sie suggerieren, dass man im Falle des Ni htVerwerfens von H0 die Gültigkeit von H0 bewiesen hätte, was jedo h blanker Unsinn ist! Die Wahl des Testniveaus α hängt davon ab, wel her Prozentsatz fäls hli her Ablehnungen der Hypothese H0 toleriert werden soll. Je kleiner α ist, desto bedeutungsvoller (signikanter) stellt si h im Fall einer Ablehnung von H0 der erhaltene Widerspru h zu H0 dar. Ein kleiner Wert von α dient also der Si herung der Alternative. Tatsä hli h werden die meisten Tests in der Honung auf eine signikante Ablehnung einer Hypothese dur hgeführt. Die Wahrs heinli hkeit für den Fehler zweiter Art eines Tests zum Niveau α hängt immer von der zugrunde liegenden Verteilung Pϑ mit ϑ ∈ Θ1 ab. Diesen Eekt haben wir s hon im Beispiel der tea tasting lady anhand der Gestalt der Gütefunktionen in Bild 28.1 beoba htet. Bild 28.1 verdeutli ht au h den ans hauli h einsi htigen Sa hverhalt, dass die Wahrs heinli hkeit für einen Fehler zweiter Art prinzipiell umso kleiner wird, je weiter der tatsä hli h zugrunde liegende Modellparameter ϑ von dem Modellparameter oder den Modellparametern unter H0 entfernt liegt.
242
28 Statistis he Tests
28.3 Ein und zweiseitiger Binomialtest
Dieser Abs hnitt s hlieÿt an das Beispiel der tea tasting lady an. Die im Folgenden ges hilderte Situation spiegelt eine gängige Fragestellung der medizinis hen und der biologis hen Statistik wider; sie verdeutli ht die unters hiedli hen Konsequenzen der beiden mögli hen Fehlerarten bei Testproblemen. Aufgrund langjähriger Erfahrungen ist bekannt, dass eine Standardtherapie zur Behandlung einer bestimmten Krankheit eine Erfolgsquote von nur 50% besitzt1 . Eine Fors hergruppe aus Medizinern, Biologen und Pharmakologen hat deshalb eine neue Therapie entwi kelt, wel he erstmals an einer Zufallssti hprobe von n Patienten aus der groÿen Population aller an dieser Krankheit leidenden Mens hen erprobt werden soll. In einem stark vereinfa henden sto hastis hen Modell (vgl. die Fuÿnote) bes hreiben wir die Anzahl der TherapieErfolge unter n Patienten als Zufallsvariable Sn mit der Binomialverteilung Bin(n,p), wobei p ∈ (0,1) =: Θ die unbekannte Erfolgswahrs heinli hkeit bezei hne. Dabei ist zwis hen den beiden Hypothesen p ≤ 1/2 und p > 1/2 zu unters heiden. Mögli he Fehlents heidungen sind hier a) die Behauptung der Überlegenheit der neuen Therapie (p > 1/2), obwohl diese in Wirkli hkeit ni ht besser ist als die Standardtherapie (p ≤ 1/2), b) das Ni htvertreten einer wahren Fors hungshypothese ( Ni hterkennen eines Wer tes p mit p > 1/2). Da die öentli he Vertretung einer in Wahrheit fals hen Fors hungshypothese wissens haftli h als besonders verweri h gilt und deshalb zu vermeiden ist, entspri ht hier Fall a) dem Fehler erster Art. Wir testen somit die Hypothese H0 : p ≤ 1/2 (d.h. Θ0 = (0,1/2]) gegen die Alternative H1 : p > 1/2 (d.h. Θ1 = (1/2,1)). Man bea hte, dass im Gegensatz zum Beispiel der tea tasting lady diese Menge Θ0 aus mehreren Werten besteht, dass also eine zusammengesetzte Hypothese zu testen ist. Wie im Beispiel der tea tasting lady wählen wir den kritis hen Berei h im Sti hprobenraum X = {0,1, . . . ,n} in der Form K1 = {k,k + 1, . . . ,n}, verwerfen also die Hypothese H0 , falls zu viele Treer aufgetreten sind. Zur Festlegung von K1 in Abhängigkeit einer vorgegebenen Wahrs heinli hkeit α für den Fehler erster Art müssen wir k so bestimmen, dass die Unglei hung n X n · pj · (1 − p)n−j ≤ α gn,k (p) = Pp (Sn ≥ k) = j j=k
für jedes p ∈ Θ0 , d.h. für jedes p mit 0 < p ≤ 1/2 erfüllt ist. Da die Übers hreitungswahrs heinli hkeit gn,k (p) streng monoton in p wä hst (vgl. (27.35)), ist obige Forderung glei hbedeutend mit der Gültigkeit der Unglei hung 1
Der wie au h immer medizinis h zu denierende Heilerfolg einer Therapie zur Behandlung einer bestimmten Krankheit hängt von vielen Faktoren wie z.B. Alter, Ges hle ht, Übergewi ht, Vorerkrankungen, Rau h und Trinkgewohnheiten usw. ab. Aus diesem Grunde werden Patienten bei klinis hen Studien im Allgemeinen na h Ges hle htern getrennt und in Altersgruppen eingeteilt, um mögli hst homogene Patientengruppen zu erhalten. Die Annahme einer glei hen Heilwahrs heinli hkeit ist dann u.U. innerhalb einer sol hen Gruppe gere htfertigt.
243
gn,k (1/2) =
n X n 1 n · ≤ α. j 2 j=k
Um die zugelassene Wahrs heinli hkeit α für einen Fehler erster Art weitestgehend auszus höpfen, wählen wir den kritis hen Wert k mögli hst klein und setzen n X n 1 n ≤α . k = k(n,α) := min l ∈ {0,1, . . . ,n} : (28.2) · j 2 j=l
P Bei sehr kleinem α kann es vorkommen, dass die Unglei hung 2−n nj=l nj ≤ α für kein l ∈ {0,1, . . . ,n} erfüllt ist. Dann werden k als Minimum der leeren Menge formal glei h Unendli h gesetzt und der kritis he Berei h als die leere Menge ∅ deniert. Der resultierende Test lehnt also H0 in keinem Fall ab.
Ans hauli h bedeutet die Konstruktion (28.2), dass wir beim Stabdiagramm der Binomialverteilung Bin (n,1/2) von re hts kommend so lange na h und na h Wahrs heinli hkeitsmasse für den kritis hen Berei h auszei hnen, wie die Summe der Wahrs heinli hkeiten (Stäb henlängen) das Testniveau α ni ht übers hreitet. P1/2 (S20 = j) 6 0.15
0.1
z
0.05
0
1
2
3
4
5
6
7
8
9
W'masse
>α
W'masse
≤α
}|
10 11 12 13 14 15 16 17 18 19 20
k Bild 28.2
{ j
n
Kritis her Wert k = 14 im Fall n = 20 und α = 0.1
Für das Zahlenbeispiel n = 20 und α = 0.1 ergibt si h wegen 20 X 20 20 1 · ≈ 0.0577 ≤ 0.1 j 2
(28.3)
j=14
20 X 20 1 20 ≈ 0.1316 > 0.1 · j 2
(28.4)
j=13
der kritis he Wert k = 14 (siehe Bild 28.2). Die Testvors hrift lautet also:
• Lehne H0 ab (d.h. behaupte, die neue Therapie sei auf dem 10%Niveau signikant besser als die Standardtherapie), falls von 20 Patienten mindestens 14 geheilt werden.
244
28 Statistis he Tests
• Andernfalls wird kein Widerspru h zu H0 erhoben und somit die Fors hungshypothese der Überlegenheit der neuen Therapie ni ht vertreten. Da die Fors hergruppe nur ein Interesse an der neuen Therapiemethode hat, wenn diese besser als die Standardmethode ist, wurde die Alternative einseitig na h oben, d.h. in der Form H1 : p > 1/2, formuliert. Allgemeiner kann in der Situation einer Bernoulli Kette mit unbekannter Treerwahrs heinli hkeit p die Hypothese H0 : p ≤ p0 gegen die einseitige Alternative H1 : p > p0 getestet werden. Der Test, wel her H0 für zu groÿe Werte der Treeranzahl Sn ablehnt, heiÿt einseitiger Binomialtest. Eine wi htige Frage im Zusammenhang mit diesem Test ist die Planung des Versu hsumfangs n zur Erkennung eines relevanten Unters hiedes zu p0 ; sie wird in Abs hnitt 28.6 behandelt. Im Gegensatz zum einseitigen Binomialtest spri ht man von einem zweiseitigen Binomialtest, wenn eine einfa he Hypothese der Form H0 : p = p0 gegen die (zusammengesetzte) zweiseitige Alternative H1 : p 6= p0 geprüft werden soll. Ein klassis hes Beispiel hierfür ist die Frage, ob Jungen und Mäd hengeburten glei hwahrs heinli h sind (p0 = 1/2). Da im Verglei h zu der unter H0 : p = p0 zu erwartenden Anzahl von Treern sowohl zu viele als au h zu wenige Treer für die Gültigkeit der Alternative spre hen, verwendet man beim zweiseitigen Binomialtest einen zweiseitigen kritis hen Berei h, d.h. eine Teilmenge K1 des Sti hprobenraumes {0,1, . . . ,n} der Form K1 = {0,1, . . . ,l} ∪ {k,k + 1, . . . ,n} mit l < k . Die Hypothese H0 : p = p0 wird abgelehnt, wenn hö hstens l oder mindestens k Treer aufgetreten sind. Im wi htigsten Spezialfall p0 = 1/2 besitzt die zufällige Treeranzahl Sn unter H0 die symmetris he Binomialverteilung Bin(n,1/2) (vgl. Bild 28.3 re hts). Es ist dann nahe liegend, au h den kritis hen Berei h symmetris h zum Erwartungswert n/2 zu konstruieren und l := n − k zu wählen. Dieser Test hat die Gütefunktion n l X X n j n j p (1 − p)n−j , p (1 − p)n−j + g¯n,k (p) = j j j=0
j=k
und seine Wahrs heinli hkeit für den Fehler erster Art ist n X n 1 n g¯n,k (1/2) = 2 · · . j 2 j=k
Die Bestimmung des kleinsten Wertes k mit der Eigens haft g¯n,k (1/2) ≤ α erfolgt dadur h, dass beim Stabdiagramm der Verteilung Bin(n,1/2) so lange von beiden Seiten her kommend Wahrs heinli hkeitsmasse für den kritis hen Berei h ausgezei hnet wird, wie auf jeder Seite der Wert α/2 ni ht übers hritten wird (siehe Bild 28.3 re hts). Im Zahlenbeispiel n = 20, α = 0.1 ergibt si h der Wert k = 15. Bild 28.3 links zeigt die Gütefunktion zu diesem Test.
245 P1/2 (S20 = j) 6
1 6
g¯20,15 (p)
0.5
0.1 W'
0
0
Bild 28.3
0.5
1 p
≤ α/2
W'
≤ α/2
0
5
10
15
20
j
Gütefunktion und kritis her Berei h beim zweiseitigen Binomialtest
pWert Im Gegensatz zur bisher vorgestellten Methode, bei einem Testproblem einen Hö hstwert α für die Wahrs heinli hkeit des Fehlers erster Art festzulegen und daraufhin den kritis hen Berei h zu wählen, ist es gängige Praxis, aus den Daten, d.h. aus einer Realisierung x der Zufallsvariablen X , einen sogenannten pWert p∗ (x) auszure hnen und die Signikanz des erhaltenen Resultates anhand dieses Wertes zu beurteilen. Der p Wert p∗ (x) zur Beoba htung x ist die kleinste Zahl α, für wel he die Wahl von α als Testniveau gerade no h zur Ablehnung von H0 führt.
28.4 Der
Im Beispiel des einseitigen Binomialtests, d.h. H0 : p ≤ p0 gegen H1 : p > p0 , sind die sinnvollen kritis hen Berei he von der Gestalt {k,k + 1, . . . ,n}. Es seien l Treer in n Versu hen beoba htet worden, d.h. die Zufallsvariable X := Sn habe den Wert x := l angenommen. Zur Bestimmung des pWertes p∗ (l) betra hten wir alle mögli hen kritis hen Berei he {k,k + 1, . . . ,n} mit k ∈ {n,n − 1, . . . ,1,0}, die das Resultat l enthalten, deren zugehöriger Test also zur Ablehnung von H0 führt. Der kleinste dieser Berei he ist die Menge Cl := {l,l + 1, . . . ,n}. Wählen wir das Testniveau
α∗ := Pp0 (Cl ) = Pp0 (Sn ≥ l) =
max Pp (Sn ≥ l) ,
0 n/2.
Die von StatistikProgrammpaketen übli herweise bere hneten pWerte liefern sofort eine Ents heidungsanweisung für jemanden, der si h einen Hö hstwert α für die Wahrs heinli hkeit des Fehlers erster Art vorgegeben hat: Gilt α ≤ p∗ (x), so erhebe keine Einwände gegen H0 , Gilt α > p∗ (x), so erhebe einen Widerspru h zu H0 . Problematis h an der Verwendung von pWerten ist u.a., dass sie lei ht missverstanden werden. So wäre es ein groÿer Irrtum zu glauben, dass etwa im Falle p∗ (x) = 0.017 die Hypothese H0 mit der Wahrs heinli hkeit 0.017 ri htig sei (siehe hierzu au h Ab s hnitt 28.10). 28.5 Kondenzberei h oder Test?
Tests werden häug au h dann dur hgeführt, wenn die vorliegende Fragestellung in natürli her Weise auf einen Kondenzberei h führt. So mö hte die Fors hergruppe aus Abs hnitt 28.3 eigentli h nur die unbekannte Erfolgswahrs heinli hkeit p der neuentwi kelten Therapie statistis h na h unten absi hern , d.h. mit einer groÿen Gewissheit behaupten können, p sei mindestens glei h einem Wert pu . Falls dieser Wert pu gröÿer als 1/2 ist, kann dann mit der glei hen Gewissheit gefolgert werden, dass die neue Therapie der StandardHeilmethode überlegen ist. Für eine Lösung dieses Problems ohne Testtheorie konstruieren wir wie in Abs hnitt 27.6 anhand der Daten, d.h. anhand von k TherapieErfolgen bei n Patienten, eine untere Vertrauensgrenze pu (k) zur Vertrauenswahrs heinli hkeit 1 − α. Na h (27.24) gilt dann die Wahrs heinli hkeitsaussage
Pp (pu (Sn ) ≤ p) ≥ 1 − α für jedes p ∈ (0,1) ,
(28.6)
wel he gerade die gewüns hte statistis he Absi herung na h unten liefert: Mit ei ner Si herheitswahrs heinli hkeit von mindestens 1 − α s hlieÿt das zufällige Intervall (pu (Sn ),1) das unbekannte p ein. Haben wir also etwa in n = 50 Versu hen k = 34 Treffer und 16 Nieten beoba htet, so ist für die Wahl α = 0.025 der Wert 0.467 die konkrete obere Vertrauensgrenze für die NietenWahrs heinli hkeit 1 − p (vgl. Tabelle 27.1) und somit 0.533 (=10.467) die konkrete untere Vertrauensgrenze für die Treerwahrs heinli hkeit p. Wegen 0.533 > 1/2 kann die Fors hergruppe bei 34 TherapieErfolgen unter 50 Patienten mit der statistis hen Si herheit von 97.5% die Überlegenheit der neuen Therapie (p > 1/2) behaupten. Die Interpretation dieser Aussage erfolgt dabei wie im Ans hluss an (27.16). Wir wollen am Beispiel des einseitigen Binomialtests, d.h. des Problems der Prüfung der Hypothese H0 : p ≤ p0 gegen die Alternative H1 : p > p0 , au h einen allgemeinen Zusammenhang zwis hen Kondenzberei hen und Tests verdeutli hen: Ist pu (Sn ) eine untere Vertrauensgrenze für p zur Vertrauenswahrs heinli hkeit 1 − α, d.h. ist (28.6)
247 erfüllt, so liefert folgendes Verfahren einen Test für H0 gegen H1 zum Niveau α: Lehne H0 bei einer beoba hteten Realisierung k von Sn genau dann ab, wenn p0 < pu (k) gilt, d.h. wenn die zur Hypothese H0 gehörenden Parameterwerte ni ht im Kondenzintervall [pu (k),1] liegen. Der kritis he Berei h dieses Tests ist also die Menge K1 := {k : p0 < pu (k)}. Da für jedes p mit p ≤ p0 wegen der Inklusion {pu (Sn ) > p0 } ⊆ {pu (Sn ) > p} die Unglei hung
Pp (Sn ∈ K1 ) = Pp (p0 < pu (Sn )) ≤ Pp (p < pu (Sn )) = 1 − Pp (pu (Sn ) ≤ p) ≤ α erfüllt ist, besitzt dieser Test das Niveau α. Ein analoger Zusammenhang besteht zwis hen einem zweiseitigen Kondenzberei h für p und dem zweiseitigen Binomialtest. 28.6 Planung des Sti hprobenumfangs
Im Beispiel der tea tasting lady haben wir gesehen, dass bei Beibehaltung des Fehlers erster Art eine Vergröÿerung der Versu hsanzahl n die Wahrs heinli hkeit für den Fehler zweiter Art verkleinert. Dort ergab si h z.B. für den mit n = 40 Versu hen und dem kritis hen Wert k = 26 operierenden Test an der Stelle p = 0.7 (d.h. für den Fall, dass die wahre Treerwahrs heinli hkeit 0.7 ist) eine Wahrs heinli hkeit für den Fehler zweiter Art von weniger als 0.2. Die entspre hende Wahrs heinli hkeit für den auf nur 20 Versu hen basierenden Test ist mit 1 − g20,14 (0.7) ≈ 0.392 wesentli h gröÿer (siehe Bild 28.1).
Um das Problem der Planung des Sti hprobenumfanges zur Aufde kung eines relevanten Unters hiedes zu verdeutli hen, versetzen wir uns in die Situation der Fors hergruppe aus Abs hnitt 28.3. Diese Gruppe sieht einen mögli hen Qualitätsunters hied zwis hen ihrer neuen Methode (Erfolgswahrs heinli hkeit p) und der Standardtherapie (bekannte Erfolgswahrs heinli hkeit 0.5) als relevant an, wenn die Erfolgswahrs heinli hkeit der neuen Methode mindestens 0.6 beträgt. Der Spre her dieser Gruppe wendet si h an einen Statistiker und stellt ihm folgende Frage: Wie viele Patienten müssen behandelt werden (wie groÿ muss n sein), damit ein Test zum Niveau α = 0.1 für H0 : p ≤ 1/2 gegen H1 : p > 1/2 mit der Mindestwahrs heinli hkeit γ = 0.9 die ri htige Antwort H1 trit zu gibt, d.h. nur mit der kleinen Wahrs heinli hkeit 1 − γ = 0.1 ein Fehler zweiter Art auftritt, wenn der Qualitätsunters hied zwis hen neuer und Standardtherapie tatsä hli h relevant ist, also p mindestens 0.6 ist? In einem etwas allgemeineren Rahmen lässt si h dieses Problem der Kontrolle der Wahrs heinli hkeit für einen Fehler zweiter Art bei gegebenem Testniveau wie folgt formulieren: In einer BernoulliKette mit unbekannter Trefferwahrs heinli hkeit p soll die Hypothese H0 : p ≤ p0 gegen die Alternative H1 : p > p0 getestet werden, wobei p0 ∈ (0,1) vorgegeben ist. Ein Wert p > p0 wird als relevanter Unters hied zu p0 angesehen, wenn p mindestens glei h einem gegebenen Wert p1 > p0 ist (in obigem Beispiel sind p0 = 0.5 und p1 = 0.6). Wie groÿ muss n mindestens sein, damit ein Niveau αTest von H0 gegen H1 mit einer Mindestwahrs heinli hkeit γ ∈ (α,1) die ri htige Antwort H trit zu gibt, wenn die zugrunde liegende Treerwahrs heinli hkeit p tatsä hli h 1 relevant, also mindestens p1 ist?
248
28 Statistis he Tests
Im Folgenden leiten wir mit Hilfe des ZGWS von de MoivreLapla e eine Näherungsformel für den von α, γ , p0 und p1 abhängenden Mindeststi hprobenumfang nmin her. Bezei hnet wie bisher Sn die in n Versu hen erzielte Treeranzahl, so würde man au h die im Verglei h zu p ≤ 1/2 allgemeinere Hypothese p ≤ p0 ablehnen, falls Sn einen kritis hen Wert kn errei ht (die Indizierung mit n soll die Abhängigkeit dieses Wertes von der Versu hsanzahl betonen). Dabei erfolgt die Festlegung von kn über die Niveau αBedingung (28.7)
Pp0 (Sn ≥ kn ) ≤ α,
wobei α mögli hst errei ht werden sollte, um die Wahrs heinli hkeit für den Fehler zweiter Art zu verkleinern. Setzen wir p kn := n · p0 + np0 (1 − p0 ) · Φ−1 (1 − α) , (28.8) so liefert der ZGWS von de MoivreLapla e
Sn − np0
kn − np0
p ≥ p np0 (1 − p0 ) np0 (1 − p0 ) = 1 − Φ Φ−1 (1 − α) = α.
lim Pp0 (Sn ≥ kn ) =
n→∞
lim Pp0
n→∞
!
In Anbetra ht der monotonen Abhängigkeit der Wahrs heinli hkeit Pp (Sn ≥ kn ) von p haben wir also mit der Festlegung des kritis hen Wertes dur h (28.8) einen Test erhalten, wel her für praktis he Zwe ke bei groÿem n das approximative Niveau α besitzt. Im übrigen ändert es ni hts an obiger Grenzwertaussage, wenn wir kn dur h seinen ganzzahligen Anteil [kn ] ersetzen. Da die geforderte Unglei hung
Pp (Sn ≥ kn ) ≥ γ
für jedes
p ≥ p1
(wiederum aufgrund der Monotonie der Übers hreitungswahrs heinli hkeit) aus der Glei hung γ = Pp1 (Sn ≥ kn ) mit kn wie in (28.8) folgt, erhalten wir na h Standardisierung ! p √ n(p0 − p1 ) + p0 (1 − p0 ) · Φ−1 (1 − α) Sn − np1 p p ≥ γ = Pp1 np1 (1 − p1 ) p1 (1 − p1 ) und somit (vgl. (26.18)) −1
γ ≈ 1−Φ Φ
(1 − α)
s
√ p0 (1 − p0 ) p0 − p1 + np p1 (1 − p1 ) p1 (1 − p1 )
!
.
Auösung dieser Approximation na h n liefert die gesu hte Näherungsformel s #2 " p0 (1 − p0 ) p1 (1 − p1 ) −1 −1 nmin ≈ · Φ (1 − γ) − Φ (1 − α) · . (p0 − p1 )2 p1 (1 − p1 ]
(28.9)
249 Als Zahlenbeispiel betra hten wir die Frage der Fors hergruppe (p0 = 0.5, p1 = 0.6, α = 0.1, γ = 0.9). Mit Φ−1 (0.1) = −Φ−1 (0.9) = −1.282 (vgl. Tabelle 27.2) liefert (28.9) den Näherungswert nmin ≈ 161, wobei auf die nä hstkleinere ganze Zahl gerundet wurde. Es sollten also a. 160 Patienten behandelt werden, damit eine wahre Heilrate von (mindestens) 60% mit der Wahrs heinli hkeit 0.9 erkannt wird. Die Güte der Näherungsformel (28.9) erkennt man daran, dass der mit Hilfe des ComputerAlgebraSystems MAPLE bere hnete exakte Wert des benötigten Sti hprobenumfangs 163 beträgt. 28.7 Der ChiQuadratTest
Der von Karl Pearson um die Jahrhundertwende entwi kelte ChiQuadratTest ist eines der ältesten Testverfahren der Statistik. In seiner einfa hsten Form dient er der Prüfung der Verträgli hkeit von beoba hteten relativen Häugkeiten mit hypothetis hen Wahrs heinli hkeiten in einem multinomialen Versu hss hema. Zur Präzisierung der Fragestellung betra hten wir wie in Abs hnitt 18.7 n unbeeinusst voneinander ablaufende glei hartige Versu he (Experimente) mit jeweils s mögli hen Ausgängen 1,2, . . . ,s, wel he wir wie früher Treer 1. Art, . . . ,Treer ster Art nennen. Beispiele sol her Experimente sind der Würfelwurf mit den Ergebnissen 1 bis 6 (s = 6), ein Keimungsversu h bei Samen mit den Ausgängen normaler Keimling, anormaler Keimling und fauler Keimling (s = 3) oder die Ziehung der 6 Lottozahlen (s = 49 6 ).
Bezei hnet pj die Wahrs heinli hkeit für einen Treer j ter Art, so besitzt der Zufallsvektor X := (X1 , . . . ,Xs ) der einzelnen Treeranzahlen na h (18.13) die Verteilung M ult(n; p1 , . . . ,ps ). Der Sti hprobenraum für X ist die Menge
X := {k = (k1 , . . . ,ks ) ∈ INs0 : k1 + . . . + ks = n} aller mögli hen Vektoren von Treeranzahlen. Wir nehmen im Folgenden an, dass die Wahrs heinli hkeiten p1 , . . . ,ps unbekannt sind. Unser Ziel ist die Aufstellung eines Tests der einfa hen Hypothese
H0 : pj = πj für jedes j = 1, . . . ,s gegen die zusammengesetzte Alternative
H1 : pj 6= πj für mindestens ein j ∈ {1, . . . ,s}. Hierbei sind π1 , . . . ,πs vorgegebene positive Wahrs heinli hkeiten mit π1 + . . . + πs = 1. Im Fall s = 6 und πj = 1/6 (j = 1, . . . ,6) handelt es si h dabei um das Testen der E htheit eines Würfels. Die Bere hnung von Wahrs heinli hkeiten unter der Hypothese H0 betonen wir dur h die S hreibweise Pπ . Ferner s hreiben wir kurz s Y n! k · mn (k) := (28.10) πj j , k ∈X , k1 ! · . . . · ks ! j=1
für die Wahrs heinli hkeit, unter der Hypothese H0 den Vektor k = (k1 , . . . ,ks ) zu beoba hten.
250
28 Statistis he Tests
Zur Konstruktion eines Tests für H0 gegen H1 liegt es nahe, diejenigen Daten k in den kritis hen Berei h K1 ⊆ X aufzunehmen, wel he unter H0 am unwahrs heinli hsten sind, also die kleinsten Werte für mn (k) liefern. Als Zahlenbeispiel betra hten wir den Fall n = 4, s = 3 und π1 = π2 = 1/4, π3 = 1/2. Hier besteht der Sti hprobenraum X aus 15 Tripeln, wel he zusammen mit ihren na h aufsteigender Gröÿe sortierten H0 Wahrs heinli hkeiten in Tabelle 28.2 aufgelistet sind (die Bedeutung der letzten Spalte wird später erklärt). Nehmen wir die obersten 5 Tripel in Tabelle 28.2 in den kritis hen Berei h auf, setzen wir also
K1 := {(k1 ,k2 ,k3 ) ∈ X : k3 = 0} , so gilt Pπ (K1 ) = (1 + 1 + 4 + 4 + 6)/256 = 0.0625. Folgli h besitzt dieser Test die Wahrs heinli hkeit von 0.0625 für den Fehler erster Art. Prinzipiell ist diese Vorgehensweise au h für gröÿere Werte von n und s mögli h. Der damit verbundene Re henaufwand steigt jedo h mit wa hsendem n und s so rapide an, dass na h einer praktikableren Mögli hkeit gesu ht werden muss.
(k1 ,k2 ,k3 ) (4,0,0) (0,4,0) (3,1,0) (1,3,0) (2,2,0) (3,0,1) (0,3,1) (0,0,4) (2,1,1) (1,2,1) (2,0,2) (0,2,2) (0,1,3) (1,0,3) (1,1,2) Tabelle 28.2
4! k1 !k2 !k3 ! 1 1 4 4 6 4 4 1 12 12 6 6 4 4 12
3 Y
πj j
k
m4 (k)
χ24 (k)
1/256 1/256 1/256 1/256 1/256 1/128 1/128 1/16 1/128 1/128 1/64 1/64 1/32 1/32 1/64
1/256 1/256 4/256 4/256 6/256 8/256 8/256 16/256 24/256 24/256 24/256 24/256 32/256 32/256 48/256
12
j=1 12 6 6 4 5.5 5.5 4 1.5 1.5 2 2 1.5 1.5 0
Der Gröÿe na h sortierte H0 Wahrs heinli hkeiten im Fall n = 4, s = 3, π1 = π2 = 1/4, π3 = 1/2.
Die auf Karl Pearson zurü kgehende Idee zur Konstruktion eines übers haubaren kritis hen Berei hes für groÿes n besteht darin, die in (28.10) stehenden Wahrs heinli hkeiten dur h handhabbarere Ausdrü ke zu approximieren, und zwar in derselben Weise, wie wir dies in Kapitel 26 beim Beweis des Zentralen Grenzwertsatzes von De MoivreLapla e getan haben. Setzen wir −1/2 s s 2 Y X (k − nπ ) 1 j j πj · exp − fn (k) := (2π)s−1 ns−1 (28.11) 2 nπj j=1
j=1
251 und bea hten die Darstellung k Qs −nπj · (nπj ) j e j=1 kj ! mn (k) = , n e−n · nn! so liefert die aus der StirlingFormel folgende Beziehung (vgl. [MOR℄, S. 59) (nπj )kj (kj − nπj )2 1 ∼ p e−nπj · · exp − kj ! 2nπj 2πnπj
beim Grenzübergang n → ∞, min1≤j≤s kj → ∞ die asymptotis he Glei hheit (28.12)
mn (k) ∼ fn (k).
Da somit bei groÿem n kleine Werte von mn (k) mit groÿen Werten der im Exponentialausdru k von (28.11) stehenden Summe
χ2n (k1 , . . . ,ks ) :=
s X (kj − nπj )2 nπj
(28.13)
j=1
korrespondieren, ist es sinnvoll, den kritis hen Berei h K1 dur h s X (kj − nπj )2 K1 := k ∈ X : ≥c nπj
(28.14)
j=1
festzulegen, d.h. die Hypothese H0 für groÿe Werte von χ2n (k1 , . . . ,ks ) abzulehnen. Dabei ist der kritis he Wert c aus der vorgegebenen Wahrs heinli hkeit α für den Fehler erster Art zu bestimmen. Man bea hte, dass die Korrespondenz zwis hen kleinen Werten von mn (k) und groÿen Werten von χ2n (k) s hon für den Sti hprobenumfang n = 4 in den beiden letzten Spalten von Tabelle 28.2 deutli h si htbar ist. Die dur h (28.13) denierte, auf Karl Pearson zurü kgehende Funktion χ2n : X → IR heiÿt χ2 Testgröÿe (spri h: ChiQuadrat). Sie misst die Gröÿe der Abwei hung zwis hen den beoba hteten Treeranzahlen kj und den unter H0 zu erwartenden Anzahlen n · πj in einer ganz bestimmten Weise. Zur Festlegung des kritis hen Wertes c müssen wir das wahrs heinli hkeitstheoretis he Verhalten der Zufallsvariablen
Tn :=
s X (Xj − nπj )2 nπj
(28.15)
j=1
unter der Hypothese H0 kennen (die Realisierungen von Tn sind gerade die Werte χ2n (k1 , . . . ,ks ) aus (28.13)). Dies ers heint auf den ersten Bli k honungslos, da die Verteilung von Tn unter H0 in komplizierter Weise von n und insbesondere von π = (π1 , . . . ,πs ) abhängt. Interessanterweise gilt jedo h wegen Xj ∼ Bin(n,πj ) die Beziehung Eπ (Xj − nπj )2 = nπj (1 − πj ) und somit
252
28 Statistis he Tests
Eπ (Tn ) =
s X j=1
(1 − πj ) = s − 1.
Folgli h hängt zumindest der Erwartungswert von Tn unter H0 weder von n no h vom hypothetis hen Wahrs heinli hkeitsvektor π ab. Die ents heidende Entde kung Karl Pearsons im Hinbli k auf die Anwendbarkeit eines mit χ2n (k1 , . . . ,kn ) als Testgröÿe (Prüfgröÿe) operierenden Tests der Hypothese H0 war, dass unabhängig von π die Übers hreitungswahrs heinli hkeit Pπ (Tn ≥ c) beim Grenzübergang n → ∞ gegen einen nur von c und von der Anzahl s der vers hiedenen Treerarten abhängenden Wert konvergiert. Es gilt nämli h die Grenzwertaussage Z ∞ lim Pπ (Tn ≥ c) = fs−1 (t) dt, (28.16) n→∞
c
(siehe z.B. [KR1℄, S. 183), wobei für jedes r ∈ IN die Funktion fr dur h
fr (t) :=
1 · e−t/2 · tr/2−1 , t > 0, 2r/2 · Γ (r/2)
und fr (t) := 0 im Falle t ≤ 0 deniert ist. Dabei ist falls Q(m − 1)! , √ Γ (r/2) := 2−m · m falls j=1 (2j − 1) · π ,
(28.17)
r = 2m mit m ∈ IN r = 2m + 1 mit m ∈ IN0 .
Die Funktion fr heiÿt Di hte der χ2 Verteilung mit r Freiheitsgraden. Sie ist in Bild 28.4 für die Werte r = 5 bzw. r = 4,6,8 dargestellt. 6
6
0.15
f4 (x)
0.15
f6 (x)
f5 (x) 0.1
0.1
0.05
f8 (x)
0.05 .... .............. ................................ ....................................................... . . . . ....................
α
0 0
χ25;1−α Bild 28.4
x
0 0
6
12
x
Di hten von ChiQuadratVerteilungen
Aussage (28.16) zeigt, dass für ein vorgegebenes Testniveau α der kritis he Wert c aus (28.14) bei groÿem n approximativ als Lösung der Glei hung Z ∞ fs−1 (t) dt = α (28.18) c
gewählt werden kann. Die eindeutig bestimmte Lösung c dieser Glei hung heiÿt (1 − α) Quantil der χ2 Verteilung mit s − 1 Freiheitsgraden und wird mit χ2s−1;1−α bezei hnet (siehe Bild 28.4 links).
253
Der χ2 Test zur Prüfung der Hypothese H0 kann bei groÿem n (vgl. hierzu Bemerkung 28.9) so dur hgeführt werden, dass zu einem vorgegebenen Niveau α zunä hst der kritis he Wert c := χ2r−1;1−α aus Tabelle 28.3 ermittelt wird (man bea hte, dass der Freiheitsgrad r glei h s − 1 ist). Zu gegebenen Treeranzahlen k1 , . . . ,ks bere hnet man dann den Wert der Testgröÿe χ2n (k1 , . . . ,ks ) aus (28.13) und lehnt die Hypothese H0 zum Niveau α ab, falls die Unglei hung χ2n (k1 , . . . ,ks ) ≥ c erfüllt ist. Im Fall χ2n (k1 , . . . ,ks ) < c stehen die Daten ni ht im Widerspru h zu H0 . Sollten Sie bei Benutzung eines StatistikSoftwarepaketes den χ2 Test dur hführen und als Ergebnis den pWert p∗ (k) erhalten, so ist dieser als Flä he unter der Di hte fs−1 über dem Intervall [χ2n (k),∞) zu interpretieren. Im Fall p∗ (k) < α erfolgt dann eine Ablehnung von H0 auf dem Niveau α. α r
0.1
0.05
0.025
0.01
0.005
0.001
1
2.71
3.84
5.02
6.63
7.88
10.83
2
4.61
5.99
7.38
9.21
10.60
13.82
3
6.25
7.81
9.35
11.34
12.84
16.27
4
7.78
9.49
11.14
13.28
14.86
18.47
5
9.24
11.07
12.83
15.09
16.75
20.51
6
10.64
12.59
14.45
16.81
18.55
22.46
7
12.02
14.07
16.01
18.48
20.28
24.32
8
13.36
15.51
17.53
20.09
21.95
26.12
Tabelle 28.3
(1 − α)-Quantile χ2r;1−α der χ2r Verteilung
28.8 Beispiel
Die Anzahl X von Merkmalsträgern in Familien mit je vier Kindern ist unter bestimmten Annahmen Bin(4,3/4)verteilt, falls das Merkmal dem dominantrezessiven Erbgang folgt (siehe 18.10). In diesem Fall ergibt si h für die Binomialwahrs heinli hkeiten qj := P (X = j), j = 0, . . . ,4:
q0 =
81 108 54 13 , q1 = , q2 = , q3 + q4 = 256 256 256 256
(die Werte q3 und q4 wurden addiert, um im Hinbli k auf die na hfolgenden Daten die Bedingung (28.19) in Bemerkung 28.9 zu erfüllen). Um zu untersu hen, ob das Merkmal Myoklonusepilepsie dem dominantrezessiven Erbgang folgt, wurde bei n = 270 Familien mit je vier Kindern die Anzahl der Familien, in denen genau j Kinder Merkmalsträger sind, bestimmt. Dabei ergaben si h die Werte k0 = 90, k1 = 122, k2 = 50, k3 + k4 = 8, so dass die χ2 Testgröÿe den Wert (90−nq0 )2 (122−nq1 )2 (50−nq2 )2 (8−n(q3 + q4 ))2 1 χ2n = + + + · n q0 q1 q2 q 3 + q4 = · · · = 4.047 . . .
254
28 Statistis he Tests
liefert. Setzen wir α = 0.1, so ergibt si h aus Tabelle 28.3 der kritis he Wert χ23;0.9 = 6.25. Wegen 4.05 < 6.25 wird somit die Hypothese eines dominantrezessiven Erbgangs bei einer zugelassenen Wahrs heinli hkeit von 0.1 für den Fehler erster Art ni ht verworfen (vgl. [WEB℄, S.191). 28.9 Ein Monte-Carlo-Test
Es gibt zahlrei he Untersu hungen zur Frage, ab wel hem Sti hprobenumfang n die linke Seite von (28.16) gut dur h das re hts stehende Integral approximiert wird und somit die Einhaltung eines angestrebten Niveaus α dur h Wahl des kritis hen Wertes mittels (28.18) für praktis he Zwe ke hinrei hend genau ist. Eine allgemeine Empfehlung hierzu ist die Gültigkeit der Unglei hung (28.19)
n · min (π1 ,π2 , . . . ,πs ) ≥ 5 . χ2 Test
au h in Fällen dur hführen zu können, in denen diese Bedingung verUm den letzt ist, bietet si h neben einer exakten Methode analog zur Aufstellung von Tabelle 28.2 die Mögli hkeit an, den Wert χ2n (k) zu bere hnen und ans hlieÿend die Wahrs heinli hkeit zu s hätzen, dass bei Gültigkeit der Hypothese H0 die Chi-Quadrat-Testgröÿe einen Wert annimmt, der mindestens glei h dem beoba hteten Wert χ2n (k) ist. Bei diesem au h als Monte-Carlo-Test bezei hneten Verfahren wird wie folgt vorgegangen: Man wählt eine groÿe Zahl M , z.B. M = 10 000, und setzt einen Zähler Z auf den Anfangswert 0. Dann führt man für einen Laundex m = 1,2, . . . ,M M Mal hintereinander folgenden Algorithmus dur h: 1) Mit Hilfe von Pseudozufallszahlen wird wie in Abs hnitt 19.4 bes hrieben n mal ein Experiment simuliert, wel hes mit Wahrs heinli hkeit πj einen Treer j -ter Art ergibt (j = 1, . . . ,s). Die so simulierten Treeranzahlen seien mit
k1,m , k2,m , . . . ,ks,m bezei hnet. 2) Mit Hilfe von k1,m , k2,m , . . . ,ks,m bere hnet man den Wert
χ2n,m :=
s X (kj,m − nπj )2 j=1
nπj
.
3) Gilt χ2n,m ≥ χ2n (k), so wird der Zähler Z um Eins erhöht. Na h den M Dur hläufen ist dann die relative Häugkeit Z/M ein S hätzwert für die Wahrs heinli hkeit Pπ (Tn ≥ χ2n (k)). Dabei ist die Zufallsvariable Tn in (28.15) deniert. Na h den in Abs hnitt 28.4 angestellten Überlegungen ist Z/M eine S hätzung für den p-Wert p∗ (χ2n (k)). Bei einer zugelassenen Wahrs heinli hkeit α für einen Fehler erster Art lehnt man die Hypothese H0 ab, falls Z/M < α gilt. Andernfalls erhebt man keine Einwände gegen H0 .
255 Als Zahlenbeispiel betra hten wir einen Test auf E htheit eines Würfels, d.h. den Fall s = 6 und π1 = . . . = π6 = 1/6. Anhand von 24 Würfen dieses Würfels haben si h die Treeranzahlen k1 = 4, k2 = 3, k3 = 3, k4 = 4, k5 = 7 und k6 = 3 und somit gemäÿ (28.13) der Wert χ224 (4,3,3,4,7,3) = 3 ergeben. Bei M = 10 000 Simulationen der Chi-Quadrat-Testgröÿe trat in Z = 7413 Fällen ein Wert von mindestens 3 auf. Der ges hätzte p-Wert Z/M = 0.7413 ist so groÿ, dass gegen die E htheit des Würfels bei einer zugelassenen Wahrs heinli hkeit von 0.05 für einen Fehler erster Art kein Einwand besteht. 28.10 Einige Fehler im Umgang mit statistis hen Tests
Ein häug anzutreender Fehler im Umgang mit statistis hen Tests ist der fäls hli he Rü ks hluss vom konkreten Testergebnis auf die Wahrs heinli hkeit, dass H0 bzw. H1 gilt . Ergibt in der Situation von Abs hnitt 28.2 ein Niveau-α-Test die Ablehnung von H0 aufgrund der Beoba htung x ∈ X , so ist eine Formulierung wie Die Wahrs hein li hkeit ist hö hstens α, dass aufgrund des Testergebnisses die Hypothese H0 zutrit sinnlos, da das Signikanzniveau ni ht angibt, mit wel her Wahrs heinli hkeit eine aufgrund einer Beoba htung x getroene Ents heidung fals h ist (vgl. hierzu die Übungsaufgaben 28.7, 28.8 und 28.9). Das Signikanzniveau α harakterisiert nur in dem Sinne das Testverfahren, dass bei Unterstellung der Gültigkeit von H0 die Wahrs heinli hkeit für eine Ablehnung von H0 hö hstens α ist. Führt man etwa einen Test zum Niveau 0.05 unter unabhängigen glei hartigen Bedingungen 1000 mal dur h, so wird si h für den Fall, dass die Hypothese H0 gilt, in etwa 50 Fällen ein signikantes Ergebnis, also eine Ablehnung von H0 , einstellen. In jedem dieser a. 50 Fälle wurde mit Si herheit eine fals he Ents heidung getroen. Diese Si herheit war aber nur vorhanden, weil wir a priori die Gültigkeit von H0 für alle 1000 Testläufe unterstellt hatten! In glei her Weise wird si h bei Unterstellung der Alternative H1 in 1000 unabhängigen Testdur hführungen ein gewisser Prozentsatz von signikanten Ergebnissen, also Ablehnungen von H0 , einstellen. Hier hat man in jedem dieser Fälle mit Si herheit eine ri htige Ents heidung getroen, weil die Gültigkeit von H1 angenommen wurde. In der Praxis besitzt man jedo h übli herweise keinerlei Information darüber, ob bei der Dur hführung eines Tests H0 oder H1 zutrit (sonst könnte man si h die Testdur hführung ersparen)! Es ist ferner vom Grundprinzip statistis her Tests her unzulässig, eine Hypothese, die etwa im Rahmen eines explorativen S hnupperns in einem Datensatz gewonnen wurde, anhand derselben Daten zu testen. Dem Test bleibt in diesem Fall ni hts anderes übrig, als dem Wuns h des HypothesenFormulierers entspre hend zu antworten. Haben si h z.B. in einer BernoulliKette mit unbekannter Treerwahrs heinli hkeit p in 100 Versu hen 60 Treer ergeben, so kann etwa die Hypothese H0 : p = 0.6 nur anhand unvor eingenommener , unter denselben Bedingungen gewonnener Daten geprüft werden. Ein weiteres Problem im Umgang mit statistis hen Tests ist die Tatsa he, dass fast ausnahmslos signikante Ergebnisse veröentli ht werden (die anderen werden als uninteressant eingestuft). Der damit einhergehende VerzerrungsEekt des Vers hweigens (Ni htpublizierens) ni htsignikanter Ergebnisse wird publi ation bias genannt. Auf der Jagd na h Signikanz wird man hmal au h verzweifelt na h einem Test gesu ht, der gegebenen Daten diese höhere Weihe erteilt (für kompliziertere, hier ni ht behandelte
256
28 Statistis he Tests
Testprobleme existieren häug mehrere Tests, die jeweils zur Aufde kung bestimmter Alternativen besonders geeignet sind). Hat man etwa na h neun vergebli hen Anläufen endli h einen sol hen Test gefunden, so ist es ein Ermogeln von Signikanz, das Ni htablehnen der Hypothese dur h die neun anderen Tests zu vers hweigen.
Übungsaufgaben Ü 28.1 Bei der Zü htung einer gewissen Blumensorte ergeben si h rote und weiÿe Exemplare.
Na h den Vererbungsgesetzen muss dabei eine der beiden Farben als dominantes Merkmal mit der Wahrs heinli hkeit
3/4 auftreten. In einem Kreuzungsversu h ergeben si h 13 Na hkommen.
Mit wel her Wahrs heinli hkeit irrt man si h, wenn man die dabei häuger auftretende Farbe für dominant hält?
ohne hemis he Präparierung soll untersu ht werden, ob si h ein Käfer rein zufällig für einen der beiden Ausgänge
Ü 28.2 In einem Versu h mit einem Zweifa hWahlapparat (vgl. Bild 18.1)
ents heidet. Bei
n = 30
unabhängigen Dur hläufen des Apparates unter glei hen Bedingungen
wurde 18 mal der Ausgang
- und 12 mal der Ausgang + gewählt. Spri ht dieses Ergebnis signikant für eine systematis he Bevorzugung einer der beiden Ausgänge? Wie groÿ ist der
pWert? Ü 28.3 Ein Würfel soll mit Hilfe des
χ2 Tests auf seine E htheit (Hypothese H0 ) geprüft werα für einen Fehler erster Art zugelassen. Aufgrund
den. Dabei ist eine Fehlerwahrs heinli hkeit
von 100 Würfen dieses Würfels ergab si h eine Annahme der Hypothese der E htheit. Als dieser 2 Würfel weitere 400 mal geworfen und ein χ Test anhand aller 500 Würfe dur hgeführt wurde, standen die beoba hteten Häugkeiten für die einzelnen Augenzahlen im Widerspru h zu
H0 .
Erklärung? Ü 28.4 Ein mögli herweise verfäls hter Würfel wird 200 mal in unabhängiger Folge geworfen,
wobei si h für die einzelnen Augenzahlen die Häugkeiten 32, 35, 41, 38, 28, 26 ergaben. Ist dieses Ergebnis mit der Hypothese der E htheit des Würfels verträgli h, wenn eine Wahrs heinli hkeit von 0.1 für den Fehler erster Art toleriert wird? Ü 28.5 Beweisen Sie die alternative Darstellung
die
χ
2
χ2n (k1 , . . . ,ks ) = n−1
Testgröÿe.
Ps
j=1
kj2 /πj − n
für
Ü 28.6 Um zu testen, ob in einem Paket, das 100 Glühbirnen enthält, hö hstens 10 defekte
Glühbirnen enthalten sind, prüft ein Händler jedes Mal 10 der Birnen und nimmt das Paket nur dann an, wenn alle 10 in Ordnung sind. Bes hreiben Sie das Verhalten des Händlers testtheoretis h und ermitteln Sie das Niveau des Testverfahrens. Ü 28.7 In einem Bu h las i h die folgende Interpretation eines Testergebnisses:
s heinli hkeit
α
Die Wahr für einen Fehler erster Art bei einem statistis hen Test gibt an, wie oft aus
der Beantwortung der Testfrage fals h auf die Nullhypothese ges hlossen wird. Wird gewählt und die Testfrage mit
ja
beantwortet, dann ist die Antwort
und mithin in 95% der Fälle ri htig. Wie ist Ihre Meinung hierzu?
ja
α = 0.05
in 5% der Fälle fals h
257 Ü 28.8 Der Leiter der Abteilung für Materialbes haung hat eine Sendung von elektronis hen
S haltern sti hprobenartig auf ihre Funktionsfähigkeit hin überprüft. Er stellt fest, dass bei dieser Sti hprobe der Anteil defekter S halter signikant über dem vom Hersteller behaupteten Auss hussanteil liegt. Dabei überprüft er die vom Hersteller aufgestellte Behauptung mit einem statistis hen Test, wel her das Signikanzniveau 0.05 besitzt. Mit den Worten
Die Chan e, dass eine genaue Überprüfung zeigt, dass die Sendung den Herstellerangaben entspri ht, ist hö hstens 5% empehlt er, die Lieferung zu reklamieren und zurü kgehen zu lassen. Ist seine Aussage ri htig? Ü 28.9 Der Statistiker einer Firma, die laufend Werkstü ke zur Weiterverarbeitung bezieht,
lehnt eine Lieferung dieser Werkstü ke mit folgender Begründung ab:
I h habe wie immer meinen Standard-Test zum Niveau 0.05 anhand einer zufällig ausgewählten Sti hprobe dur hgeführt. Die Sti hprobe untersu hter Stü ke enthielt einen extrem hohen Anteil defekter Exemplare. Wenn der Auss hussanteil in der Sendung wie vom Hersteller behauptet hö hstens 2% beträgt, ist die Wahrs heinli hkeit für das Auftreten des festgestellten oder eines no h gröÿeren Anteils defekter Werkstü ke in der Sti hprobe hö hstens 2.7% . Der Werkmeister entgegnet: Bislang erwiesen si h 70% der von Ihnen beanstandeten Sendungen im na hhinein als in Ord nung. Aller Wahrs heinli hkeit na h liegt au h in diesem Fall ein blinder Alarm vor. Muss mindestens eine der beiden Aussagen fals h sein?
Lernziele Sie sollten
• die Bestandteile eines statistis hen Testproblems (ModellRahmen, Hypothese und Alternative, kritis her Berei h) kennen; • die Begrie Fehler erster und zweiter Art kennen und wissen, dass übli herweise der Fehler erster Art s hwerer wiegt; • verstanden haben, dass Hypothesen und Alternativen nie bewiesen werden können; • wissen, dass das Ni htverwerfen einer Hypothese H0 im Allgemeinen nur bedeutet, dass die vorliegende Datenbasis zu gering ist, um einen signikanten Widerspru h zu H0 herbeizuführen; • wissen, dass Hypothesen, die anhand von Daten gebildet werden, nie anhand derselben Daten getestet werden dürfen.
258
Na hwort Na hdem Sie, lieber Leser, beim Dur harbeiten bis an diese Stelle vorgedrungen sind, können Sie nun beurteilen, ob die zu Beginn dieses Bu hes geste kten Ziele errei ht wurden. Sie sollten einen ersten Eindru k von den Grundbegrien und Ideen der Sto hastik gewonnen haben und dabei mit relativ elementaren mathematis hen Kenntnissen ausgekommen sein. Zum einen wollte i h Ihre sto hastis he Intuition s härfen, zum anderen sollten Sie aber au h die formalen Grundlagen der Mathematik des Zufalls erlernen, um bei der Kunst des sto hastis hen Modellierens von Zufallsphänomenen auf si herem Boden zu stehen. So hoe i h etwa, dass Ihnen die Modellbildung beim Ziegenproblem keine S hwierigkeiten mehr bereitet, dass Sie das Phänomen der ersten Gewinnreihenwiederholung im Zahlenlotto ri htig eins hätzen können und dass Sie das Auftreten des SimpsonParadoxons für eine interessante, aber mathematis h völlig banale Ers heinung halten. Sie sollten ferner für die Anwendbarkeit sto hastis her Modellvorstellungen wie Unabhängigkeit und glei he Verteilung sensibilisiert sein und die Grenzen der S hlieÿenden Statistik anhand einer einfa hen Situation, der S hätzung einer Wahrs heinli hkeit, deutli h vor Augen haben. I h würde mi h freuen, wenn Sie beim Lesen dieses Bu hes so man hes AhaErlebnis mit Meister Zufall hatten und zumindest mit einem Bein in die Sto hastik eingestiegen sind. Sollten Sie Lust verspüren, au h das andere Bein na hzuziehen, bieten si h ganz na h Ihren persönli hen Interessen vers hiedene Mögli hkeiten an: Für jemanden, der si h tiefer in die Mathematis he Sto hastik einarbeiten mö hte, herrs ht kein Mangel an weiterführenden Lehrbü hern. Ein Klassiker ist weiterhin [FEL℄; an deuts hspra higen Bü hern sind u.a. [HES℄, [IRL℄ und [KR1℄ zu nennen. Sollten Sie als Naturwissens haftler in erster Linie an statistis hen Methoden interessiert sein, ist [STA℄ ein umfangrei hes Lehrbu h zur statistis hen Datenanalyse mit vielen Fallbeispielen. Sto hastik gilt gemeinhin als s hwierig; ein Hauptgrund hierfür ist die Verbindung von Mathematik und beoba hteten Zufallsphänomenen über die sto hastis he Modellbildung. I h hoe, dass dieses Bu h mögli hst vielen den Zugang zu dieser faszinierenden Wissens haft erlei htert hat.
259
Tabelle A1 Verteilungsfunktion Für
t