Kurs:Statistik für Anwender/Binomialverteilte Zufallsvariable

Aus testwiki
Zur Navigation springen Zur Suche springen

Binomialverteilte ZV

Wahrscheinlichkeitsrechnung

Zufallsexperiment

Wir betrachten ein (wiederholbares) ZE, das n-mal durchgeführt wird. Bei jeder Durchführung wird beobachtet, ob ein bestimmtes (vorher festgelegtes) Ereignis eintritt oder nicht. Abkürzend sagt man: ''Treffer'' Das Ereignis tritt ein.
''KeinTreffer'' Das Ereignis tritt nicht ein.
Wichtig ist dabei, dass die einzelnen Durchführungen

  • unabhängig voneinander sind
  • unter gleichen Bedingungen stattfinden

Zufallsvariable T

Man fasst den gesamten Vorgang nun als ein ZE auf. Die ZV T, die die Anzahl der Treffer beschreibt, nennt man dann binomialverteilt mit Versuchszahl n und Trefferwahrscheinlichkeit p[0,1] und es gilt: P(T=k)=(nk)pk(1p)nkfür k{0,,n}

Begründung

Dies lässt sich wie folgt begründen:
Für eine bestimmte Abfolge von k Treffern und nk Nicht-Treffern ist die Wahrscheinlichkeit (entsprechend einem Pfad in einem Baumdiagramm) das Produkt aus n-Faktoren, von denen k Faktoren p sind und nk Faktoren 1p. Sie hat also den Wert pk(1p)nk.
Es gibt jedoch mehrere Pfade, in denen genau k Treffer vorkommen. Da diese Treffer an k von n Stellen vorkommen können, sind es insgesamt (nk) Möglichkeiten.


Beispiel 1

Für n=5 und p=0.7 ist
k012345P(T=k)0.0020.0280.1320.3090.3600.168

Beispiel 2.1

Für n=50 und p=0.3 ist beispielsweise:
P(T=5)=0.0005509P(T=15)=0.1223469P(T=40)<1012

Wahrscheinlichkeiten

  • P(Tk)=j=0k(nj)pj(1p)nj
  • P(Tk)=j=kn(nj)pj(1p)nj
  • P(kT)=j=k(nj)pj(1p)nj

Beispiel 3

Für n=5 und p=0.7 ist beispielsweise:
P(T3)=0.47148P(T4)=0.52852P(1T4)=0.8295

Beispiel 4

Für n=50 und p=0.3 ist beispielsweise: P(6T9)=0.039509P(T16)=0.683879P(T25)=0.002370

Beispiel 5

Hier einige weitere Beispiele:

image

Beispiel 6

Interaktive App zur Binomialverteilung:

Link und Download

In R

dbinom(k,n,p)ergibt:P(T=k)=(nk)pk(1p)nkpbinom(k,n,p)ergibt:P(Tk)=j=0k(nj)pj(1p)nj1pbinom(k1,n,p)ergibt:P(Tk)=j=kn(nj)pj(1p)njpbinom(,n,p)pbinom(k1,n,p)ergibt:P(kT)=j=k(nj)pj(1p)nj

Aufgabe 1

Berechnen Sie für eine binomialverteilte ZV T mit den jeweils angegebenen Werten für n und p die angegebenen Wahrscheinlichkeiten:

  • Für n=8 und p=0.46: P(T=k) für alle k=0,,8
  • Für n=24 und p=0.12: P(T4), P(T6), P(2T5)
  • Für n=360 und p=0.77: P(T275), P(T280), P(276T280)

Beispiele für Binomialverteilung 1

  • (Ziehen mit Zurücklegen) Aus einer Lostrommel, die N Kugeln enthält, von denen K rot sind, werden nacheinander mit Zurücklegen n Kugeln gezogen. Die ZV für die Anzahl roten Kugeln unter den Gezogenen ist binomialverteilt mit Versuchszahl n und Trefferwahrscheinlichkeit p=KN.
  • Wenn man 1000-mal würfelt, ist die ZV für die Zahl der gewürfelten 6-en binomialverteilt mit Versuchszahl n=1000 und Trefferwahrscheinlichkeit p=16.

Beispiele für Binomialverteilung 2

  • Wenn ein Medikament, das mit einer Wahrscheinlichkeit von 0.2% eine bestimmte Nebenwirkung verursacht, von 300 Patienten eingenommen wird, ist die ZV für die Zahl der Patienten, bei denen die Nebenwirkung auftritt, binomialverteilt mit Versuchszahl n=300 und Trefferwahrscheinlichkeit p=0.002.

Beispiele für Binomialverteilung 3

  • Wenn ein Basketballspieler n Freiwürfe macht, ist die ZV für die Zahl seiner Treffer nur unter folgenden Annahmen binomialverteilt:
    • Es gibt eine Trefferwahrscheinlichkeit p[0,1], die immer gleich groß ist.
    • Treffer bzw. Nicht-Treffer bei bestimmten Würfen beeinflussen nicht die Trefferwahrscheinlichkeit für die anderen Würfe.

Beispiele für Binomialverteilung 4

  • Die Wahrscheinlichkeit für eine Mädchengeburt betrage 0.487. Unter 200 Neugeborenen ist dann die ZV für die Zahl der Mädchen binomialverteilt mit Versuchszahl n=200 und Trefferwahrscheinlichkeit p=0.486.

Beispiel Aufgaben 1

  • Bei einem Multiple-Choice Test gibt es bei jeder der 20 Fragen 4 Antwortmöglichkeiten, von denen genau eine Antwort richtig ist. Ein unvorbereiteter Teilnehmer kreuzt willkürlich jeweils eine Antwort an. Wie groß ist die Wahrscheinlichkeit, dass er (i) mindestens 10 Fragen(ii) weniger als 8 Fragen
    (iii) zwischen 2 und 5 Fragen
    richtig beantwortet?
  • Wie groß ist die Wahrscheinlichkeit beim 10-maligen Werfen von 2 Würfeln (i) genau 2-mal(ii) mindestens 4-mal(iii) weniger als 7-mal die Augensumme 5 zu erzielen?

Beispiel Aufgaben 2

  • Auf dem Weg zur Arbeit ist eine Ampel jeden Tag mit der Wahrscheinlichkeit p=0.4 rot. Berechnen Sie die Wahrscheinlichkeit, dass die Ampel an genau k von 7 Tagen Rot ist (k=0,,7).
  • Ein Bäcker knetet in einen Teig für 100 Rosinenbrötchen 200 Rosinen gut unter. Dann wird der Teig in 100 gleiche Teile geschnitten. Mit welcher Wahrscheinlichkeit enthält ein rein zufällig ausgewähltes Brötchen dieser Charge (i) genau 2(ii) mehr als 3(iii) keine
    Rosinen?
    Zusatzfrage: Wie viele Rosinen muss der Bäcker in den Teig für 100 Rosinenbrötchen kneten, damit ein auf gut Glück ausgewähltes Brötchen mit einer Mindestwahrscheinlichkeit von 0.95 mindestens eine Rosine enthält?

Erwartungswert und Varianz einer binomialverteilten ZV

Für eine binomialverteilte ZV T mit Versuchszahl n und Trefferwahrsch. p gilt: E(T)=npundV(T)=np(1p)

EW und Varianz der relativen Häufigkeit

Ist T eine binomialverteilte ZV mit Versuchszahl n und Trefferwahrscheinlichkeit p[0,1], so beschreibt die ZV R=Tn die relative Häufigkeit des Ereignisses "Treffer" in der Versuchsserie.

Es gilt: E(R)=p und V(R)=p(1p)n

Beispiel 1

Für n=5 und p=0.7 haben wir oben bereits die Wahrscheinlichkeitsverteilung bestimmt. Daraus ergibt sich:
E(T)=0.0020+0.0281+0.1322+0.3093+0.3604+0.1685=3.5V(T)={0.002(03.5)2+0.028(13.5)2+0.132(23.5)2+0.309(33.5)2+0.360(43.5)2+0.168(53.5)2}=1.05
Tatsächlich ist E(T)=50.7 und V(T)=50.7(10.7).

Beispiel 2.1

Für n=20 und p=0.61 berechnen wir zunächst P(T=k)=(20k)(0.61)k(0.39)20k für alle möglichen Werte k=0,,20:
k0123456P(T=k)<0.0001<0.0001<0.0001<0.00010.00020.00100.0038HLINE TBDk78910111213P(T=k)0.01180.02990.06240.10730.15260.17900.1722k14151617181920P(T=k)0.13470.08430.04120.01520.00400.00070.0001HLINE TBD

Beispiel 2.2

Daraus ergibt sich:
E(T)=12.2V(T)=4.758
Tatsächlich ist E(T)=200.61 und V(T)=200.61(10.61).

Aufgabe 1

Sie werfen eine Münze 20 mal. Bestimmen Sie die folgenden Wahrscheinlichkeiten (Kopf ist "Treffer"):

  • P(T=7)
  • P(T8)
  • P(T9)
  • P(T<10)
  • P(5T15)

Aufgabe 2

Bei dem Spiel Kniffel würfeln Sie mit fünf Würfeln (normalerweise bis zu dreimal, dies soll der Einfachheit wegen vernachlässigt werden). Wie hoch ist die Wahrscheinlichkeit,

  1. ein Kniffel (fünf Gleiche) zu würfeln.
  2. einen Vierer-Pasch (mindestens zwei Vierer) zu werfen.

Bestimmen Sie auch Erwartungswert und Varianz für das Werfen einer bestimmten Zahl.


Schätzungen für p

Problemstellung

Bisher können wir die Wahrscheinlichkeit dafür berechnen, dass die Trefferzahl in einem bestimmten Bereich liegt, wenn wir die Trefferwahrscheinlichkeit p kennen. In der Praxis ist man häufig aber mit folgender Situation konfrontiert: Es sind n und k bekannt, aber nicht p.

Wie kann man p sinnvoll schätzen?

Unterscheidung

Genauer kann man unterscheiden:

  • Die Versuchszahl n steht fest und ist bekannt. (In vielen Fällen kann man n sogar selbst festlegen.)
  • Die Trefferwahrscheinlichkeit p[0,1] liegt fest, ist aber nicht bekannt.
  • Die Trefferzahl ist zufällig.

Situation vor und nach der Datenerhebung

Sie wird vor Erhebung der Daten durch die ZV T beschrieben. Nach der Datenerhebung liegt dann eine Realisierung T=k{0,,n} der ZV T vor.

Schätzungen für p können nur auf der konkreten Realisierung (Trefferzahl) T=k basieren. Da der Schätzung also die zufällige Trefferzahl T zugrunde liegt, ist folglich auch die Schätzung vom Zufall abhängig.
ZV mit Parameter pzufälligDaten k methodischSchätzung für p

Punktschätzung für p

Sei T eine binomialverteilte ZV mit (bekannter) Versuchszahl n und (unbekannter) Trefferwahrscheinlichkeit p[0,1].

Eine Punktschätzfunktion für p ist eine Abbildung:

S:{0,,n}Menge der möglichen Werte für die ZV T(Ober-)Menge der in Frage kommenden Werte von pkkonkrete TrefferzahlS(k)konkrete Schätzung für p
Punktschätzfunktion vor und nach Datenerhebung

Eine solche Punktschätzfunktion kann aus verschiedenen Blickwinkeln betrachtet werden:

  • Vor der Durchführung des ZE ist die Trefferzahl T eine ZV. Da die Trefferzahl in die Schätzfunktion eingesetzt werden soll, kann man so auch die Schätzung selbst als ZV S=^S(T) interpretieren.
  • Nach dem Feststellen einer konkreten Trefferzahl T=k kann man diese einfach in die Schätzfunktion einsetzen und erhält so in der Praxis eine konkrete Schätzung S(k) für p.

Beispiel 1.1

(Relative Häufigkeit ist Punktschätzfunktion für p) Die Abbildung:
R:{0,,n}, R(k)=kn
ist eine Punktschätzfunktion für p.
Es stellt sich nun die Frage nach einer sinnvollen Punktschätzfunktion für p (es liegt nahe, die relative Häufigkeit R aus Beispiel Beispiel 1.1 zu betrachten) bzw. allgemeiner was überhaupt sinnvolle Eigenschaften für eine solche Schätzfunktion sind. Um dies zu beurteilen, sollte man den Standpunkt vor der Datenerhebung einnehmen.

Relative Häufigkeit als Zufallsvariable

Die relative Häufigkeit ist erwartungstreu, effizient und konsistent:
Fasst man die relative Häufigkeit als Zufallsvariable auf, so gilt:

  1. R ist erwartungstreu für p, das heißt es gilt: Ep(R)=p für alle p[0,1]
    Dabei ist Ep(R) der (von p abhängige) EW von R.
  2. Es gilt: Vp(R)n0 für alle p[0,1]
    Dabei ist Vp(R) die (von p abhängige) Varianz von R.
  3. R ist konsistent, das heißt für alle p[0,1] und alle c>0 gilt: Pp(|Rp|<c)n1

Dabei bedeutet Pp() das die Wahrscheinlichkeit in Abhängigkeit von p berechnet wurde.

Das Maximum-Likelihood-Prinzip

Neben den schon genannten Qualitätskriterien für Punktschätzfunktionen (Erwartungstreue, Effizienz und Konsistenz) gibt es noch einen anderen Zugang, die sogenannte Maximum-Likelihood-Methode. Dabei wird für den unbekannten Parameter (hier die Trefferwahrscheinlichkeit p) der Wert geschätzt, für den die beobachteten Daten (hier die Trefferzahl T=k) möglichst wahrscheinlich waren.


Maximum-Likelihood-Schätzung 1

Die Maximum-Likelihood-Schätzung SML:{0,,n}[0,1] ist also wie folgt definiert:

Für k{0,,n} ist SML(k)[0,1] die (globale) Maximumstelle der Funktion L:[0,1][0,1], L(p)=(nk)pk(1p)nk=P(T=k) (abhängig von p)
(L steht für Likelihood-Funktion)

Maximum-Likelihood-Schätzung 2

Die Wahrscheinlichkeit p wird bei k Treffern in n Versuchen also als der Wert geschätzt, für den die Wahrscheinlichkeit P(T=k) für genau k Treffer maximal ist.

Man kann zeigen, (vergleiche die folgenden Beispiele) dass stets SML(k)=kn=R(k) gilt. Auch mit dieser Methode erhält man also die relative Häufigkeit als sinnvolle Schätzung für p.

Beispiel 2

n = 50, k =10 bzw. n=400, k = 250

image


Intervallschätzungen für p

Ein (für die Praxis relevantes) Problem bei den bisher behandelten Punktschätzungen für p ist, dass es sich bei den Gütekriterien (Erwartungstreue, Effizienz und Konsistenz) für die Schätzfunktionen lediglich um qualitative Aussagen handelt.

Ziel ist es nun, Schätzungen für p zu formulieren, die man auch quantitativ beurteilen kann. Eine solche hat die Form: Der unbekannte Wert p liegt in einem Intervall der Form [pU,pO].

Situation

Wir betrachten die folgende Situation:
Zu einer binomialverteilten ZV T ist die Versuchszahl n fest und bekannt und die Trefferwahrscheinlichkeit p[0,1] fest, aber unbekannt. Basierend auf der vom Zufall abhängigen Trefferzahl T=k{0,,n} soll nun eine Intervallschätzung
p[pU,pO]=[pU(k),pO(k)]
für p vorgenommen werden.

Betrachtung vor der Datenerhebung

Erneut nehmen wir die folgenden beiden Standpunkte ein:

Vor der Durchführung des ZE ist die Trefferzahl T eine ZV. Da die Trefferzahl in die Intervallschätzfunktion eingesetzt werden soll, hängt somit auch das berechnete Intervall
B(T)=[pU(T),pO(T)]
vom Zufall ab. Damit ist es auch vom Zufall abhängig, ob die resultierende Aussage
p[pU(T),pO(T)]
wahr oder falsch sein wird.

Betrachtung nach der Datenerhebung

Nach dem Feststellen einer konkreten Trefferzahl T=k kann man diese einfach in die Schätzfunktion einsetzen und erhält so in der Praxis eine konkrete Intervallschätzung
B(k)=[pU(k),pO(k)]
für p. Die Aussage
p[pU(k),pO(k)]
ist dann nicht mehr vom Zufall abhängig, sondern entweder wahr oder falsch. (Leider weiß man nicht, welcher der beiden Fälle eingetreten ist, da man p nicht kennt.)

Intervallschätzung als Abbildung

Sei [0,1]={[a,b]; 0ab1} die Menge der abgeschlossenen Teilintervalle von [0,1].

Eine Intervallschätzung (bzw. Bereichsschätzung) für p ist eine Abbildung: B:{0,,n}Menge der möglichen Werte für die ZV T[0,1]Menge von Teilmengen der Mengealler in Frage kommenden Werte von pkkonkrete TrefferzahlB(k)=[pU(k),pO(k)]konkrete Intervallschätzung für p

Beurteilung einer Intervallschätzung

Um Intervallschätzungen sinnvoll beurteilen zu können, untersuchen wir die (vom unbekannten Parameter p abhängige) Wahrscheinlichkeit dafür, dass man ein "korrektes Intervall" (also eines, dass p tatsächlich enthält) berechnet, wenn man die (vom Zufall abhängige) Trefferzahl einsetzt.

Überdeckungswahrscheinlichkeit und Konfidenzniveau

Gegeben sei eine Intervallschätzfunktion: B:{0,,n}[0,1], B(k)=[pU(k),pO(k)]

Überdeckungswahrscheinlichkeit

Für einen denkbaren Parameterwert p[0,1] definiert man die Überdeckungswahr-scheinlichkeit von B an der Stelle p durch:
PB(p)=P(B(T)p)=P([pU(T),pO(T)]p)=k{0,,n},B(k)p(nk)pk(1p)nk

Anmerkung

Die Schreibweise B(T)p ist mathematisch gleichbedeutend zu pB(T), hat aber den Vorteil, dass dabei deutlich wird, dass B(T) (und nicht p) vom Zufall abhängt. Anstatt zu sagen: p ist in B(T) enthalten." formuliert man daher auch B(T) fängt p ein."

Konfidenzniveau

Gilt PB(p)δ für eine feste Zahl δ[0,1], so sagt man auch:
"Die Intervallschätzung B hält das Konfidenzniveau δ ein."

Bedeutung 1

Die Überdeckungswahrscheinlichkeit entspricht der Wahrscheinlichkeit dafür, dass man ein korrektes Intervall erhalten wird, wenn man die zufällige Trefferzahl T in die Intervallschätzung B einsetzt. Da die Überdeckungswahrscheinlichkeit vom unbekannten Parameter p abhängt, kann man sie in der Praxis nicht berechnen.

Bedeutung 2

Weiß man aber (aufgrund theoretischer Überlegungen), dass eine Intervallschätzung ein bestimmtes Konfidenzniveau δ einhält, so ist (unabhängig vom wahren Wert von p) garantiert, dass man MINDESTENS mit der Wahrscheinlichkeit δ ein korrektes Intervall erhalten wird, wenn man die zufällige Trefferzahl T in die Intervallschätzung B einsetzt.

In der Praxis sollte man nur Intervallschätzungen verwenden, von denen man weiß, dass sie ein hohes Konfidenzniveau (üblich sind δ=0.9 oder δ=0.95 oder δ=0.99) einhalten.

Ziel

Wie findet man zu einem vorgegebenen Konfidenzniveau δ=z.B.0.95 eine Intervallschätzung, die dieses Konfidenzniveau garantiert einhält.

Intervallschätzung nach Clopper-Pearson

Vorgegeben sei δ]0,1[.

Für k{0,,n} bestimmt man pU=pU(k)und pO=pO(k)aus den Gleichungen:
j=kn(nj)pUj(1pU)nj=1δ2
j=0k(nj)pOj(1pO)nj=1δ2
Dann hält die Intervallschätzung B:{0,,n}[0,1], B(k)=[pU(k),pO(k)] garantiert das Konfidenzniveau δ ein.

Ausnahmen

Ausnahme sind folgende Sonderfälle:
Für k=0 setze pU=pU(0)=0, für k=n setze pO=pO(n)=1.

Anmerkung

Obige Bestimmungsgleichungen für pU und pO sind ohne Computereinsatz kaum zu lösen. Konfidenzintervalle nach Clopper-Pearson können aber in R direkt berechnet werden. Der Befehl
binom.test(k,n,conf.level=δ)$conf.int[1:2]
ergibt das Konfidenzintervall zum Vertrauensniveau δ bei kTreffern in nVersuchen.

Bemerkung 1

Obergrenzen für die Wahrsch. für Über- bzw. Unterschätzung von p:
Die Grenzen pUund pOder Intervallschätzung nach Clopper-Pearson aus Satz Intervallschätzung nach Clopper-Pearson sind so gewählt, dass die Wahrscheinlichkeiten für "Unterschätzung" und "Überschätzung" von p durch dieselbe Grenze beschränkt sind. Genauer: P(p>pO(T)Unterschätzung)1δ2undP(p<pU(T)Unterschätzung)1δ2

Bemerkung 2

Zusammen ergibt sich damit

P(p[pU(T),pO(T)]falsche Schätzung)1δ

und folglich

P(p[pU(T),pO(T)]korrekte Schätzung)δ

Dass man diesen Aussagen überhaupt eine Wahrscheinlichkeit zuschreiben kann, liegt daran dass die Intervallgrenzen pU(T) und pO(T) zufällig sind (und nicht etwa der unbekannte, aber feste Wert p).

Beispiel 1.1

Für n=100 und k=71 ergeben sich die Intervallgrenzen als Lösungen der Gleichung

1δ2=j=71100(100j)pUj(1pU)100j

und

1δ2=j=071(100j)pOj(1pO)100j
Beispiel 1.2

Hierbei wären also Polynome vom Grad

n=100

aufzulösen. Mit R berechnen wir:

Für δ=0.6 ist [pU,pO]=[0.665,0.751].Für δ=0.8 ist [pU,pO]=[0.644,0.769].Für δ=0.9 ist [pU,pO]=[0.626,0.784].Für δ=0.99 ist [pU,pO]=[0.580,0.819].

Beispiel 2.1

Für n=20 erhält man zum Konfidenzniveau δ=0.8 mit der Clopper-Pearson-Methode abhängig von k die folgenden (mit R berechneten) Konfidenzintervalle B(k)=[pU(k),pO(k)]:
k0123456B(k)[0,0.109][0.005,0.181][0.027,0.245][0.056,0.304][0.090,0.361][0.127,0.415][0.166,0.467]HLINE TBDk78910111213B(k)[0.207,0.518][0.249,0.567][0.292,0.615][0.338,0.662][0.385,0.707][0.433,0.751][0.482,0.793]HLINE TBDk14151617181920B(k)[0.533,0.834][0.585,0.873][0.639,0.910][0.696,0.944][0.755,0.973][0.819,0.995][0.891,1]

Beispiel 2.2

Wir berechnen für verschiedene denkbare Werte von p, die Überdeckungswahrscheinlichkeit (also die Wahrscheinlichkeit dafür, dass die Intervallschätzung korrekt ist):

Beispiel 2.3

Angenommen, es ist p=0.3. Dann ist die Intervallschätzung für T{3,4,5,6,7,8,9} korrekt. Die Wahrscheinlichkeit dafür ist:
PB(0.3)=P(B(T)0.3)=P(3T9)=0.917

Beispiel 2.4

Angenommen, es ist p=0.52. Dann ist die Intervallschätzung für T{8,9,10,11,12,13} korrekt. Die Wahrscheinlichkeit dafür ist:
PB(0.52)=P(B(T)0.52)=P(8T13)=0.822

Beispiel 2.5

Angenommen, es ist p=0.88. Dann ist die Intervallschätzung für T{16,17,18,19} korrekt. Die Wahrscheinlichkeit dafür ist: PB(0.88)=P(B(T)0.88)=P(16T19)=0.840

Beispiel 2.6

Angenommen, es ist p=1. Dann ist die Intervallschätzung für k=20 korrekt. Die Wahrscheinlichkeit dafür ist:
PB(1)=P(B(T)1)=P(T=20)=1

Korrektheit der Schätzung

Es ist bewiesen, dass die Schätzung bei beliebigem p immer mindestens mit der Wahrscheinlichkeit δ korrekt ist.

Größe der Konfidenzintervalle 1

Bei fester relativer Häufigkeit werden die Konfidenzintervalle mit wachsender Versuchszahl kleiner (mit mehr Versuchen erreicht man eine höhere Genauigkeit) und mit wachsendem Konfidenzniveau größer (ein höheres Konfidenzniveau "bezahlt"man mit einer ungenaueren Aussage). Man beachte die Größenordnungen dieser Veränderungen anhand der folgenden (mit R berechneten) Konfidenzintervalle:

Größe der Konfidenzintervalle 2

k/n3/1030/100300/10003000/1000030000/100000δ0.6[0.157,0.484][0.258,0.346][0.287,0.313][0.296,0.304][0.298,0.302]0.8[0.115,0.552][0.239,0.367][0.281,0.320][0.294,0.306][0.298,0.302]0.9[0.087,0.607][0.224,0.385][0.276,0.325][0.292,0.308][0.297,0.303]0.95[0.066,0.653][0.212,0.400][0.271,0.330][0.291,0.310][0.297,0.303]0.99[0.037,0.735][0.189,0.431][0.263,0.339][0.288,0.312][0.296,0.304]

Bemerkung Verwendung von Intervallschätzungen in der Praxis 1

In der Praxis ist bei der Verwendung von Intervallschätzungen wie folgt vorzugehen:

1. Zunächst macht man sich die Situation klar: Die Trefferwahrscheinlichkeit p einer Binomialverteilung ist unbekannt (aber fest, d.h. nicht vom Zufall abhängig).
2. Man legt fest:

  • das Verfahren, mit dem man die Intervallschätzung berechnen wird. (z.B. zweiseitiger Test nach Clopper-Pearson).
Bemerkung Verwendung von Intervallschätzungen in der Praxis 2
  • eine Versuchszahl n
    zu beachten:
    Hohe Werte von n führen zu einem engeren Konfidenzintervall.
  • ein Konfidenzniveau δ]0,1[
    zu beachten:
    Hohe Werte von δ entsprechen einer höheren Untergrenze für die Wahrscheinlichkeit einer korrekten Schätzung, führen aber zu einem breiteren Konfidenzintervall. Sinnvoll ist z.B. δ=0.95.
Bemerkung Verwendung von Intervallschätzungen in der Praxis 3

3. Man führt die Versuchsreihe durch und stellt die Trefferzahl T=k fest.
Zu beachten:
Wichtig bei einer Binomialverteilung ist, dass die einzelnen Versuche unabhängig voneinander und immer unter den gleichen Bedingungen durchgeführt werden.

Bemerkung Verwendung von Intervallschätzungen in der Praxis 4

4. Man berechnet das Konfidenzintervall [pU(k),pO(k)] mit der zuvor festgelegten Methode. (Dies kann der Computer erledigen.)

5. Man verkündet das Ergebnis:

p[pU(k),pO(k)]mit dem Zusatz: 

" Das Konfidenzniveau

δ

wurde eingehalten." Damit ist klar: Vor Erhebung der Daten war die Wahrscheinlichkeit ein korrektes Intervall zu erhalten, mindestens

δ

. Nach Berechnung des Intervalls kann man damit der Aussage

p[pU(k),pO(k)]

ein gewisses Vertrauen entgegenbringen (aber keine Wahrscheinlichkeit zuweisen, sie ist entweder wahr oder falsch).

Bemerkung Einseitig begrenzte Konfidenzintervalle

In gewissen Situationen kann es Sinn machen, die Clopper-Pearson-Methode so zu modifizieren, dass man einseitig (statt wie bisher zweiseitig) begrenzte Konfidenzintervalle berechnet.


Beispiel 3

Ist p beispielsweise die Wahrscheinlichkeit dafür, dass eine bestimmte Maßnahme einen gewünschten Erfolg erzielt, so könnte es wichtig sein, p (möglichst strikt) nach unten abzuschätzen, aber eine Abschätzung von p nach oben ist nicht notwendig.
Dazu kann man linkssseitig begrenzte Konfidenzintervalle verwenden.

Beispiel 4

Ist p beispielsweise die Wahrscheinlichkeit dafür, dass bei der Einnahme eines Medikaments eine (unerwünschte) Nebenwirkung auftritt, so könnte es wichtig sein, p (möglichst strikt) nach oben abzuschätzen, aber eine Abschätzung von p nach unten ist nicht notwendig.
Dazu kann man rechtsseitig begrenzte Konfidenzintervalle verwenden.

Einseitig begrenze Konfidenzintervalle

Einseitig begrenze Konfidenzintervalle zu einem vorgegebenen Konfidenzniveau δ(0,1) werden wie folgt berechnet:

Linksseitig begrenzte Konfidenzintervalle

Bei k Treffern aus n Versuchen bestimmt man das linksseitig begrenzte Konfidenzintervall [pU,1] zum Vertrauensniveau δ durch
j=kn(nj)pUj(1pU)nj=1δ
(Sonderfall: Für k=0 setze pU=0.)

Rechtsseitig begrenzte Konfidenzintervalle

Bei k Treffern aus n Versuchen bestimmt man das rechtsseitig begrenzte Konfidenzintervall [0,pO] zum Vertrauensniveau δ durch
j=0k(nj)pOj(1pO)nj=1δ
(Sonderfall: Für k=n setze pO=1.)

Überschätzung bei linksseitig begrenzten Konfidenzintervallen

Linksseitig begrenzte Konfidenzintervalle dürfen den Wert von p mit einer Wahrscheinlichkeit von bis zu 1δ überschätzen (statt 1δ2 wie bei den zweiseitigen Intervallschätzungen). Um dies auszugleichen, unterschätzen sie den Wert von p nie (die obere Grenze ist 1). Die untere Grenze kann daher im Vergleich zum zweiseitigen Test etwas besser (größer) gewählt werden.

Unterschätzung bei rechtsseitig begrenzten Konfidenzintervallen

Rechtsseitig begrenzte Konfidenzintervalle dürfen den Wert von p mit einer Wahrscheinlichkeit von bis zu 1δ unterschätzen (statt 1δ2 wie bei den zweiseitigen Intervallschätzungen). Um dies auszugleichen, überschätzen sie den Wert von p nie (die untere Grenze ist 0). Die obere Grenze kann daher im Vergleich zum zweiseitigen Test etwas besser (kleiner) gewählt werden.

Berechnung in R

In R berechnet man einseitige Konfidenzintervalle nach Clopper-Pearson mit

binom.test(k,n,conf.level=delta, alternativ= "greater ")$conf.int[1:2] #linksseitig begrenzt
binom.test(k,n,conf.level=delta, alternativ= "less ")$conf.int[1:2] #rechtsseitig begrenzt

Beispiel 5

Konfidenzintervalle im Vergleich für k=112,n=200kn=0.56:
δ0.80.90.95beidseitig begrenzt[0.512,0.607][0.499,0.620][0.488,0.630]linksseitig begrenzt[0.527,1][0.512,1][0.499,1]rechtsseitig begrenzt[0,0.591][0,0.607][0,0.620]

Bestimmung der Intervallgrenzen

Allgemein bestimmt man aus den Gleichungen j=kn(nj)pUj(1pU)nj=αU(und pU=0, falls k=0) j=0k(nj)pOj(1pO)nj=αO(und pO=1, falls k=n) die Grenzen einer Intervallschätzung [pU,pO], die den Wert von p mit einer Wahrscheinlichkeit von höchstens αU überschätzt und mit einer Wahrscheinlichkeit von höchstens αO unterschätzt.

Konfidenzniveau der Schätzung

Das heißt, es gilt
P(p<pU)αUundP(p>pO)αO
und damit
P(p[pU,pO])1αUαO
Damit ist δ=1αUαO das Konfidenzniveau der Schätzung.

Beispiel 6

Für δ=0.95 hat man zum Beispiel folgende Möglichkeiten:
P(p<pU)P(p>pO)P(p[pU,pO])P(p[pU,pO])αU=0.025,αO=0.025zweiseitig, αU=αO0.0250.0250.050.95αU=0.05,αO=0linksseitig begrenzt0.0500.050.95αU=0,αO=0.05rechtsseitig begrenzt00.050.050.95αU=0.04,αO=0.01zweiseitig,αU=αO0.040.010.050.95αU=0.02,αO=0.03zweiseitig,αU=αO0.020.030.050.95

Aufgabe 3.1

Bei einer bestimmten Tierart kann bei bestimmten Nachkommen eine morphologische Veränderung beobachtet werden. Die genaue Wahrscheinlichkeit p dafür, dass ein neugeborenes Tier die morphologische Veränderung aufweisst, ist aber unbekannt und soll geschätzt werden.
In einer Studie werden dazu 250 neugeborene Tiere untersucht. Von diesen Tieren weissen 180 die morphologische Veränderung auf.

Aufgabe 3.2

1. Geben Sie anhand der Daten eine Punktschätzung für p ab.
2. Stellen Sie die Maximum-Likelihood-Funktion auf
3. Es soll eine Intervallschätzung [pU,pO] für p zum Konfidenzniveau δ=0.9 abgegeben werden.

  • Geben Sie die Gleichungen an, anhand derer sich pU und pO bestimmen lassen (zweiseitige Intervallschätzung nach Clopper-Pearson). Verwenden Sie dazu wieder die erhobenen Daten (180 Nachkommen mit morphologischer Veränderung bei 250 untersuchten). Setzen Sie alle bekannten Zahlenwerte in die Gleichungen ein.
Aufgabe 3.3
  • Berechnen Sie mit R die Grenzen pU und pO.
  • Erklären Sie, inwiefern die Korrektheit der Intervallschätzung p[pU,pO] vom Zufall abhängt. Was weiß man über die Wahrscheinlichkeit, dass die Intervallschätzung korrekt ist? Unterscheiden Sie bei Ihren Erläuterungen die Situation vor und nach der Datenerhebung (bzw. der Berechnung der Intervallgrenzen).
Aufgabe 3.4
  • Wie ändert sich die Breite des Konfidenzintervalls, wenn man das Konfidenzniveau von 0.9 auf 0.95 erhöht?
  • Wie verändert sich die Breite des Konfidenzintervalls, wenn man statt 180 morphologisch auffälligen von 250 untersuchten neugeborenen Tieren eine Untersuchung mit 1800 von 2500 untersuchten neugeborenen Tieren zugrunde legt?

Seiteninformation

Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.

Wiki2Reveal

Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Kurs:Statistik für Anwender' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.