Kurs:Statistik für Anwender/Kurzvorstellung weiterer Hypothesentests

Aus testwiki
Zur Navigation springen Zur Suche springen

Kurzvorstellung weiterer Tests

Beispiele siehe R-Skript unter GitHub.
In diesem Kapitel sollen einige weitere Tests vorgestellt werden, die für gewisse Anwendungen relevant sind. Auf die konkrete (meist kompliziertere) Durchführung (d.h. Berechnung der Testsstatistik und des p-Werts) gehen wir nur kurz oder gar nicht ein. Unverzichtbar ist jedoch das Verständnis der zum jeweiligen Test gehörenden Nullhypothese.

Der Kolmogoroff-Smirnov-Test

Einstichprobenfall

Situation, Nullhypothese und Daten

Situation: Gegeben sei eine beliebige stetige ZV X.

Nullhypothese: H0:X ist nach 𝒱 verteilt (Anpassungstest)
mit einer hypothetischen (genau festgelegten) stetigen Verteilung 𝒱 mit Verteilungsfunktion F=F𝒱

Benötigte Daten: Stichprobe x1,,xn

Teststatistik I

Teststatistik: Man bestimmt zunächst (in Abhängigkeit von b) die relative Häufigkeit der Xj, die b sind, also
F^(b)=Anzahl der j mit xjbn
(F^ heißt empirische Verteilungsfunktion der Stichprobe x1,,xn)
und (zum Vergleich) die Wahrscheinlichkeit, dass Xb ist (falls H0 gilt), also AngenommenH0giltX ist nach𝒱 verteilt
P(Xb)=F(b)

Teststatistik II

Die Teststatistik berechnet sich als die maximale Abweichung zwischen beiden Werten, also T=max\limits b|F^(b)F(b)|(also: T]0,1[)

Falls

H0

gilt, erwartet man nur eine geringe Abweichung zwischen den relativen Häufigkeiten und den entsprechenden Wahrscheinlichkeiten. Damit spricht ein hoher Wert von

T

gegen

H0

.

p-Wert

p-Wert: Die Berechnung des p-Werts aus der Teststatistik ist kompliziert, hängt aber nicht von 𝒱 (sondern nur von n) ab. Man kann den p-Wert mit Hilfe von Tabellen (für kleine n) oder Näherungsformeln (für große n) bestimmen. Wir wollen hier aber nicht näher auf die Berechnung eingehen.

Durchführung in R

Durchführung in R: mit dem Befehl ks.test: Einlesen der Stichprobe in einen Vektor x und dann beispielsweise

  • ks.test(x,pnorm,μ0,σ0) falls 𝒱 eine Normalverteilung (mit gegebenem EW μ0 und gegebener SA σ0) ist

  • ks.test(x,pexp,λ0) falls 𝒱 eine Exponentialverteilung mit (gegebenem Parameter λ0) ist

  • ks.test(x,punif,a0,b0) falls 𝒱 eine Gleichverteilung auf [a0,b0] ist (a0 und b0 gegeben)

  • ks.test(x,phyper,n0,p0) falls 𝒱 eine Binomialverteilung mit gegebenem EW μ0 und gegebener SA σ0 ist

Beispiel 1.1

Man testet die Nullhypothese
H0:Xist exponentialverteilt zum Parameterλ=0.04
anhand der folgenden Stichprobe x1,,x60: 52.8311, 18.7050, 50.0990, 12.6272, 4.6685, 10.4038, 9.9887, 10.0507, 16.4959, 17.9243, 40.7252, 17.3218,41.0517, 10.6209, 57.0423 22.3547, 25.6696, 81.8003, 14.9732, 19.5161, 7.6403, 15.2634, 8.4399, 51.6672,33.0068, 24.1089, 25.5034, 21.9979, 30.2195, 21.5132 5.9978, 31.4915, 24.4649, 29.6627, 47.5908, 7.7672,14.5258, 29.6643, 45.8296, 24.1878, 4.4035, 20.9660, 22.5832, 37.7884, 25.5992 76.1933, 17.3663, 33.2778,13.1282, 14.3334, 104.9793, 19.0887, 16.8213, 10.9322,7.2543, 19.9769, 31.6827, 21.6362, 21.1531, 23.3135

Beispiel 1.2

Damit erstellt man nun einen Plot der empirischen Verteilungsfunktion

F^

zu dieser Stichprobe (schwarz) und zum Vergleich die hypothetische Verteilungsfunktion

F

(rot) falls

H0

gilt, also:

F(b)=1exp(0.04b)(für b0)


(vergleiche die Verteilungsfunktion einer exponentialverteilten ZV)

Beispiel 1.3

image

Beispiel 1.4

Die Teststatistik ergibt sich als maximaler (vertikaler) Abstand der beiden Funktionsgraphen, es ist T=0.2127 (im Bild grün eingezeichnet).
In R berechnet man diese Teststatistik und den p-Wert einfach mit ks.test(x,pexp,0.04). Mit 𝔭=0.007334 hat man hier ein hochsignifikantes Ergebnis, es ist als davon auszugehen, dass die Daten keiner Exponentialverteilung mit λ=0.04 entstammen.

Variante: Test auf bestimmte Verteilung I

Man kann in manchen Fällen den KS-Test auch als Test auf eine bestimmte Verteilungsart einsetzen (z.B. Test auf Normalverteilung oder Test auf Exponentialverteilung), wobei man vor Berechnung der Teststatistik die unbekannten Parameter aus der Stichprobe schätzen muss. In diesem Fall ändert sich allerdings die Verteilung der Teststatistik. Die Berechnung des p -Werts ist dann abhängig von der hypothetischen Verteilungsart und kann sehr aufwändig werden. Für bestimmte hypothetische Verteilungsarten existieren Variationen des KS-Tests, z.B. der Lilliefors-Test zum Testen auf Normalverteilung.

Variante: Test auf bestimmte Verteilung II

Die Nullhypothese H0:FX=F𝒱 (FX: wahre Verteilungsfunktion von X, F𝒱: hypothetische Verteilungsfunktion) kann ersetzt werden durch
H0:FXF𝒱 in R: mit ks.test und der Option alternative=" greater"
H0:FXF𝒱 in R: mit ks.test und der Option alternative=" less"

Zweistichprobenfall

Situation, Nullhypothese und benötigte Daten

Situation: Gegeben seien zwei beliebige stetige ZV X,Y.

Nullhypothese:H0:XundYsind identisch verteilt (Homogenitätstest)

benötigte Daten: unabhängige Stichproben X1,,X(nX) und Y1,,Y(nY)

Teststatistik

Teststatistik: Man bestimmt zunächst (in Abhängigkeit von b) für X und Y die relative Häufigkeit der Stichprobenwerte, die b sind, also
F^X(b)=Anzahl der j mit XjbnXundF^Y(b)=Anzahl der j mit YjbnY (empirische Verteilungsfunktionen der beiden Stichproben)

Die Teststatistik berechnet sich als die maximale Abweichung zwischen beiden Werten, also T=T(X1,,X(nX), Y1,,Y(nY))=max\limits b|F^X(b)F^Y(b)|
(also: T[0,1[). Falls H0 gilt, erwartet man nur eine geringe Abweichung. Damit spricht ein hoher Wert von T gegen H0.

p-Wert und Durchführung in R

p-Wert: Die Verteilung von T ist kompliziert. Man kann den p-Wert mit Hilfe von Tabellen (für kleine nX,nY) oder Näherungsformeln (für große nX,nY) bestimmen. Wir wollen hier aber nicht näher auf die Berechnung eingehen.

Durchführung in R: mit dem Befehl ks.test: Einlesen der Stichproben in Vektoren x,y und dann ks.test(x,y)

Variante

Die Nullhypothese H0:FX=FY (FX bzw. FY: wahre Verteilungsfunktion von X bzw. Y) kann ersetzt werden durch
H0:FXFY in R: mit ks.test und der Option alternative=" greater"
H0:FXFY in R: mit ks.test und der Option alternative=" less"

H0:XundYsind unabhängig voneinander H1:XundYsind nicht unabhängig voneinander

Vorteile des KS-Tests

  • auch für kleine Stichproben geeignet.
  • verteilungsfrei (es muss keine Verteilungsart vorausgesetzt werden).
  • in R implementiert.

Nachteile des KS-Tests

  • recht aufwendig.
  • anfällig gegenüber sogenannten "Bindungen". Treten in den Stichproben mehrfach dieselben Werte auf (z.B. künstlich erzeugt durch Runden), so liefert der KS-Test keine korrekten Resultate (p-Werte) mehr.
  • für diskrete verteilte Größen nur noch bedingt einsetzbar: Die Berechnung des p-Werts wird möglicherweise ungenau, die Güte des Tests wird geringer und es treten häufig Probleme mit oben erwähnten Bindungen auf.

Der Shapiro-Wilks-Test

Situation: Gegeben sei eine beliebige stetige ZV X.

Nullhypothese:H0:X ist normalverteilt (Normalitätstest)

benötigte Daten: Stichprobe x1,,xn

Teststatistik und p-Wert: kompliziert und aufwendig, wir wollen hier nicht näher darauf eingehen

Durchführung in R: Einlesen der Stichprobe in einen Vektor x und dann shapiro.test(x)

Beispiel

Da der Shapiro-wilks-Test vergleichbar mit dem Anpassungstest ist, kann auf dieses Beispiel zurückgegriffen werden und wird hier nicht weiter aufgeführt.

Vorteile des SW-Tests

  • auch für kleine Stichproben gut geeignet (man erzielt insbesondere dann schon eine hohe Güte).
  • verteilungsfrei (es muss keine Verteilungsart vorausgesetzt werden).
  • in R implementiert.

Nachteile des SW-Tests

  • sehr speziell (nur für die Normalverteilungshypothese einsetzbar).
  • anfällig gegenüber ’Ausreißern’ (bei einigen extrem großen oder extrem kleinen Werten in der Stichprobe kann die Nullhypothese fälschlicherweise abgelehnt werden).
  • anfällig gegenüber Bindungen.
  • recht aufwendig (insbesondere für große n) und schwer verständlich.

Der Bartlett-Test

Situation und Nullhypothese

Situation: Gegeben seien m normalverteilte ZV X(1),,X(m).

Nullhypothese: H0:σ1=σ2==σm(’Dispersionsvergleich’)
Anmerkung: Die Varianzgleichheit ist für weitere Tests (insbesondere den noch folgenden F-Test) eine benötigte Voraussetzung. Mit einem Bartlett-Test kann dies vorab empirisch überprüft werden.

Benötigte Daten

m unabhängige Stichproben x1(1), x2(1),,x(n1)(1)vonX(1)(Länge: n1)x1(2), x2(2),,x(n2)(2)vonX(2)(Länge: n2)x1(m), x2(m),,x(nm)(m)vonX(m)(Länge: nm)HLINE TBDGesamtstichprobenlänge: n=k=1mnk
Dabei sollte nk5 für k=1,,m gelten (Faustregel).

Teststatistik I

Man berechnet zunächst zu den einzelnen Stichproben:

  • die arithmetischen Mittelwerte: x(k)=1nki=1nkxi(k)(k=1,,m)
  • die empirischen Varianzen (sk)2=1nk1i=1nk(xi(k)x(k))2(k=1,,m)


Daraus erhält man die sogenannte mittlere quadratische Abweichung der Fehler (’mean squared error’):
MSE=1nmk=1mi=1nk(xi(k)x(k))2=1nmk=1m(nk1)sk2

Teststatistik II

Daraus berechnet sich mit c=13(m1)(k=1m1nk11nm)+1 die Teststatistik als
T=1c((nm)ln(MSE)k=1m(nk1)ln((sk)2))

p-Wert

𝔭=1Sm1(T)
Dabei ist Sm1 die χ2-Verteilung mit m1 Freiheitsgraden.

Durchführung in R

Einlesen der Stichproben in einen gemeinsamen Vektor x zusammen mit einem Faktor g (gleicher Länge), der angibt zu welcher Größe die jeweiligen Komponenten von x gehören. Dann: bartlett.test(x ~ g)

Alternativ: Einlesen der einzelnen Stichproben in Vektoren, etwa x1,x2,,xm und dann: bartlett.test(list(x1,x2,,xm))

Anmerkung

Der Bartlett-Test ist anfällig gegenüberber Verletzungen der Normalverteilungsannahme. Sind die Größen X(1),,X(m) nicht normalverteilt, so liefert der Test keine korrekten Resultate (p-Werte).

Beispiel 1.1

Verschiedene Drahtsorten (m=4) werden auf Zugfestigkeit untersucht.

Wir nehmen an, dass die ZV X(1), X(2),X(3), X(4), die die Zugfestigkeiten der verschiedenen Sorten beschreiben, normalverteilt mit den Standardabweichungen σ1,,σ4 sind und untersuchen zunächst die Nullhypothese H0:σ1=σ2=σ3=σ4

Beispiel 1.2

Man erhält folgende Daten (in Nmm2): HLINE TBDSorteStichprobe1x1(1),,xn1(1):13.7811.2711.0410.649.0711.022x1(2),,xn2(2):3.4310.545.127.427.9411.4613.1114.913x1(3),,xn3(3):12.5011.888.719.8115.661.7011.8014.134x1(4),,xn4(4):13.8110.8211.7111.535.51HLINE TBD
Damit berechnet sich der p-Wert als 𝔭=0.1803, es liegt also kein signifikantes Ergebnis vor.

Der Kruskal-Wallis-Rangsummentest

Situation, Nullhypothese und benötigte Daten

Situation: Gegeben seien m beliebige ZV X(1),,X(m).

Nullhypothese: H0:X(1),,X(m) sind identisch verteilt (’Homogenitätstest’)

benötigte Daten: m unabhängige Stichproben zu X(1),,X(m)

Teststatistik und p-Wert

Dies wollen wir an dieser Stelle nicht ausführen.
Man beachte aber, dass zur Durchführung des Tests nur die ’Ränge’ der Stichprobenwerte verwendet werden. Die Differenzen zwischen den Werten beeinflussen das Testergebnis nicht. Daher ist der Kruskal-Wallis-Test auch für ZV geeignet, deren Ausprägungen nur ordinalskaliert sind.

Durchführung in R

Einlesen der Stichproben in einen gemeinsamen Vektor x zusammen mit einem Faktor g (gleicher Länge), der angibt zu welcher Größe die jeweiligen Komponenten von x gehören. Dann: kruskal.test(x,g)

Alternativ: Einlesen der einzelnen Stichproben in Vektoren, etwa x1,x2,,xm und dann: kruskal.test(list(x1,x2,...,xm))

Dixon’s Q-Test

Mit dem Dixon’s Q-Test können Ausreißer identifiziert werden. Dieser Test soll unter anderem laut Dixon sparsam und maximal einmal pro Datensatz verwendet werden und kann für beide Seiten gleichermaßen verwendet werden.

Situation, Nullhypothese und Teststatistik

Situation: Gegeben sei eine normalverteilte ZV X.
Nullhypothese: H0:xiist ein Ausreißer.
Benötigte Daten: Geordnete Datenreihe x1,...,xn mit n Elementen.
Teststatistik Q: Für die Teststatistik Q wird die absolute Differenz zwischen dem zu untersuchenden Wert xi und dem nächsten Wert (da geordnete Datenreihe xi+1 oder xi1) bestimmt und anschließend durch die Spannweite S(X) geteilt.
Q=min(|xixi+1|,|xixi1|)|xnx1|

Verwerfen der Hypothese

Gilt Q<QTabelle, so kann H0 abgelehnt werden (d.h. xi ist kein Ausreißer). QTabelle erhält man abhängig von der Stichprobengröße n und dem Konvidenzniveau δ aus der entsprechenden Tabelle. n345678910Q 900.9410.7650.6420.5600.5070.4680.4370.412Q 950.9700.8290.7100.6250.5680.5260.4930.466Q 990.9940.9260.8210.7400.6800.6340.5980.568

Beispiel

Stichprobe mit n=10 Werten und Konvidenznveau δ=0.95:
0.167, 0.177, 0.181, 0.181, 0.182, 0.183, 0.184, 0.186, 0.187, 0.189 H0:x1=0.167 ist ein Ausreißer.
H0 kann abgelehnt werden - x1 ist somit kein Ausreißer.

Seiteninformation

Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.

Wiki2Reveal

Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Kurs:Statistik für Anwender' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.