Kurs:Statistik für Anwender/Varianzanalyse

Aus testwiki
Zur Navigation springen Zur Suche springen

Varianzanalyse

Einfaktorielle Varianzanalyse

Situation und Hypothesenpaar

Situation: Gegeben sind m normalverteilte ZV X(1),,X(m) deren Standardabweichungen σ1,,σm (bzw. Varianzen) gleich sind.

Hypothesenpaar: H0:μ1=μ2==μmH1:μi=μjfür mindestens eine Kombination (i,j)

Äquivalent dazu (unter obigen Voraussetzungen): H0: X(1),,X(m) sind identisch verteilt.
H1:Mindestens zweiX(i),X(j)sind nicht identisch verteilt.

Benötigte Daten

m unabhängige Stichproben
x1(1), x2(1),,x(n1)(1)vonX(1)(Länge: n1)x1(2), x2(2),,x(n2)(2)vonX(2)(Länge: n2)x1(m), x2(m),,x(nm)(m)vonX(m)(Länge: nm)HLINE TBDGesamtstichprobenlänge: n=k=1mnk

Mittelwerte

Man berechnet aus den Stichproben:

  • die Gruppenmittelwerte (’mean of groups’): x(k)=1nki=1nkxi(k)(k=1,,m)
  • den Gesamtmittelwert (’grand mean’): x=1nk=1mi=1nkxi(k)

Beachte: Es gilt: x=1nk=1mnkx(k)

Streumaße I

  • Die Summe der quadratischen Abweichungen aller Stichprobenwerte xi(k) vom Gesamtmittelwert x bezeichnet man mit: SSG=k=1mi=1nk(xi(k)x)2(grandsumofsquares)
  • Weiterhin bezeichnet man die Summe der quadratischen Abweichungen aller Stichprobenmittelwerte x(k) vom Gesamtmittelwert x mit: SST=k=1mi=1nk(x(k)x)2=k=1mnk(x(k)x)2
    (sumofsquaresoftreatments)
    SST ist ein Maß für die Unterschiede zwischen den verschiedenen Stichproben.

Streumaße II

  • Schließlich bezeichnet man die Summe der quadratischen Abweichungen aller Stichprobenwerte xi(k) vom jeweiligen Stichprobenmittelwerte x(k) mit: SSE=k=1mi=1nk(xi(k)x(k))2(sumofsquaresoferrors) SSE ist ein Maß für die Unterschiede innerhalb der einzelnen Stichproben.
    Man beachte, dass gilt: SSG=SST+SSE

Streumaße III

Man teilt nun SST und SSE durch die Zahl der jeweiligen Freiheitsgrade (falls H0 gilt, sind SST und MST jeweils χ2-verteilt mit m1 bzw. nm FG) und erhält die sogenannten ’mittleren quadratischen Abweichungen’ MST=SSTm1:('meansquareoftreatments')MSE=SSEnm:('meansquarederror')

Teststatistik

Aus SST und SSE berechnet man nun die Teststatistik wie folgt: T=MSTMSE=nmm1SSTSSE(hohe Werte sprechen gegen H0)
Idee: MSE stellt eine Schätzung für die Streuung innerhalb der einzelnen Stichproben dar. Im Gegensatz dazu schätzt MST die Streuung der verschiedenen Stichprobenmittelwerte um den Gesamtmittelwert. Nimmt man an, dass H0 gilt, sollte MST (im Vergleich zu MSE) klein sein, folglich ist T=MSTMSE eine Teststatistik, bei der man eher kleine Werte erwartet, falls H0 gilt.

p-Wert

Zur Berechung wird die F-Verteilung (bzw. Fisher-Verteilung) Fm1,nm mit den ’Freiheitsgraden’ m1 und nm benötigt. Es gilt: 𝔭=1Fm1,nm(T)
(Dies geht in R mit 1pf(T,m1,nm).)

Durchführung in R

Einlesen der Stichproben in einen gemeinsamen Vektor x zusammen mit einem Faktor g (gleicher Länge), der angibt, zu welcher Größe die jeweiligen Komponenten von x gehören. Dann: anova(lm(xg))

Beispiel 1.1

Verschiedene Drahtsorten (m=4) werden auf Zugfestigkeit untersucht. Dabei soll zu α=0.05 geprüft werden, ob die verschiedenen Drahtsorten (oder einige der Sorten) im erwarteten Mittel unterschiedliche Zugfestigkeiten aufweisen. Dazu nimmt man an, dass die ZV X(1), X(2),X(3), X(4), die die Zugfestigkeiten der verschiedenen Sorten beschreiben, normalverteilt mit gleicher Varianz sind und formuliert die Nullhypothese:
H0:μ1=μ2=μ3=μ4

Beispiel 1.2

Man erhält folgende Daten (in Nmm2):
HLINE TBDSorteStichprobe1x1(1),,xn1(1):13.7811.2711.0410.649.0711.022x1(2),,xn2(2):3.4310.545.127.427.9411.4613.1114.913x1(3),,xn3(3):12.5011.888.719.8115.661.7011.8014.134x1(4),,xn4(4):13.8110.8211.7111.535.51HLINE TBD

Daraus berechnet sich:
SST=17.53 und 𝔭=0.7076


Folglich zeigen die Daten keine siginifikanten Unterschiede zwischen den Zugfestigkeiten der verschiedenen Drahtsorten. Die Nullhypothese ist mit den Daten vereinbar.

Beispiel 1.3

Man kann obige Rechnungen auch in R durchführen lassen. Dies geht etwa mit x<c(13.78,11.27,,5.51)sorte<c(rep(1,6,rep(2,8),rep(3,8),rep(4,5))sorte<factor(sorte)anova(lm(xsorte))

Anmerkungen I

  • Die oben genannten Voraussetzungen für die Varianzanalyse mit dem F-Test können (und sollten) mit Hilfe von Vortests empirisch geprüft werden. Die Normalverteilungsannahme kann mit Shapiro-Wilks-Tests für jede der ZV X(1),,X(m) getestet werden. Die Annahme der Varianzgleichheit kann man dann mit einem sogenannten Bartlett-Test prüfen. Liefert einer der Vortests ein signifikantes Ergebnis (bzw. einen kleinen p-Wert), so kann der F-Test nicht verwendet werden. Man muss dann auf andere Testverfahren zurückgreifen. Beispielsweise kann dann der Test von Kruskal und Wallis verwendet werden.

Anmerkungen II

  • Falls die Varianzanalyse ein signifikantes Ergebnis liefert, wird dadurch lediglich angezeigt, dass nicht alle μi gleich sind. Zur Klärung der Frage,welche der μ1,,μn signifikant als verschieden angesehen werden können, stehen weitere Testverfahren zur Verfügung, bespielsweise der Scheffé-Test oder der Tukey-Test.

Aufgabe 1.1

In einer Studie soll untersucht werden, wie sich die Wildschweinpopulationsdichte auf den Traubenertrag im Weinbau auswirkt. Für die Studie wurden 3 Gebiete identifiziert, in denen Weinbau betrieben wird, die jedoch unterschiedliche Populationsdichten an Wildschweinen aufweißen. In jedem Gebiet befinden sich unterschiedlich viele Versuchsflächen, die jeweils gleich bewirtschaftet werden. Bei jeder Testfläche wurde am Ende der Traubensaison der Ertrag an Trauben in Tonnen pro Hektar ermittelt. Es ergeben sich folgende Daten:

GebietStichprobeLängex(m)sm2Gebiet 18.73,9.27,8.949.368.46n1=5x(1)=8.952s12=0.374Gebiet 29.43,10.27,8.19,9.01,10.38,7.41,7.93,8.76,9.36n2=9x(2)=8.971s22=1.026Gebiet 310.27,11.38,8.34,9.84n3=4x(3)=9.958s32=1.584gesamtn=18x=9.185

Aufgabe 1.2

  • Worauf sollte bei der Auswahl der Testgebiete geachtet werden? (Stichwort Randeffekte)
  • Überprüfen Sie mit dem Shapiro-Wilks- und dem Bartlett-Test (in R - keine Rechnung notwendig), ob die Voraussetzungen für die Einfaktorielle Varianzanalyse gegeben sind.

Der Tukey-Test (bzw. die Tukey-Methode)

Situation, Signifikanzniveau und Nullhypothese

Situation: Gegeben sind m normalverteilte ZV X(1),,X(m) deren Standardabweichungen σ1,,σm (bzw. Varianzen) gleich sind.

Signifikanzniveau: Es muss ein Signifikanzniveau α festgelegt werden.

Nullhypothesen: H0(k,l):μk=μl für k,l=1,,m mit k=l
Alle diese Nullhypothesen werden gemeinsam getestet. Das bedeutet: Falls alle H0(i,j) wahr sind, erhält man höchstens mit Wahrscheinlichkeit α mindestens ein signifikantes Ergebnis.

Benötigte Daten und Teststatistik

benötigte Daten: m unabhängige Stichproben gleicher Länge n0
x1(k), x2(k),,xn0(k)vonx(k)(k=1,,m)
Die Gesamtlänge n ergibt sich dann offenbar als n=mn0.

Teststatistik: Man berechnet zunächst paarweise die (betragsmäßigen) Differenzen der empirischen Mittelwerte, also |x(k)x(l)|(k=l)
und die mittlere quadratische Abweichung der Fehler MSE=1nmk=1mi=1n0(xi(k)x(k))2
Daraus berechnen sich die Teststatistiken als T(k,l)=n0MSE|x(k)x(l)|(k=l)
Offenbar sprechen hohe Werte dieser Statistik gegen H0(k,l).

p-Werte

p-Werte: Zur Berechung wird die studentisierte Spannweite Qm,nm mit den ’Freiheitsgraden’ m und nm benötigt. Zur Nullhypothese H0(k,l) ist der p-Wert gegeben durch:
𝔭(k,l)=1Qm,nm(T(k,l)) (k=l)
(Dies geht in R mit ptukey(x,m,n-m).)

Für die Paare (k,l), deren p-Wert kleiner oder gleich α sind, kann also die entsprechende Nullhypothese H0(k,l) verworfen werden. Man hat dann ein oder mehrere signifikante Ergebnisse zum gemeinsamen Niveau α, d.h. es wurde berücksichtigt, dass man mehrere Nullhypothesen getestet hat.

Durchführung in R

Einlesen der Stichproben in einen gemeinsamen Vektor x zusammen mit einem Faktor g (gleicher Länge), der angibt, zu welcher Größe die jeweiligen Komponenten von x gehören. Dann: TukeyHSD(aov(lm(xg)),conf.level=1α)

Zur Ausgabe gehören neben den p-Werten der einzelnen Nullhypothesen auch Konfidenzintervalle zum (gemeinsamen) Niveau 1α für die Differenzen der wahren Erwartungswerte μkμl. Diese Intervalle lassen sich mit plot(TukeyHSD(aov(lm(xg)),conf.level=1α)) auch graphisch darstellen.

Das bedeutet, dass (falls alle H0(k,l) gelten) die Wahrscheinlichkeit, dass alle berechneten Konfidenzintervalle die entsprechende wahre Erwartungswertdifferenz enthalten, mindestens 1α ist.

Variante

Für unterschiedliche Stichprobenlänge n1,,nm von X(1),,X(m) berechnet man die Teststatistiken wie folgt (Tukey-Kramer-Methode):
T(k,l)=|X(k)X(l)|MSE2(1nk+1nl)(k=l)

Beispiel 1.1

Wir betrachten die folgenden Stichproben (m=5,n0=6) zum Signifikantsniveau α=0.05.
SorteDatenx(1)x1(1)=89.4x2(1)=110.9x3(1)=95.0x4(1)=120.8x5(1)=94.2x6(1)=91.8x(2)x1(2)=129.0x2(2)=115.3x3(2)=54.9x4(2)=131.6x5(2)=119.9x6(2)=76.3x(3)x1(3)=127.4x2(3)=138.9x3(3)=116.7x4(3)=133.4x5(3)=145.0x6(3)=112.5x(4)x1(4)=117.5x2(4)=90.8x3(4)=121.2x4(4)=115.9x5(4)=145.3x6(4)=147.0x(5)x1(5)=168.2x2(5)=143.8x3(5)=113.7x4(5)=159.3x5(5)=146.3x6(5)=115.1

Man berechnet MSE=450.12 und MST=1737.98. Damit ergibt sich der p-Wert einer Varianzanalyse mit einem F-Tests zur Nullhypothese als p*=0.01412. Man kann also davon ausgehen, dass sich Erwartungswerte einiger der Größen unterscheiden.

Beispiel 1.2

Man möcht nun genauer wissen, welche der Erwartungswerte sich im einzelnen unterscheiden. Dazu führt man einen Tukey-Test durch. Insgesamt werden dabei 10 Vergleiche durchgeführt:
Nullhypothesep-WertNullhypothesep-Wertμ1=μ21Q5,25(T(1,2))=0.997μ2=μ41Q5,25(T(2,4))=0.568μ1=μ31Q5,25(T(1,3))=0.167μ2=μ51Q5,25(T(2,5))=0.045μ1=μ41Q5,25(T(1,4))=0.372μ3=μ41Q5,25(T(3,4))=0.987μ1=μ51Q5,25(T(1,5))=0.021μ3=μ51Q5,25(T(3,5))=0.859μ2=μ31Q5,25(T(2,3))=0.296μ4=μ51Q5,25(T(4,5))=0.585
Damit wird also signifikant angezeigt, dass sich die Großen X(1) und X(5) und auch die Großen X(2) und X(5) hinsichtlich ihrer Erwartungswerte unterscheiden.

Beispiel 1.3

Legt man ein Signifikanzniveau α=z.B0.05 fest, so kann man mit TukeyHSD eine Graphik erzeugen, die Konfidenzintervalle zum gemeinsamen Niveau 1α=0.95 zeigt:

image

Aufgabe

Nehmen Sie nun an, dass Sie in der vorherigen Aufgabe ein Signifikantes Ergebnis erhalten hätten. Berechnen Sie nun mithilfe der Tukey-Methode, zwischen welchen Gruppen signifikante Unterschiede existieren.

Zweifaktorielle Varianzanalyse

Es soll untersucht werden, ob eine ZV X (Zielvariable) durch zwei vorliegende Faktoren A und B beeinflusst wird. Die Faktoren A und B nehmen dabei nur endlich viele Werte (bzw. Ausprägungen) an (m Möglichkeiten für A und s Möglichkeiten für B).

Betrachtung als Zufallsvariablen

Man unterscheidet nun ZV
X(1,1),X(2,1),,X(m,1)X(1,2),X(2,2),,X(m,2),,,X(1,s),X(2,s),,X(m,s)
wobei X(k,r) die Größe X für die k-te Ausprägung von A und die r-te Ausprägung von B ist (k=1,,m, r=1,,s).

Voraussetzung und Nullhypothese

Vorausgesetzt für den folgenden Test wird, dass alle X(k,r) normalverteilt mit gleicher Varianz sind.
Man untersucht dabei die Nullhypothesen
H0:FaktorAhat keine Wirkung aufX
H0:FaktorBhat keine Wirkung auf X
H0:Es gibt keine Wechselwirkungen zwischenAundBim Hinblick aufX.

Stichproben

Zu jeder der ms vielen Größen benötigt man nun eine Stichprobe
x1(k,r),,xn0(k,r)der Länge n0
(Wir gehen der Einfachheit halber davon aus, dass alle Stichproben die gleiche Länge haben. Für ungleiche Stichprobenlängen wird es nochmals erheblich komplizierter.)

Zu berechnende Werte und Parameter I

Daraus berechnet man nun die folgenden Mittelwerte und Stichprobenlängen:

  • Einzelne Stichprobe (k=1,,m, r=1,,s fest): Länge:n0Mittelwert:x(k,r)=1n0i=1n0xi(k,r)

Zu berechnende Werte und Parameter II

  • Mit festem Wert für B zusammengefasste Stichprobe (r=1,,s fest): Länge:n0mMittelwert:x(,r)=1n0mk=1mi=1n0xi(k,r)=1mk=1mx(k,r)

Zu berechnende Werte und Parameter III

  • Mit festem Wert für A zusammengefasste Stichprobe (k=1,,m fest): Länge:n0sMittelwert:x(k,)=1n0sr=1si=1n(k,r)xi(k,r)=1sr=1sx(k,r)

Zu berechnende Werte und Parameter IV

  • Gesamte Stichprobe:
    Länge:n0msMittelwert:x(,)=1n0msk=1mr=1si=1n(k,r)xi(k,r)=1msk=1mr=1sx(k,r)=1mk=1mx(k,)=1sr=1sx(,r)

Quadratsummenzerlegung I

Es gilt die folgende Quadratsummenzerlegung: SSG=SSA+SSB+SS(AB)+SSE

Quadratsummenzerlegung II

Dabei ist:
Summe derzurückzu-FGmittlerequadratischen Abweichungenführen aufAbw.HLINE TBDSSA=n0sk=1m(x(k,)x(,))2Faktor Am1MSA=SSAm1SSB=n0mr=1s(x(,r)x(,))2Faktor Bs1MSB=SSBs1SS(AB)=n0k=1mr=1s(x(k,r)x(k,)x(,r)+x(,))2Wechsel-(m1)(s1)MS(AB)=SS(AB)(m1)(s1)wirkungenSSE=k=1mr=1si=1n0(xi(k,r)x(k,r))2zufälligems(n01)MSE=SSEms(n01)FehlerHLINE TBDSSG=k=1mr=1si=1n0(xi(k,r)x(,))2gesamtmsn01MSG=SSGmsn01

Teststatistik

Zu den oben angegebenen Nullhypothesen berechnet man nun Teststatistik und p-Wert wie folgt:

NullhypotheseTeststatistikp-WertX von A unabhängigTA=MSAMSE1Fm1,ms(n01)(TA)X von B unabhängigTB=MSBMSE1Fs1,ms(n01)(TB) keine Wechselwirkungen T(AB)=MS(AB)MSE1F(m1)(s1),ms(n01)(T(AB))

Durchführung in R

Man kann diese auch mit R durchführen. Man trägt dazu in einen Vektor x die Daten ein und in zwei Faktoren a und b (beide haben die gleiche Länge wie x) die Information, zu welcher Ausprägung von A bzw. B die Daten gehören. Dann erhält man mit:

anova(lm(xab)).


die benötigten Werte (Freiheitsgrade, Quadratsummen, mittlere Quadratsummen, Teststatistiken, p-Werte).

Beispiel 1.1

Gegeben seien die Faktoren A und B mit den Ausprägungen A1,A2,A3,A4 und B1,B2,B3, dem Signifikanzniveau α=0.05 und der folgenden Stichprobe:
A1A2A3A4B169;7779;8380;7875;67B261;6762;6474;7670;62B365;6972;7880;7470;76

Beispiel 1.2

Es ergibt sich:
pA=1Fm1,ms(n01)(TA)=1F3,12(5.8105)=0.0108

Somit kann die Nullhypothese, dass X unabhängig von A ist, verworfen werden.
Weiterhin ergibt sich:
pB=1Fs1,ms(n01)(TB)=1F2,12(10.5105)=0.0022

Somit kann auch diese Nullhypothese, dass X unabhängig von B ist, verworfen werden.
Weiterhin ergibt sich:
p(AB)=1F(m1)(s1),ms(n01)(T(AB))=1F6,12(1.6)=0.2298 Die Nullhypothese, dass es keine Wechselwirkung zwischen A und B im Hinblick auf X gibt, kann nicht wiederlegt werden, somit ist es anzunehmen, dass es keine Wechselwirkung gibt.

Seiteninformation

Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.

Wiki2Reveal

Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Kurs:Statistik für Anwender' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.