Variansanalyse

Variansanalyse (ANOVA, fra det engelske «analysis of variance») er en fellesbetegnelse for en rekke statistiske metoder for å teste likhet mellom to eller flere utvalg, der én eller flere faktorer gjør seg gjeldende. Variansanalyse er i de enkle tilfellene et alternativ til Z/t-testene for å sammenligne gjennomsnitt i populasjoner.

De to grunnleggende formene for variansanalyse beskrives gjerne som 'enveis' og 'toveis' variansanalyse. I enveistilfellet hensyntar man kun én egenskap som varierer mellom gruppene, i toveistilfellet hensyntar man i tillegg egenskaper som varierer mellom individene i gruppene.

Variansanalyse med én faktor

Det enkleste tilfellet for variansanalyse er tilfellet der man har I {\displaystyle I} grupper med like størrelser J {\displaystyle J} , og ønsker å sammenligne gjennomsnittene til gruppene. Den brukes gjerne der man ønsker å sammenligne forskjeller i respons på forskjellige behandlinger (treatments) i forskjellige grupper.

Hypotesen man tester er for et antall populasjoner[1] I {\displaystyle I}

  1. H 0 :   μ 1 = μ 2 = = μ I {\displaystyle H_{0}:\ \mu _{1}=\mu _{2}=\dots =\mu _{I}}
  2. H A : {\displaystyle H_{A}:} minst to av gruppene er forskjellige.

Forutsetningene for testen er at alle observasjonene er uavhengige normalfordelte tilfeldige variable med lik varians.

Kvadratavvik og varians

De fundamentale størrelsene i variansanalysen er kvadratavvik totalt (SST), kvadratavvik mellom individ og gruppe (SSE) og kvadratavvik mellom gruppe og totalt gjennomsnitt (SSTr). Disse er definert ved[2]
S S T = i j ( x i j x ¯ . . ) 2 = i j x i j 2 x . . 2 I J {\displaystyle SST=\sum _{i}\sum _{j}(x_{ij}-{\overline {x}}_{..})^{2}=\sum _{i}\sum _{j}x_{ij}^{2}-{\frac {x_{..}^{2}}{IJ}}}
S S T r = i j ( x ¯ i . x ¯ . . ) 2 = i X i . 2 J x . . 2 I J {\displaystyle SSTr=\sum _{i}\sum _{j}({\overline {x}}_{i.}-{\overline {x}}_{..})^{2}={\frac {\sum _{i}X_{i.}^{2}}{J}}-{\frac {x_{..}^{2}}{IJ}}}
S S E = i j ( x i j x ¯ i . ) 2 {\displaystyle SSE=\sum _{i}\sum _{j}(x_{ij}-{\overline {x}}_{i.})^{2}}

Sammenhengen mellom disse gir opphav til den fundamentale ANOVA-identiteten SST = SSTr + SSE.[3] Videre har vi at[4]
M S T r = S S T r I 1 {\displaystyle MSTr={\frac {SSTr}{I-1}}}
M S E = S S E I ( J 1 ) {\displaystyle MSE={\frac {SSE}{I(J-1)}}}

Dette gir opphavet til det man kaller en ANOVA-tabell:[5]

Variasjonskilde Frihetsgrader Kvadratavvik Varians f-verdi
Grupper I - 1 SSTr MSTr = SSTr/(I - 1) MSTr/MSE
Error I(J - 1) SSE MSE = SSE/[I(J - 1)]
Total IJ - 1 SST

Test av nullhypotesen

For å teste nullhypotesen, bruker man ofte en f-test. Testobservatoren er gitt ved[4]
f = M S T r M S E {\displaystyle f={\frac {MSTr}{MSE}}}

som er tilnærmet F I 1 , I ( J 1 ) {\displaystyle F_{I-1,I(J-1)}} -fordelt. Forkastningsområdet for H 0 {\displaystyle H_{0}} er f F α , I 1 , I ( J 1 ) {\displaystyle f\geq F_{\alpha ,I-1,I(J-1)}} for ønsket signifikansnivå α {\displaystyle \alpha }

Tukeys prosedyre


F-testen er ment for å sammenligne gjennomsnittene i flere populasjoner, men den gir ikke svar på hvilke av populasjonene som er signifikant ulike hverandre. Tukeys prosedyre bruker en Q-fordeling til å beregne hvilke intervaller gjennomsnittene i populasjonen kan ligge i for å være signifikant like hverandre. For et signifikansnivå α {\displaystyle \alpha } definerer vi w {\displaystyle w} som

w = Q α , I , I ( J 1 ) M S E / J {\displaystyle w=Q_{\alpha ,I,I(J-1)}{\sqrt {MSE/J}}}

De gjennomsnittene som har større differanse enn w {\displaystyle w} er være signifikant ulike, med signifikansnivå α {\displaystyle \alpha } [6]

Relasjon til t-testen

For tilfellet med to populasjoner, vil variansanalyse og en alminnelig t-test gi samme resultat for hypotesen H 0 :   μ 1 = μ 2 {\displaystyle H_{0}:\ \mu _{1}=\mu _{2}} mot H A :   μ 1 μ 2 {\displaystyle H_{A}:\ \mu _{1}\neq \mu _{2}} . T-testen er mer fleksibel, da man og kan teste hvorvidt et gjennomsnitt er større enn, eller mindre enn et annet.

For I > 2 {\displaystyle I>2} kan man i prinsippet også utføre t-tester for alle kombinasjoner av grupper, men dette vil gi større sannsynlighet for type 1-feil.[7]

Referanser

  1. ^ Devore/Berk 2007, side 540.
  2. ^ Devore/Berk 2007, side 544.
  3. ^ Devore/Berk 2007, side 547.
  4. ^ a b Devore/Berk 2007, side 545.
  5. ^ Devore/Berk 2007, side 548.
  6. ^ Devore/Berk 2007, side 552.
  7. ^ Devore/Berk 2007, side 557, 563.

Kilder

  • Jay L. Devore and Kenneth N. Berk: Modern Mathematical Statistics with Applications. Thomson 2007.
  • v
  • d
  • r
Statistikk
Deskriptiv statistikk
Kategoriske variabler
Målenivå
  • Nominalnivå
  • Ordinalnivå
Kontinuerlige variabler
Målenivå
  • Intervallnivå
  • Skalanivå
Sentralitet
  • Gjennomsnitt
    • Aritmetisk
    • Geometrisk
    • Harmonisk
  • Median
  • Typetall
Spredning
Moment
Statistiske grafer
Statistisk inferens
og
hypotesetest
Inferens
Forsøksdesign
Utvalgsstørrelse
  • Statistisk styrke
  • Effektstørrelse
  • Standardfeil
  • Momentmetodem
  • Tetthetsestimering
Statistiske tester
Overlevelsesanalyse
  • Overlevelsesfunksjon
  • Kaplan–Meier
  • Logrank-test
  • Feilrate
  • Cox-regresjon
Korrelasjon
og
regresjonsanalyse
Korrelasjon
Lineær regresjon
Ikke-standard
  • Ikke-lineær regresjon
  • Ikke-parametrisk
  • Semi-parametrisk
  • Robust
Non-normal feilledd
  • Generalisert lineær modell
  • Binomisk
  • Poisson
  • Logistisk
Multivariat statistikk
Tidsserieanalyse
  • Dekomponering
  • Trendestimering
  • Box–Jenkins
  • ARMA-modeller
  • Spektraltetthetsestimering
  • Kategori
  • Portal
Oppslagsverk/autoritetsdata
MathWorld · NKC