Chow-Test

Der Chow-Test ist ein statistischer Test, mit dem sich die Koeffizienten zweier linearer Regressionen auf Gleichheit testen lassen. Der Test ist nach seinem Erfinder, dem Ökonomen Gregory Chow, benannt.

Anwendungsgebiete

Der Chow-Test wird in der Ökonometrie verwendet, um Zeitreihen auf Strukturbrüche zu testen. Ein weiteres Anwendungsgebiet ist die Programmevaluation, hierbei werden zwei unterschiedliche Teilgruppen (Programme), wie zum Beispiel zwei Schultypen, miteinander verglichen. Im Gegensatz zur Zeitreihenanalyse lassen sich hier die beiden Teilgruppen keinen aufeinander folgenden Intervallen zuordnen, stattdessen erfolgt die Einteilung nach einem qualitativen Aspekt, wie zum Beispiel dem Schultyp.

Strukturbruch Programmevaluation

Bei x = 1 , 7 {\displaystyle x=1{,}7} liegt ein Strukturbruch vor, Regressionen auf den Teilintervallen [ 0 ; 1 , 7 ] {\displaystyle [0;1,7]} und [ 1 , 7 ; 4 ] {\displaystyle [1,7;4]} liefern eine bessere Modellierung als die Regression über dem Gesamtinterval (gestrichelt)

Vergleich zweier Programme (rot, grün) im selben Datensatz, separate Regressionen auf den zu einem Programm gehörigen Daten liefern eine bessere Modellierung als die Regression über den gesamten Datensatz (schwarz)

Vorgehen

Gegeben ist ein Datensatz ( Y i , X i ) {\displaystyle (Y_{i},X_{i})} mit X i = ( x i 1 , , x i k ) {\displaystyle X_{i}=(x_{i1},\ldots ,x_{ik})} für i = 1 N {\displaystyle i=1\ldots N} , dessen Beziehung durch eine lineare Funktion mit einem normalverteilten Fehler ( ϵ {\displaystyle \epsilon } ) mit Erwartungswert 0 ( E ( ϵ ) = 0 {\displaystyle E(\epsilon )=0} ) beschrieben wird (multiple Regressionsanalyse), d. h. man hat

Y i = c 0 + c 1 x i 1 + c 2 x i 2 + + c k x i k + ϵ i {\displaystyle Y_{i}=c_{0}+c_{1}x_{i1}+c_{2}x_{i2}+\ldots +c_{k}x_{ik}+\epsilon _{i}} für i = 1 N {\displaystyle i=1\ldots N} .

Man vermutet jedoch, dass sich der Datensatz in zwei Gruppen der Größen N a {\displaystyle N_{a}} und N b {\displaystyle N_{b}} aufteilen lässt, die durch zwei unterschiedliche lineare Funktionen besser beschrieben werden.

Y i = a 0 + a 1 x i 1 + a 2 x i 2 + + a k x i k + ϵ i {\displaystyle Y_{i}=a_{0}+a_{1}x_{i1}+a_{2}x_{i2}+\ldots +a_{k}x_{ik}+\epsilon _{i}} für i = 1 N a {\displaystyle i=1\ldots N_{a}}
Y i = b 0 + b 1 x i 1 + b 2 x i 2 + + b k x i k + ϵ i {\displaystyle Y_{i}=b_{0}+b_{1}x_{i1}+b_{2}x_{i2}+\ldots +b_{k}x_{ik}+\epsilon _{i}} für i = N a + 1 N a + N b {\displaystyle i=N_{a}+1\ldots N_{a}+N_{b}}

Hierbei ist N = N a + N b {\displaystyle N=N_{a}+N_{b}} und es wird die Hypothese H 0 : ( a 0 , a 1 , , a k ) = ( b 0 , b 1 , , b k ) {\displaystyle H_{0}\colon (a_{0},a_{1},\ldots ,a_{k})=(b_{0},b_{1},\ldots ,b_{k})} gegen H 1 : ( a 0 , a 1 , , a k ) ( b 0 , b 1 , , b k ) {\displaystyle H_{1}\colon (a_{0},a_{1},\ldots ,a_{k})\neq (b_{0},b_{1},\ldots ,b_{k})} getestet. Bezeichnet man die Summe der quadrierten Residuen der Regression über den gesamten Datensatz mit S {\displaystyle S} und über die beiden Teilgruppen mit S a {\displaystyle S_{a}} und S b {\displaystyle S_{b}} , dann folgt die unten definierte Testgröße T {\displaystyle T} einer F-Verteilung mit den Freiheitsgraden k + 1 {\displaystyle k+1} und N a + N b 2 ( k + 1 ) {\displaystyle N_{a}+N_{b}-2(k+1)} .

T := ( S ( S a + S b ) ) / ( k + 1 ) ( S a + S b ) / ( N a + N b 2 ( k + 1 ) ) {\displaystyle T:={\frac {(S-(S_{a}+S_{b}))/(k+1)}{(S_{a}+S_{b})/(N_{a}+N_{b}-2(k+1))}}}

Beispiel

Gegeben ist der folgende Datensatz, dessen Beziehung durch die lineare Funktion Y = c 0 + c 1 X {\displaystyle Y=c_{0}+c_{1}X} modelliert werden soll:

X i {\displaystyle X_{i}} 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5 6,0
Y i {\displaystyle Y_{i}} −0,043 0,435 0,149 0,252 0,571 0,555 0,678 3,119 2,715 3,671 3,928 3,962
Der Datenplot legt einen Strukturbruch bei x = 4 {\displaystyle x=4} nahe.

Ein Datenplot lässt vermuten, dass bei x = 4 {\displaystyle x=4} ein Strukturbruch vorliegt, daher teilt man den Datensatz in 2 Intervalle [ 0 , 5 ; 3 , 5 ] {\displaystyle [0{,}5;3{,}5]} und [ 4 , 0 ; 6 , 0 ] {\displaystyle [4{,}0;6{,}0]} ein und führt über diesen, zusätzlich zur Regression über den gesamten Datensatz, getrennte Regressionen durch. Dann testet man, ob die beiden Teilregressionen dieselbe lineare Funktion erzeugen, also H 0 : ( a 0 , a 1 ) = ( b 0 , b 1 ) {\displaystyle H_{0}\colon (a_{0},a_{1})=(b_{0},b_{1})} gegen H 1 : ( a 0 , a 1 ) ( b 0 , b 1 ) {\displaystyle H_{1}\colon (a_{0},a_{1})\neq (b_{0},b_{1})}

Regression auf dem gesamten Datensatz:

x ¯ = 1 12 i = 1 12 X i = 3,250 0 {\displaystyle {\overline {x}}={\frac {1}{12}}\sum _{i=1}^{12}X_{i}=3{,}2500} y ¯ = 1 12 i = 1 12 Y i = 1,666 0 {\displaystyle {\overline {y}}={\frac {1}{12}}\sum _{i=1}^{12}Y_{i}=1{,}6660}
S x x = i = 1 12 ( X i x ¯ ) 2 = 35,750 0 {\displaystyle S_{xx}=\sum _{i=1}^{12}(X_{i}-{\overline {x}})^{2}=35{,}7500} S y y = i = 1 12 ( Y i y ¯ ) 2 = 29,766 1 {\displaystyle S_{yy}=\sum _{i=1}^{12}(Y_{i}-{\overline {y}})^{2}=29{,}7661}
S x y = i = 1 12 ( X i x ¯ ) ( Y i y ¯ ) = 30,057 0 {\displaystyle S_{xy}=\sum _{i=1}^{12}(X_{i}-{\overline {x}})(Y_{i}-{\overline {y}})=30{,}0570} S = S y y S x y 2 S x x = 4,495 5 {\displaystyle S=S_{yy}-{\frac {S_{xy}^{2}}{S_{xx}}}=4{,}4955}

Regression auf [ 0 , 5 , 3 , 5 ] {\displaystyle [0{,}5,3{,}5]}

x ¯ = 1 7 i = 1 7 X i = 2,000 0 {\displaystyle {\overline {x}}={\frac {1}{7}}\sum _{i=1}^{7}X_{i}=2{,}0000} y ¯ = 1 7 i = 1 7 Y i = 0,371 0 {\displaystyle {\overline {y}}={\frac {1}{7}}\sum _{i=1}^{7}Y_{i}=0{,}3710}
S x x = i = 1 7 ( X i x ¯ ) 2 = 7,000 0 {\displaystyle S_{xx}=\sum _{i=1}^{7}(X_{i}-{\overline {x}})^{2}=7{,}0000} S y y = i = 1 7 ( Y i y ¯ ) 2 = 0,407 0 {\displaystyle S_{yy}=\sum _{i=1}^{7}(Y_{i}-{\overline {y}})^{2}=0{,}4070}
S x y = i = 1 7 ( X i x ¯ ) ( Y i y ¯ ) = 1,412 5 {\displaystyle S_{xy}=\sum _{i=1}^{7}(X_{i}-{\overline {x}})(Y_{i}-{\overline {y}})=1{,}4125} S a = S y y S x y 2 S x x = 0,122 0 {\displaystyle S_{a}=S_{yy}-{\frac {S_{xy}^{2}}{S_{xx}}}=0{,}1220}
Datenplot mit Regressionsgeraden

Regression auf [ 4 , 0 , 6 , 0 ] {\displaystyle [4{,}0,6{,}0]}

x ¯ = 1 5 i = 1 5 X i = 5,000 0 {\displaystyle {\overline {x}}={\frac {1}{5}}\sum _{i=1}^{5}X_{i}=5{,}0000} y ¯ = 1 5 i = 1 5 Y i = 3,479 0 {\displaystyle {\overline {y}}={\frac {1}{5}}\sum _{i=1}^{5}Y_{i}=3{,}4790}
S x x = i = 1 5 ( X i x ¯ ) 2 = 2,500 0 {\displaystyle S_{xx}=\sum _{i=1}^{5}(X_{i}-{\overline {x}})^{2}=2{,}5000} S y y = i = 1 5 ( Y i y ¯ ) 2 = 1,185 1 {\displaystyle S_{yy}=\sum _{i=1}^{5}(Y_{i}-{\overline {y}})^{2}=1{,}1851}
S x y = i = 1 5 ( X i x ¯ ) ( Y i y ¯ ) = 1,449 5 {\displaystyle S_{xy}=\sum _{i=1}^{5}(X_{i}-{\overline {x}})(Y_{i}-{\overline {y}})=1{,}4495} S b = S y y S x y 2 S x x = 0,344 6 {\displaystyle S_{b}=S_{yy}-{\frac {S_{xy}^{2}}{S_{xx}}}=0{,}3446}

Berechnung der Testgröße:

T := ( S ( S a + S b ) ) / ( k + 1 ) ( S a + S b ) / ( N a + N b 2 ( k + 1 ) ) = 34,534 5 {\displaystyle T:={\frac {(S-(S_{a}+S_{b}))/(k+1)}{(S_{a}+S_{b})/(N_{a}+N_{b}-2(k+1))}}=34{,}5345}

Wegen F 2 ; 8 ; 0 , 95 = 4,459 {\displaystyle F_{2;8;0,95}=4{,}459\,}   (Signifikanzniveau α = 0 , 05 {\displaystyle \alpha =0{,}05\,} ) gilt   T F 2 ; 8 ; 0 , 95 {\displaystyle T\geq F_{2;8;0,95}} . Somit kann die Nullhypothese H 0 {\displaystyle H_{0}\,} verworfen werden. Das heißt, die beiden Regressionsgeraden auf den Teilintervallen sind nicht identisch. Es liegt also ein Strukturbruch vor und die Teilregressionen liefern eine bessere Modellierung als die Regression über den gesamten Datensatz.

Literatur

  • Howard E. Doran: Applied Regression Analysis in Econometrics. CRC Press 1989, ISBN 0-8247-8049-3, S. 146 (Auszug in der Google-Buchsuche)
  • Christopher Dougherty: Introduction to Econometrics. Oxford University Press 2007, ISBN 0-19-928096-7, S. 194 (Auszug in der Google-Buchsuche)
  • Gregory C. Chow: Tests of Equality Between Sets of Coefficients in Two Linear Regressions. Econometrica. 28(3), 1960, S. 591–605 (JSTOR:1910133)

Weblinks

Commons: Chow test – Sammlung von Bildern, Videos und Audiodateien