Normalidad de los errores
Fortino Vela Peón Universidad Autónoma Metropolitana
[email protected]
20/10/2011
Octubre, 2010 México, D. F.
1
Introducción Uno de los supuestos básicos del modelo de regresión
lineal clásico es el que los errores tengan distribución normal, esto es: y = Xβ + u yi = β1 + β 2 xi + ui ,o bien, donde
ui ≈ N (0, σ 2 )
,o bien,
u ≈ N (0, σ 2 I )
Con el cumplimiento del supuesto de normalidad se
tiene la justificación teórica para la utilización de pruebas estadísticas que involucren a las distribuciones t, F y χ2 (de uso muy común en la parte inferencial del modelo). No obstante, el supuesto de normalidad puede no ser
tan crucial cuando se emplean muestras grandes. 2
20/10/2011
Una propiedad de la distribución normal es que
cualquier función lineal de variables normalmente distribuidas estará también normalmente distribuidas.
βˆ1 y βˆ2 , son funciones lineales de ui entonces también siguen una distribución normal.
Dado que los estimadores de MCO,
βˆi ≈ N ( β i , σ β2ˆ ) i
De esta manera, si se trabaja con muestras de menos de
100 observaciones resulta crucial el verificar si los errores cumplen, de manera aproximada, una distribución normal.
20/10/2011
3
La prueba Jarque-Bera (JB) La literatura referente a probar la normalidad es vasta
(veáse White y MacDonald, 1980).
La prueba Jarque-Bera (1987) es una prueba que
considera los siguientes elementos para probar la normalidad de los errores de un modelo de regresión lineal. 2 [ ] E u = 0 donde E [ uu' ] = σ y = X β + u Sea Si u se encuentra normalmente distribuido, entonces
µ 3 = E [u 3 ] = 0 t
µ 4 = E [u 4 ] = 3σ 4 t
20/10/2011
La prueba JB toma este principio: “que tanto se desvían los coeficientes de asimetría4y curtosis”
Las medidas convencionales de asimetría (A) y curtósis
(K) están dadas, respectivamente*, por: µ3 µ4 b1 = 3 b2 = 4 σ σ La notación
y b 2 es tradicional en estadística y no debe confundirse con los estimadores del modelo. b1
b1 = A y b2 = K , se pueden estimar a partir de los residuales de MCO considerando que:
Los momentos señalados,
1 T i µˆ i = ∑ ut T t =1 20/10/2011
donde i=2,3,4 5
Así, el coeficiente de asimetría (A) es el tercer momento
respecto a la media. Mide el grado de simetría de la distribución de
probabilidad (que tan equilibrada o balanceada se encuentra). Si el coeficiente es mayor a cero, la distribución es
sesgada a la derecha, y en consecuencia presenta mayor número de observaciones a la izquierda. T
A=
3 u ∑ t n t =1
2 ∑ ut n t =1 T
20/10/2011
3
…(1) 2
6
Por su parte, el coeficiente de curtosis (K) es el cuarto
momento respecto a la media. Mide el grado de “picudez” o “apuntamiento” de la
distribución de probabilidad (que tan concentrada se encuentra). Cuando el coeficiente es centrado, si esté es diferente a
tres (mesocúrtica), la distribución muestra problemas. Platicúrtica si b2>3 o leptocúrtica si b2chi2 -------------+--------------------------------------------------------------residual | 12 0.9974 0.9250 0.01 0.9956 20/10/2011 20
Otras pruebas de normalidad en Stata Stata tiene incorporadas además las pruebas Shapiro-
Wilk (swilk) y Shapiro-Francia (sfrancia). puede utilizarse cuando 4 ≤ n ≤ 2000 observaciones, y sfrancia si 5 ≤ n ≤ 5000 observaciones.
swilk
En este sentido, la prueba sktest es la que puede
realizarse con más observaciones. Shapiro-Wilk W test for normal data Variable | Obs W V z Prob>z -------------+-------------------------------------------------residual | 12 0.98286 0.286 -2.437 0.99259
Shapiro-Francia W' test for normal data Variable | Obs W' V' z Prob>z -------------+-------------------------------------------------residual | 12 0.98218 0.332 -1.745 0.95952
20/10/2011
21
Conclusiones De no verificarse el supuesto de normalidad de los
errores, los estimadores continúan siendo insesgados. No obstante de no cumplirse la inferencia estadística
derivada del modelo puede no ser valida. Conforme aumente el tamaño de la muestra los errores
(y los estimadores de MCO) tienden a una distribución normal. Por lo tanto, bajo muestras grandes la inferencia
estadística del modelo puede ser valida. Con muestras reducidas es altamente recomendable verificar el supuesto. 20/10/2011
22
Referencias Gujarati, D. y D. Porter (2010). Econometría, 5ª. Ed., Mac
Graw Hill, México, cap. 4.
Jarque, Carlos M. y A. K. Bera (1987). “A Test for
Normality of Observations and Regression Residuals”, International Statistics Review, Vol. 55, pp. 163-177.
Judge, George et. al. (1988). Introducction to Theory and
Practice of Econometrics, John Wiley & Sons, Estados Unidos, pp. 890-892.
Vogelvang,
Ben (2005). Econometrics. Theory an Applications with EViews, Addison-Wesley, Malaysia, pp. 116-119.
White H. y G. M. MacDonald (1980).
“Some LargeSample Test for Non-normality in Linear Regression Model”, Journal of American Statistical Association, Vol. 75, pp. 16-28.
20/10/2011
23