Normalidad de los errores

20 oct. 2011 - id. Y. X residual (u) u2 u3 u4. 1. 69. 9. 6.00. 36.00. 216.00. 1296.00. 2. 76. 12. 3.25. 10.56. 34.33. 111.57. 3. 52. 6. -1.25. 1.56. -1.95. 2.44. 4. 56.
146KB Größe 253 Downloads 182 vistas
Normalidad de los errores

Fortino Vela Peón Universidad Autónoma Metropolitana [email protected]

20/10/2011

Octubre, 2010 México, D. F.

1

Introducción  Uno de los supuestos básicos del modelo de regresión

lineal clásico es el que los errores tengan distribución normal, esto es: y = Xβ + u yi = β1 + β 2 xi + ui ,o bien, donde

ui ≈ N (0, σ 2 )

,o bien,

u ≈ N (0, σ 2 I )

 Con el cumplimiento del supuesto de normalidad se

tiene la justificación teórica para la utilización de pruebas estadísticas que involucren a las distribuciones t, F y χ2 (de uso muy común en la parte inferencial del modelo).  No obstante, el supuesto de normalidad puede no ser

tan crucial cuando se emplean muestras grandes. 2

20/10/2011

 Una propiedad de la distribución normal es que

cualquier función lineal de variables normalmente distribuidas estará también normalmente distribuidas.

βˆ1 y βˆ2 , son funciones lineales de ui entonces también siguen una distribución normal.

 Dado que los estimadores de MCO,

βˆi ≈ N ( β i , σ β2ˆ ) i

 De esta manera, si se trabaja con muestras de menos de

100 observaciones resulta crucial el verificar si los errores cumplen, de manera aproximada, una distribución normal.

20/10/2011

3

La prueba Jarque-Bera (JB)  La literatura referente a probar la normalidad es vasta

(veáse White y MacDonald, 1980).

 La prueba Jarque-Bera (1987) es una prueba que

considera los siguientes elementos para probar la normalidad de los errores de un modelo de regresión lineal. 2 [ ] E u = 0 donde E [ uu' ] = σ y = X β + u Sea Si u se encuentra normalmente distribuido, entonces

µ 3 = E [u 3 ] = 0 t

µ 4 = E [u 4 ] = 3σ 4 t

20/10/2011

La prueba JB toma este principio: “que tanto se desvían los coeficientes de asimetría4y curtosis”

 Las medidas convencionales de asimetría (A) y curtósis

(K) están dadas, respectivamente*, por: µ3 µ4 b1 = 3 b2 = 4 σ σ  La notación

y b 2 es tradicional en estadística y no debe confundirse con los estimadores del modelo. b1

b1 = A y b2 = K , se pueden estimar a partir de los residuales de MCO considerando que:

Los momentos señalados,

1 T i µˆ i = ∑ ut T t =1 20/10/2011

donde i=2,3,4 5

 Así, el coeficiente de asimetría (A) es el tercer momento

respecto a la media.  Mide el grado de simetría de la distribución de

probabilidad (que tan equilibrada o balanceada se encuentra).  Si el coeficiente es mayor a cero, la distribución es

sesgada a la derecha, y en consecuencia presenta mayor número de observaciones a la izquierda. T

A=

3 u ∑ t n t =1

  2  ∑ ut n   t =1  T

20/10/2011

3

…(1) 2

6

 Por su parte, el coeficiente de curtosis (K) es el cuarto

momento respecto a la media.  Mide el grado de “picudez” o “apuntamiento” de la

distribución de probabilidad (que tan concentrada se encuentra).  Cuando el coeficiente es centrado, si esté es diferente a

tres (mesocúrtica), la distribución muestra problemas. Platicúrtica si b2>3 o leptocúrtica si b2chi2 -------------+--------------------------------------------------------------residual | 12 0.9974 0.9250 0.01 0.9956 20/10/2011 20

Otras pruebas de normalidad en Stata  Stata tiene incorporadas además las pruebas Shapiro-

Wilk (swilk) y Shapiro-Francia (sfrancia). puede utilizarse cuando 4 ≤ n ≤ 2000 observaciones, y sfrancia si 5 ≤ n ≤ 5000 observaciones.

 swilk

 En este sentido, la prueba sktest es la que puede

realizarse con más observaciones. Shapiro-Wilk W test for normal data Variable | Obs W V z Prob>z -------------+-------------------------------------------------residual | 12 0.98286 0.286 -2.437 0.99259

Shapiro-Francia W' test for normal data Variable | Obs W' V' z Prob>z -------------+-------------------------------------------------residual | 12 0.98218 0.332 -1.745 0.95952

20/10/2011

21

Conclusiones  De no verificarse el supuesto de normalidad de los

errores, los estimadores continúan siendo insesgados.  No obstante de no cumplirse la inferencia estadística

derivada del modelo puede no ser valida.  Conforme aumente el tamaño de la muestra los errores

(y los estimadores de MCO) tienden a una distribución normal.  Por lo tanto, bajo muestras grandes la inferencia

estadística del modelo puede ser valida. Con muestras reducidas es altamente recomendable verificar el supuesto. 20/10/2011

22

Referencias  Gujarati, D. y D. Porter (2010). Econometría, 5ª. Ed., Mac

Graw Hill, México, cap. 4.

 Jarque, Carlos M. y A. K. Bera (1987). “A Test for

Normality of Observations and Regression Residuals”, International Statistics Review, Vol. 55, pp. 163-177.

 Judge, George et. al. (1988). Introducction to Theory and

Practice of Econometrics, John Wiley & Sons, Estados Unidos, pp. 890-892.

 Vogelvang,

Ben (2005). Econometrics. Theory an Applications with EViews, Addison-Wesley, Malaysia, pp. 116-119.

 White H. y G. M. MacDonald (1980).

“Some LargeSample Test for Non-normality in Linear Regression Model”, Journal of American Statistical Association, Vol. 75, pp. 16-28.

20/10/2011

23