Metodología Bootstrap en Heterocedasticidad
Metodología Bootstrap en Heterocedasticidad
Metodología Bootstrap en Heterocedasticidad
Resumen
En este trabajo se presenta la metodología bootstrap como una alternativa para
construir intervalos de predicción en series temporales cuando las hipótesis usuales de
los métodos clásicos no son sostenidas por los datos, o cuando el tamaño muestral no es
suficientemente elevado para garantizar los resultados asintóticos que dichos métodos
ofrecen.
Aunque existen diferentes revisiones de la metodología bootstrap para series
temporales [véase, por ejemplo, Li y Maddala (1996) y Cao (1999)], este artículo
proporciona un estudio de los métodos bootstrap cuando las series analizadas son
heterocedásticas, haciendo especial énfasis en la predicción de modelos
heterocedásticos condicionalmente autorregresivos (ARCH).
Por último, se presenta un estudio empírico sobre el índice IBEX-35 con datos
diarios desde 1992 hasta 1998 y se compara la metodología bootstrap con los métodos
tradicionales utilizados en la construcción de intervalos de predicción. En los modelos
de rentabilidad-riesgo de tipo GARCH-M la predicción bootstrap muestra un excelente
comportamiento en el corto y medio plazo.
1
Jesús Miguel. Dpto. Métodos Estadísticos. Universidad de Zaragoza. Gran Vía, 2. 50005 Zaragoza.
Email: jamiguel@posta.unizar.es
2
Pilar Olave. Dpto. Métodos Es tadísticos. Universidad de Zaragoza. Gran Vía, 2. 50005 Zaragoza.
Email: polave@posta.unizar.es
1. Introducción
Los métodos estadísticos clásicos se apoyan en modelos matemáticos de
naturaleza estocástica, de tal forma que los resultados que de ellos se derivan requieren,
en muchas ocasiones, complejos desarrollos analíticos, lo que ha supuesto un obstáculo
para su utilización comprensiva en muchas áreas científicas. Además, dichos desarrollos
se basan en hipótesis que algunas veces no son soportadas por los datos o se obtienen
resultados asintóticos que no son válidos cuando el tamaño muestral no es
suficientemente elevado.
Efron (1979) introduce la metodología bootstrap para estimar las distribuciones
de algunos estadísticos cuando el tamaño muestral es pequeño o las expresiones de
dichas distribuciones son analíticamente intratables. Desde entonces numerosos autores
han desarrollado métodos bootstrap para diversos procedimientos inferenciales, tales
como modelos de regresión, datos censurados, construcción de intervalos de confianza,
estimación de parámetros, …
Los métodos bootstrap se basan en la reproducción de los datos originales
mediante un remuestreo. Si nuestras observaciones tienen una estructura de
dependencia, ésta debe estar reflejada en los nuevos datos. Por lo tanto, los métodos
variarán en función de la estructura temporal existente y como ésta se refleje en el
objetivo a perseguir: estimación o predicción.
Li y Maddala (1996) presentan una revisión de métodos bootstrap para series
temporales homocedásticas donde analizan diferentes problemas inferenciales:
estimación, contraste de hipótesis, selección de modelos, … Cao (1999) hace una
revisión de métodos bootstrap para estimación y predicción de series homocedásticas
haciendo especial énfasis cuando la estructura temporal es general, es decir, no asume
ninguna forma paramétrica y debe ser estimada mediante técnicas de suavización no
paramétrica.
Este trabajo es una breve introducción de los métodos bootstrap que se han
planteado para la construcción de intervalos de predicción en el contexto de series de
tiempo con una estructura temporal paramétrica pero admitiendo que los errores pueden
ser heterocedásticos. En particular, se presentan métodos bootstrap para modelos ARCH
y sus generalizaciones, que son utilizados primordialmente cuando se analizan series
financieras.
El esquema de trabajo será el siguiente: en la sección 2, se presenta la idea
general del método bootstrap. En la sección 3, se introduce los métodos bootstrap
utilizados en la predicción de procesos ARMA y se generalizan, en la siguiente sección,
al caso en que las varianzas condicionales siguen un proceso ARCH. Además, se
presenta un método bootstrap para la construcción de intervalos de predicción cuando
trabajamos con modelos ARCH-M. Finalmente, en la sección 5 se presenta un estudio
sobre el exceso de rentabilidad del IBEX 35, donde se aborda el problema de existencia
de prima de riesgo. En esta sección se aplicarán los métodos bootstrap presentados
anteriormente y sus resultados se comparan con los obtenidos mediante métodos
paramétricos.
2. El método bootstrap
El bootstrap, como el jackknife, son dos métodos de remuestreo para estimar o
aproximar la distribución muestral del estadístico o sus características. El bootstrap se
basa en el principio de sustitución y en la aproximación numérica. Sea F la función de
distribución de una variable poblacional X, y obtenemos una muestra aleatoria
r
X = ( X1 , X 2 ,K, X n ) para estudiar alguna variable aleatoria de interés R = R( X , F ) . El
principio de sustitución nos lleva a definir el correspondiente estadístico con la misma
forma funcional, pero considerando la muestra aleatoria observada como una nueva
población y la función de distribución F, que es desconocida, es sustituida por la
función de distribución empírica construida a partir de la muestra, es decir, el estadístico
r
considerado será Rˆ = R( X , Fn ) .
Fˆ (u ) = Fn * K h (u ) = ∫ K h ( x − u )Fn (du )
añadirle h veces una cantidad aleatoria extraída a partir de la densidad K. Este método
es denominado bootstrap suavizado.
El método bootstrap se describe en los siguientes pasos:
1. Construir el estimador de la función de distribución poblacional, según se
( )
r
3. Calcular la versión bootstrap del estadístico , R* = R X * , Fn y aproximar la
serie de tiempo (Y1, Y2 ,K, YT ) como una observación del proceso en instantes
consecutivos. Nuestro objetivo es predecir el valor futuro del proceso a un horizonte s,
YT + s . Este puede ser para aproximar puntualmente dicho valor, o lo que es más
frecuente, para calcular intervalos de predicción que aportan más información al
analista.
Stine (1987) propuso el primer método bootstrap para estimar el error cuadrático
medio del predictor lineal clásico cuando el proceso es un modelo autorregresivo de
orden p. El método se basaba en la obtención de la función de distribución empírica de
los errores centrados. A partir de ésta extraía muestras para reproducir un proceso
AR(p) con los parámetros estimados inicialmente y fijando los primeros p valores de la
serie. Dada la serie bootstrap se estiman los parámetros y se obtiene el predictor clásico
para evaluar el error cuadrático medio de dicha predicción. Repitiendo un número
elevado de veces este proceso podemos aproximar el error cuadrático medio de la
predicción puntual.
Para la construcción de intervalos de predicción en modelos AR(p), Thombs y
Schucany (1990) propusieron realizar una representación hacia atrás del proceso para
posteriormente utilizar la representación habitual para obtener los valores futuros. El
esquema de dicho método es el siguiente:
1. Construir los residuales de la representación backward y calcular la función
de distribución empírica de dichos errores centrados y reescalados según
propuso Stine (1987).
2. Extraer los errores bootstrap, e*i ,a partir de dicha distribución.
3. Generar una serie con la misma estructura AR(p) utilizando los errores
bootstrap y estimar los parámteros bootstrap de esta serie.
4. Construir los valores bootstrap futuros utilizando como errores una muestra
obtenida como en la etapa 2 y las estimaciones bootstrap de los parámetros.
En esta etapa se fijan los últimos p valores de la serie original para construir
los valores bootstrap futuros.
5. Repetir las etapas anteriores un número elevado de veces para aproximar la
distribución bootstrap del valor YT*+ s .
Los autores demuestran la consistencia de este método bootstrap no sólo para
modelos AR sino que extienden estos resultados al caso general de un proceso ARIMA.
z t ~ i.i.d. F (0,1)
El método bootstrap planteado es similar al de Cao et al. (1997) pero teniendo en
cuenta el problema añadido de la heterocedasticidad. El algoritmo propuesto se puede
resumir en las siguientes etapas:
1. Obtener los residuos estandarizados del modelo:
ξˆ j 1 j − 1 ˆ p
σˆj σ
= ∑
zˆj = β
ˆ j i =0
i y j− i − ∑ φˆ n y j − i− n
n =1
ˆ
donde los coeficientes β se obtienen de la siguiente forma
k
−1
∞ q
∑= βk z = 1+ k
∑ ϑi z
i
k 0 i =1
σT∗ 2+ j = ω
ˆ + αˆzT∗ 2+ j −1σT∗ 2+ j −1 + βˆσT∗ 2+ j −1 con j = 1,2, K, s
donde yT∗ + j = yT + j , z T∗ + j = zˆT + j si j ≤ 0 y σT∗2+ j = σˆ T2 + j si j ≤ 1
ε∗
T +s =z ∗
T+s σ
∗
T +s con σ ∗2
T +s =ω ( )
ˆ + αˆzT∗ 2+ s −1 + βˆ σT∗ 2+ s −1
donde yT∗ + s-j = yT + s − j ,z T∗ + s − j = zˆ T + s − j si j ≥ s y ó T∗ 2+ s-j = óˆT2 + s − j si j ≥ s-1
5. Estudio empírico
En esta sección se aborda el estudio del exceso de rentabilidad del índice Ibex35
con respecto a las Letras del Tesoro. Los datos son diarios y corresponden desde el 14
de Enero de 1992 hasta 30 de Diciembre de 1998 (1751 observaciones). Nuestro
objetivo es comparar los métodos bootstrap y paramétrico de construcción de intervalos
de predicción.
El estudio se realiza en tres subperiodos diferentes. El primero de ellos
comprende desde el 14 de Enero de 1992 hasta el 30 de Junio de 1993. El segundo
corresponde del 3 de Enero de 1994 hasta el 28 de Junio de 1996 y, por último, desde el
2 de Enero de 1997 hasta el 29 de Junio de 1998. Dichos periodos se han realizado
teniendo en cuenta el comportamiento del índice IBEX 35 (Figura 1). Los dos primeros
son bastante estables mientras que el último corresponde a una época de descenso de la
tasa de interés por parte del Banco de España, lo que provocó una gran entrada de
nuevos inversores el mercado de capitales. En los tres periodos se han identificado los
modelos para la rentabilidad y para la volatilidad de la serie, utilizando las funciones de
autocorrelación y de autocorrelación parcial. Además, se han utilizado los criterios de
información de Akaike y de Schwarz para seleccionar los modelos. Los dos primeros
periodos se ha especificado como procesos MA(1)-GARCH(1,1) mientras que en el
tercero se ha encontrado una relación significativa entre la rentabilidad media y el
riesgo existente en el mercado, es decir, hemos seleccionado un modelo MA(1)-
GARCH(1,1)-M. El modelo general propuesto es el siguiente:
y t = δσt2 + θεt −1 + εt
(
εt I t −1 ~ N 0, σt2 )
σt2 = ω + αεt2−1 + βσt2−1
C(i ) y la longitud del intervalo L(i ) . Dada esa información calculamos las siguientes
medidas:
L=
1 M
∑ L (i ) S2L =
1 M
∑ (L(i) − L )2
M i= 1 M − 1 i =1
1 M
C= ∑ C(i )
M i =1
ECM =
1 M
∑ (es ,i − es )2
M i =1
1 M
EAM = ∑ es ,i − es
M i =1
El estudio se realiza para los tres subperiodos en que ha sido dividida la serie y
el número de muestras, M, es 100. El horizonte de predicción comprende desde el valor
1 al 20 y el nivel de confianza para los intervalos es del 95%. Para el método bootstrap,
el número de réplicas, B, es igual a 1000; y para el método paramétrico se supone la
hipótesis de normalidad para los errores a un paso. Dicha hipótesis se satisface para el
primer subperiodo de estudio pero es rechazada en los otros dos periodos.
El método paramétrico utilizado se basa en la corrección de los cuantiles de la
distribución del error de predicción estandarizado mediante desarrollos de Cornish-
Fisher, utilizando los primeros momentos condicionales de dicho error. Dichos
desarrollos han sido propuestos por Baillie y Bollerslev (1992) para modelos ARMA-
GARCH(1,1) y generalizados por Miguel y Olave (2000) para modelos en media, es
decir, para modelos en los que la varianza condicional es determinante en la valoración
de la rentabilidad.
Los resultados del análisis se muestran en las Tablas 2, 3 y 4 para los tres
periodos considerados. Cabe destacar que la metodología paramétrica en el primer
periodo tiene un mejor comportamiento ya que la hipótesis de normalidad es satisfecha
por los datos. Sin embargo, los intervalos bootstrap no difieren sustancialmente de los
paramétricos, teniendo coberturas similares y aunque la longitud media es superior
tienen menos variabilidad. Por otro lado, el ECM y el EAM son prácticamente iguales.
En el segundo periodo, los intervalos bootstrap tienen longitudes medias
menores y con varianzas más pequeñas, aunque las coberturas son similares entre
ambos métodos y superiores al nivel nominal. En cuanto, al ECM y al EAM son casi
idénticos para ambos métodos. Podemos señalar que este periodo corresponde a una
época de estabilidad económica que se ve reflejado por una varianza condicional no
altamente persistente.
Por último, el tercer periodo se caracteriza por una relación rentabilidad-riesgo
importante, con un coeficiente de aversión al riesgo global significativo de 0.12. Las
coberturas reales son similares para ambos métodos pero los intervalos bootstrap
presentan menor longitud y con menor variabilidad. El ECM y el EAM son mejores
para el método bootstrap que para el paramétrico. Podemos observar que las coberturas
reales disminuyen con respecto a las nominales cuando el horizonte es mayor. Esto se
explica porque en un modelo GARCH-M, la predicción depende de la volatilidad futura
y ésta tiende a la varianza incondicional que es menor que la varianza condicional, por
lo tanto, estamos infravalorando la incertidumbre cuando el horizonte de predicción es
lejano. De hecho, los modelos ARCH y sus generalizaciones son usados para la
predicción a corto plazo que es donde presentan mayor capacidad predictiva.
Agradecimientos
Este trabajo ha sido financiado por el proyecto P060-99E del Dpto. de
Educación y Cultura del Gobierno de Aragón
Bibliografía
Baillie, R.T. y T. Bollerslev (1992). Prediction in dynamic models with time-dependent
conditional variances. Journal of Econometrics, 52. 91-113.
Bera, A.K. y M.L. Higgins (1993). ARCH models: properties, estimation and testing.
Journal of Economic Surveys, 7. 305-362.
Bollerslev, T., R.Y. Chou y K.F. Kroner (1992). ARCH modelling in finance: a review
of the theory and empirical evidence. Journal of Econometrics, 52. 5-59.
Cao, R., M. Febrero-Bande, W. González-Manteiga, J.M. Prada-Sánchez y I. García-
Jurado (1997). Saving computer time in constructing consistent bootstrap
prediction intervals for autoregressive processes. Communications in Statistics-
Simulation and Computation, 26. 961-978.
Cao, R. (1999). An overview of bootstrap methods for estimating and predicting in time
series. Test, 8. 95-116.
Efron, B. (1979). Bootstrap methods: another look at the jackknife. Annals of Statistics,
7. 1-26.
Freedman, D.A. (1984). On bootstrapping two-stage least squares estimates in
stationary linear models. Annals of Statistics, 12. 827-842.
García-Jurado, I., W. González-Manteiga, J.M. Prada-Sánchez, M. Febrero-Bande y R.
Cao (1995). Predicting using Box-Jenkins, nonparametric and bootstrap
techniques. Technometrics, 37. 303-310.
Grigoletto, M. (1998). Bootstrap prediction intervals for autoregressions: some
alternatives. International Journal of Forecasting, 14. 447-456.
Li, H. y G.S. Maddala (1996). Bootstrapping Time Series Models. Econometric
Reviews, 15. 115-158.
McCullough, B.D. (1994). Bootstrapping forecast intervals: An application to AR(p)
models. Journal of Forecasting, 13. 51-66.
Miguel, J. y P. Olave (1999a). Bootstrapping forecast intervals in ARCH models. Test,
8. 345-364.
Miguel, J. y P. Olave (1999b). Forecast intervals in ARCH models: Bootstrap versus
parametric methods. Applied Economics Letters, 6. 323-327.
Miguel, J. y P. Olave (2000). Prediction in ARCH-M models: a theoretical view.
Preprint.
Pascual, L., J. Romo y E. Ruiz (1998). Bootstrap predictive inference for ARIMA
processes. Working-Paper 98-86. Universidad Carlos III de Madrid.
Stine, R.A. (1987). Estimating properties of autoregressive forecasts. Journal of the
American Statistical Association, 82. 1072-1078.
Thombs, L.A. y W.R. Schucany (1990). Bootstrap prediction intervals for
autoregression. Journal of the American Statistical Association, 85. 486-492.
Figura 1: Índice IBEX35. (14/Enero/1992 al 30/Diciembre/1998)
12000 PERIODO 3
PERIODO 2
PERIODO 1
10000
8000
PRECIO DE CIERRE
6000
4000
2000
14/1/92 3/1/94 2/1/97
0 30/6/93 28/6/96 25/6/98
FECHA
8 PERIODO 3
PERIODO 2
6 PERIODO 1
-2
-4
-6
PRIMA
-8
14/1/92 3/1/94 2/1/97
-10 30/6/93 28/6/96 25/6/98
FECHA
Tabla 1. Estimación de los modelos propuestos para cada periodo.
PREDICCIÓN A UN PASO
Interv. Bootstrap
2.50 Interv. Paramétrico
2.00
1.50
1.00
0.50
0.00
-0.50
-1.00
-1.50
-2.00
-2.50
3/6/96
5/8/96
24/6/96
15/7/96
27/8/96
17/9/96
8/10/96
29/10/96
20/11/96
12/12/96
PREDICCIÓN A DOS PASOS
Interv. Bootstrap
2.50
Interv. Paramétrico
2.00
1.50
1.00
0.50
0.00
-0.50
-1.00
-1.50
-2.00
-2.50
3/6/96
5/8/96
24/6/96
15/7/96
27/8/96
17/9/96
8/10/96
29/10/96
20/11/96
12/12/96
Figura 4: Intervalos de predicción para el tercer subperiodo.
PREDICCIÓN A UN PASO
Interv. Bootstrap
10.00
Interv. Paramétrico
8.00
6.00
4.00
2.00
0.00
-2.00
-4.00
-6.00
-8.00
-10.00
2/6/98
4/8/98
23/6/98
14/7/98
25/8/98
15/9/98
6/10/98
28/10/98
18/11/98
10/12/98
PREDICCIÓN A DOS PASOS
Interv. Bootstrap
10.00
Interv. Paramétrico
8.00
6.00
4.00
2.00
0.00
-2.00
-4.00
-6.00
-8.00
3/6/98
5/8/98
24/6/98
15/7/98
26/8/98
16/9/98
7/10/98
29/10/98
19/11/98
11/12/98