Parra Econometria Aplicada Ii5 PDF
Parra Econometria Aplicada Ii5 PDF
Parra Econometria Aplicada Ii5 PDF
ECONOMETRÍA APLICADA II
1
ÍNDICE
Parte II
1. NÚMEROS INDICES..........................................................................................................................4
1.1. INTRODUCCIÓN........................................................................................................................4
1.2. NÚMEROS ÍNDICES SIMPLES.................................................................................................6
1.3. NÚMEROS ÍNDICES COMPLEJOS O SINTÉTICOS...............................................................7
1.4. ÍNDICES DE PRECIOS.............................................................................................................10
1.5. ENLACES Y CAMBIOS DE BASE..........................................................................................12
1.6. DEFLACCIÓN POR UN INDICE DE PRECIOS. ....................................................................14
1.7. INDICES DE VOLUMEN ENCADENADOS. .........................................................................16
1.8. ELABORACIÓN DE ÍNDICES COMPUESTOS .....................................................................19
1.9. PROBLEMAS ............................................................................................................................23
2. SERIES TEMPORALES....................................................................................................................27
2.1. INTRODUCCIÓN......................................................................................................................27
2.2. COMPONENTES DE UNA SERIE TEMPORAL ....................................................................31
2.3. ANÁLISIS DE LA TENDENCIA..............................................................................................33
2.3.1. Método de los semipromedios ............................................................................................35
2.3.2. Método de mínimos cuadrados...........................................................................................38
2.3.3. Médias móviles...................................................................................................................41
2.3.4. Alisado Exponencial Simple...............................................................................................44
2.3.5. Alisado Exponencial Doble ................................................................................................48
2.3.6. Método de Holt-Winters. ....................................................................................................49
2.4. ANÁLISIS DE LA ESTACIONALIDAD .................................................................................51
2.4.1. Método del porcentaje promedio ........................................................................................55
2.4.2. Método del porcentaje promedio móvil..............................................................................57
2.4.3. Desestacionalización con Estacionalidad Cambiante .........................................................62
2.4.4. Ajuste estacional a través de medias móviles con R..........................................................64
2.5. PROBLEMAS ............................................................................................................................68
3. ANÁLISIS UNIVARIANTE DE SERIES TEMPORALES ..............................................................71
3.1. INTRODUCCIÓN......................................................................................................................71
3.2. PROCESOS ESTÓCÁSTICOS..................................................................................................72
3.3. PROCESOS ESTACIONARIOS ...............................................................................................74
3.3.1. Operador de Retardos y Operador Diferencia ....................................................................78
3.4. MODELIZACIÓN UNIVARIANTE DE SERIES TEMPORALES..........................................79
3.4.1. Procesos estocásticos lineales discretos..............................................................................79
3.4.2. Modelos Autorregresivos (AR(p))......................................................................................80
3.4.2.1. Modelos autorregresivos de primer orden AR(1) .....................................................81
3.4.2.2. Modelos autorregresivos de segundo orden AR(2) ...................................................83
3.4.2.3. Modelos autorregresivos de orden p, AR(p) .............................................................85
3.4.3. Procesos de Media Móvil (MA(q)).....................................................................................88
3.4.3.1. Modelos de medias móviles de primer orden MA(1).................................................88
3.4.3.2. Modelos de medias móviles de segundo orden MA(2) ..............................................90
3.4.3.3. Modelos de medias móviles de orden q, MA(q) ........................................................92
3.4.3.4. Relación entre procesos AR y MA.............................................................................93
3.4.4. Procesos ARMA(p, q) ........................................................................................................95
3.4.4.1. Modelos ARMA(1, 1).................................................................................................95
3.4.4.2. Modelos ARIMA........................................................................................................98
3.4.5. Procesos Estacionales .........................................................................................................99
3.5. FASES PARA LA ELABORACIÓN DE MODELOS UNIVARIANTES..............................111
3.5.1. Fase de identificación .......................................................................................................111
3.5.2. Fase de estimación............................................................................................................113
3.5.3. Fase de validación ............................................................................................................114
3.5.4. Fase de predicción ............................................................................................................119
3.6. EJEMPLOS PRÁCTICOS .......................................................................................................122
3.6.1. Ejemplo 1: Pasajeros en Lineas Aereas. ...........................................................................122
3.6.2. Ejemplo 2: Indice de Producción Industrial de Cantabria ................................................134
3.7. PROBLEMAS ..........................................................................................................................141
2
4. Cointegracion ...................................................................................................................................143
4.1. INTRODUCCIÓN....................................................................................................................143
4.2. PASEO ALEATORIO..............................................................................................................144
4.3. PRUEBA DE RAÍZ UNITARIA..............................................................................................147
4.4. COINTEGRACIÓN .................................................................................................................153
4.5. MECANISMO DE CORRECCIÓN DE ERRORES(MCE) ....................................................157
4.6. PROBLEMAS ..........................................................................................................................158
5. MODELOS VAR .............................................................................................................................161
5.1. INTRODUCCIÓN....................................................................................................................161
5.2. MODELOS VAR .....................................................................................................................162
5.2.1. Definición .........................................................................................................................162
5.2.2. Estimación ........................................................................................................................166
5.2.3. Predicción y Función de Respuesta al Impulso ................................................................168
5.3. VAR ESTRUCTURAL ............................................................................................................173
5.4. EJEMPLO DE ESTIMACION DE UN MODELO VAR CON R. ..........................................176
5.5. PROBLEMAS ..........................................................................................................................181
6. REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA ..............................................................183
6.1. INTRODUCCIÓN....................................................................................................................183
6.2. REGRESIÓN BAND SPECTRUM .........................................................................................184
6.3. REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA CON PARAMETROS
DEPENDIENTES DEL TIEMPO. .......................................................................................................191
6.4. DESESTACIONALIZACIÓN A TRAVÉS DE LA REGRESIÓN DEPENDIENTE DE LA
FRECUENCIA.....................................................................................................................................197
6.1. PROBLEMAS ..........................................................................................................................201
7. FILTROS LINEALES......................................................................................................................204
7.1. INTRODUCCIÓN....................................................................................................................204
7.2. FILTROS ELEMENTALES ....................................................................................................205
7.3. FILTROS FIR...........................................................................................................................211
7.4. EL FILTRO COMO PRODUCTO DE CONVOLUCIÓN ......................................................216
7.5. DESCOMPOSICIÓN DE SERIES DE TIEMPO MEDIANTE FILTROS LINEALES..........225
7.6. TIPOS DE FILTROS................................................................................................................230
7.7. DISEÑO DE FILTROS ............................................................................................................235
ANEXO I. SERIES DE FOURIER ..........................................................................................................244
BIBLIOGRAFÍA......................................................................................................................................270
3
1. NÚMEROS INDICES
1.1. INTRODUCCIÓN
El número índice es un valor expresado como porcentaje de una cifra que se toma como unidad
base. Por ejemplo, cuando decimos que el índice de precios de consumo (base media de
1992=100) correspondiente al mes de diciembre de 1997 es 122,9, estamos señalando que los
precios en diciembre de 1997 eran un 22,9 más elevados que los que estaban en vigor a lo largo
de 1992.
Los números índices no tienen unidades y pueden referirse tanto a precios (índice de precios de
consumo, índice de precios percibidos por los agricultores, índice de precios industriales) como
a cantidades (índice de producción industrial).
El número índice es un recurso estadístico para medir diferencias entre grupos de datos. Un
número índice se puede construir de muchas formas distintas. La forma de cada índice en
particular dependerá del uso que se le quiera dar.
Los números índices no tienen unidades y pueden referirse tanto a precios (índice de precios de
consumo, índice de precios percibidos por los agricultores, índice de precios industriales) como
a cantidades (índice de producción industrial).
El número índice es un recurso estadístico para medir diferencias entre grupos de datos. Un
número índice se puede construir de muchas formas distintas. La forma de cada índice en
particular dependerá del uso que se le quiera dar. Los números índices se elaboran tanto con
precios (p) como con cantidades (q). El año en que se inicia el cálculo de un número índice se
denomina año base y se nombran por p0 o q0 según tratemos de precios o de cantidades, a los
precios o las cantidades de los años sucesivos los indicamos por pt o qt.
4
Las comparaciones pueden ser de una única magnitud, en este caso hablaremos de índices
simples, o de varias magnitudes índices complejos o sintéticos. Si trabajamos con diferentes
magnitudes o tipos de mercancías utilizamos los subíndices (i) para referirnos a un tipo de
mercancía, de modo que utilizamos los símbolos pit o qit para señalar el precio o la cantidad de
la mercancía i en el período t.
Dentro de los índices complejos o sintéticos puede que todas las mercancías tengan la misma
importancia, índices no ponderados y en caso contrario índices ponderados. Los números
índices no ponderados son los más sencillos de calcular, pero deben de utilizarse con especial
cuidado. Los números índices ponderados requieren que definamos previamente a su
construcción los criterios de ponderación o de peso. Una vez definida una ponderación debe de
respetarse en los sucesivos períodos.
A la hora de elaborar un número índice hay que tener presente una serie de propiedades
que el índice debe de cumplir. Dichas propiedades son:
b) Identidad: Si se hacen coincidir el período base y el período actual el valor del índice tiene
que ser igual a la unidad (o 100 si se elabora en porcentajes).
c) Inversión: El valor del índice ha de ser invertible al intercambiar los períodos entre sí. Es
1
decir : I to = el índice del año o calculado con la base del año t, ha de ser igual al inverso del
I ot
índice del año t calculado en base del año o.
e) Homogeneidad: Un número índice no puede estar afectado por los cambios que se realicen
en las unidades de medida.
5
1.2. NÚMEROS ÍNDICES SIMPLES
Sirven para estudiar la evolución de una sola magnitud en relación a un periodo base y
pueden ser:
Si xio y xit representan los valores de la magnitud en los periodos base y actual,
xit
I 0t = × 100
xi 0
Que como se indica suele expresarse en porcentajes, aunque también podría expresarse en tanto
por uno y nos mide la variación que ha sufrido la magnitud entre los dos periodos considerados.
b) En cadena: cuando el año base varía, es decir cuando el año base es el inmediatamente
anterior.
xit
I tt−1 = × 100
xit −1
Para obtener un índice fijo a partir de un índice en cadena se utiliza la siguiente formula:
I 0t
I tt−1 =
I 0t −1
t
I 0t = ∏ I ii−1
i =1
pit
p0t = × 100
pI 0
6
• Cantidad relativa: es el cociente entre la cantidad de un bien en el periodo actual ( q it ) y
qit
q 0t = × 100
qI 0
pit ⋅ qit
v0t = × 100 = p0t ⋅ q0t
pi 0 ⋅ qit
Son indicadores sintéticos que se elaboran a partir de dos o más series de datos con el objeto de
estudiar su evolución conjunta y realizar comparaciones con otras series. Los números índices
compuestos se clasifican en:
Partimos de una serie de magnitudes simples x1 , x 2 ,...., x n , para las que conocemos su valor en
A continuación calculamos los índices simples para cada magnitud, de modo que disponemos
de la siguiente tabla:
7
Magnitudes Valor periodo base Valor periodo actual Índices simples
. . . .
. . . .
Con la serie de los N índices simples podemos obtener los siguientes índices compuestos:
a) índice media aritmética de índices simples cuando operamos del siguiente modo :
I1 + I 2 +...+ I N
∑
i =1
Ii
I= =
N N
b) índice media geométrica de índices simples cuando operamos del siguiente modo :
N
I = N I1 . I 2 .... I N = N ∏ I i
i =1
c) índice media armónica de índices simples cuando operamos del siguiente modo :
N N
I= = N
1 1 1 1
+ +...+
I1 I 2 IN ∑I
i =1 i
d) índice media agregativa de índices simples cuando operamos del siguiente modo :
x + x 2t + ... + x Nt ∑x it
I = it = i =1
x1o + x 2 o + ... + x No N
∑x
i =1
io
8
Una ponderación wi es un valor de referencia para cada producto que determina su importancia
relativa en el índice total. Al ser el ponderador un valor relativo lo normal es que se presente
calculado en tanto por uno, por ciento ó por mil, expresando así el porcentaje que representa
dicho producto en la cesta de productos que cubre el índice:
pi 0qi 0
Wi = n
∑p q i0 i0
Una vez obtenidos los ponderadores (wi) se calculan el índice media aritmética ponderada de
índices simples cuando operamos del siguiente modo :
I w + I w +...+ I N wN ∑ I .w
i =1
i i
I= 1 1 2 2 =
w1 + w2 +...+ wN N
∑w
i =1
i
Ejemplo 1.1.
En la tabla siguiente aparece la información que disponemos sobre una cesta de productos:
2000 2001 2002
Productos Precio venta Unidades Precio venta Unidades Precio venta Unidades
M1 1 3000 1,2 4000 1,4 5500
M2 1,5 4000 1,5 3000 1,6 4500
M3 2 2500 2 2500 2,4 2000
M4 4 2000 4,5 1500 4,5 2000
9
Indices simples 2000 2001 2002
Media aritmética 100 108,13 119,79
Media geométrica 100 107,79 119,16
Media armónica 100 107,46 118,55
Media agregativa 100 108,13 119,79
El ponderador sería tanto por uno el valor del producto, es decir el precio por la cantidad
vendida, en el total vendido:
a) Índice de Laspeyres
siguiente:
N N
∑ I i wi ∑p it qio
i =1 i =1
Lp = N
= N
(1.1.)
∑I
i =1
i ∑p
i=1
io qio
10
Se suele utilizar este índice a la hora de elaborar los índices de precios por cuestiones
prácticas ya que únicamente requiere investigar en el año base el valor de los ponderadores, que
es la parte mas costosa de la elaboración del índice, (téngase en cuenta que en el IPC se realiza
una encuesta de presupuestos familiares en los años base que requiere una muestra de 20.000
hogares). Una vez determinados los ponderadores el índice de Laspeyres únicamente requiere
que se investigue en los sucesivos períodos la evolución de los precios.
b) Índice de Paasche
También es una media aritmética ponderada de los índices simples, pero utilizando
como coeficiente ponderador wi = p io ⋅ q it ; por tanto su definición queda como:
N N
∑ I i wi ∑p it qit
i =1 i =1
Pp = N
= N
(1.2.)
∑I
i =1
i ∑p
i=1
io qit
La diferencia entre el índice Paasche y el índice Laspeyres es que exige calcular las
ponderaciones para cada periodo corriente “t”, haciendo su cálculo estadístico más laborioso, y
presentando el inconveniente de que sólo permite comparar la evolución del precio de cada año
con el año base, dado que las ponderaciones varían de período en período. Ambas razones han
determinado que este índice sea más inusual que el anterior.
c) Índice de Fisher.
Ep = Lp. Pp (1.4)
Como los índices de precios de consideran un año determinado para calcular el ponderador bien
sea a partir de q0 .p0 , o de qt .p0, utilizan la denominación de año base para referirse al año “0”
a partir del que se calcula el ponderador wi.
11
Ejemplo 1.2.
Utilizando los datos de la tabla del ejemplo 1.1, vamos a calcular el indice de precios de
Lasperyres (1.1), de Paasche (1.2) y de Fisher (1.3), para el año 2001.
N N
∑I w i i ∑p it qio
1,2 × 3000 + 1,5 × 4000 + 2 × 2500 + 4,5 × 2000
Lp = i =1
= i =1
= = 1,0727
N N
1 × 3000 + 1,5 × 4000 + 2 × 2500 + 4 × 2000
∑I
i =1
i ∑p
i =1
io qio
N N
∑ I i wi ∑p it qit
1,2 × 4000 + 1,5 × 3000 + 2 × 2500 + 4,5 × 15000
Pp = i =1
= i =1
== = 1,0795
N N
1 × 4000 + 1,5 × 3000 + 2 × 2500 + 4 × 1500
∑I
i =1
i ∑p
i =1
io qit
La decisión que tomó el INE de realizar un nuevo IPC con la estructura de consumo resultante
de la Encuesta de Presupuestos Familiares de 1992 es lo que provoca el Cambio de Base del
IPC. Al ser los ponderadores distintos los utilizados entre 1983 y 1991 y los actuales, los índices
de precios son esencialmente distintos, y por lo tanto no se pueden comparar a priori entre sí. El
procedimiento a través del cual hacemos comparables números índices obtenidos con bases
distintas es lo que se denomina Enlace. El enlace de índices se basa en la propiedad de inversión
de los números índices.
Supongamos que queremos efectuar un cambio de base desde un índice construido con base
1983, a otro en base 1982.
12
t t
Sea I 83 el índice construido en base 1983 e I 92 el índice construido con la base1992, entonces:
92
I 83
En el caso del IPC español el INE publica el valor del cociente 92
que denomina coeficiente
I 92
legal de enlace. El valor del coeficiente legal de enlace el la serie del IPC base 92 y el
construido con la base 1983 en el índice general de España es 0,545261 y en el índice general de
Castilla y León es 0,559529.
Cuando se dispone de los coeficientes legales de enlace, como ocurre en el caso del IPC, la
operativa aritmética se simplifica bastante, ya que enlazar la serie con base de 1983 a la serie de
base 1992 únicamente requiere el que multipliquemos la primera por el coeficiente legal de
enlace (en caso contrario habría que dividir).
El enlace del IPC base del IPC 2001, es similar aunque hay que tener presente que entre este
IPC y los anteriores hay una novedades metodológicas que no se resuelven aplicando los
coeficientes legales de enlace, este es el caso de la introducción de las rebajas en el calculo del
IPC.
El coeficiente de enlace legal se obtiene como cociente entre el índice de diciembre de 2001, en
base 2001 y, el índice para el mismo período en base 1992.
Las series enlazadas se calculan multiplicando cada uno de los índices en base 1992 por este
coeficiente. Con estas series se pueden obtener las tasas de variación mensual publicadas, pero
no sucede lo mismo con las tasas de variación anual del año 2002, ya que por ellas se utilizan
los índices del año 2001, en base 2001.
Los coeficientes de enlace se han obtenido de forma independiente para cada una de las series
de índices que tienen continuidad en la nueva base, lo cual implica que cualquier índice
agregado de una serie enlazada no es el resultado de la media ponderada de los índices
elementales que lo componen.
13
Por último, es preciso puntualizar que, si bien el nuevo Sistema tiene como base la media de los
índices del año 2001 en base 2001 igual a 100, los índices que se publicaron en ese año eran
índices calculados en base 1992 y, por tanto, las series enlazadas pueden no tener media 100 en
el año 2001.
Ejemplo 1.3.
La utilidad más importante que tienen los índices de precios, aparte de describir el
comportamiento de los precios durante un período concreto, es la de deflactar series
cronológicas o temporales valoradas en moneda (euros, dolares, etc..). Deflactar es eliminar el
componente de subida de precios que es inherente a toda serie temporal que viene referida a un
valor monetario (ventas de una empresa, los salarios que cobran los trabajadores, los depósitos y
créditos bancarios, el PIB, etc...). Las ventas de una empresa, por ejemplo, se incrementan de un
año a otro (ó de un mes a otro), bien por haber aumentado el número de pedidos que realizan los
clientes o bien por que la empresa o el mercado haya decidido una subida en los precios de los
artículos pedidos. Si se valoramos el número de pedidos del año actual utilizando los precios
vigentes el ejercicio pasado, dispondremos de un elemento comparativo con respecto al
14
ejercicio anterior que nos señalaría de manera inequívoca si nuestro volumen de negocio se ha
incrementado con independencia de lo ocurrido con los precios
Elaborar un indice simple sobre una serie deflactada es obtener un indice de valor ó indice de
valor unitario.
En la práctica, para pasar de una serie en moneda corriente a moneda constante se realiza
dividiendo la primera por un índice de precios adecuado. Este procedimiento recibe el nombre
de deflactación y al índice de precios elegido se le denomina deflactor.
No obstante, hay que señalar que, cuando utilizamos como deflactor un índice de precios de
Laspeyres (1.1.):
vt Σpit . qit Σpit.qit
= = Σpio.qio
lp Σpit . qio Σpit.qio
Σpio . qio
No pasamos exactamente valores corrientes a constante, cosa que si ocurre con el índice de
precios de Paasche (1.2.):
vt Σpit . qit
= = Σpio. qio
lp Σpit . qit
Σpio . qit
Entonces el índice que realmente permite transformar los valores nominales en valores reales es
el índice de precios de Paasche. Sin embargo, los resultados de la deflación por este índice de
precios sólo es válida en el supuesto de que los bienes, y sus cantidades, incluidos en el índice
sean los mismos que en la serie de valores. Esta limitación, junto con el hecho de que en pocas
situaciones se dispone de un índice de precios de Paasche, debido a su complicada elaboración,
hace que en la práctica se utilice un índice de precios de Laspeyres.
15
Ejemplo 1.4.
16
Los índices encadenados consideran que el paso del período 0 al t puede fragmentarse
considerando los incrementos parciales, esto es, que el encadenamiento de los índices (i.e. de las
variaciones) evaluados con la frecuencia de muestreo máxima posible constituye una valoración
más apropiada del cambio realizado desde 0 hasta t. Intuitivamente, se intenta reducir el
envejecimiento de la base.
La forma de resolver este problema consiste en efectuar las comparaciones entre períodos que
disten lo menos posible (por ejemplo, un período) mediante “eslabones”:
I sA/ s −1 = ∑ w j i s / s −1
j
t
CI tA/ 0 = ∏ I sA/ s −1
s =1
Un índice así construido carece de periodo base o de ponderaciones, ya que van cambiando a lo
largo de los distintos periodos. No obstante, se designa un periodo llamado de referencia, al que
arbitrariamente se le asigna el valor 100.
Ejemplo 1.5
En la siguiente tabla se ofrece un ejemplo con datos hipotéticos de dos productos (A y B) y tres
años (0, 1 y 2):
17
2000 2001 2002
PRODUCTO PRECIO CANTIDAD p0.q0 PRECIO CANTIDAD P0.q1 PRECIO CANTIDAD P1.q2
A 3 5 15 2 9 27 1 9 18
B 4 7 28 5 7 28 6 11 55
TOTAL 43 55 73
Eslabón 100 127,9 137,7
p 0 q1 55
127,9 = = × 100
p 0 q 0 43
p1 q 2 73
137,7 = = × 100
p1 q1 53
El índice encadenado se obtiene multiplicando cada eslabón anual en forma de índice por la
cadena acumulada hasta el año precedente. La cadena así obtenida es un número índice por lo
que su conversión en términos monetarios se realiza multiplicándola por el valor a precios
corrientes observado en un año particular, llamado “de referencia”. En la siguiente tabla se
considera el año 0 como periodo de referencia:
2000 2001 2002
PRODUCTO PRECIO CANTIDAD p0.q0 PRECIO CANTIDAD P0.q1 PRECIO CANTIDAD P1.q2
A 3 5 15 2 9 27 1 9 18
B 4 7 28 5 7 28 6 11 55
TOTAL 43 55 73
Eslabón 100 127,9 132,7
Índice encadenado 100 127,9 176,2
Valoración monetaria 43 55 76
127,9 × 100
127,9 =
100
137,7 × 127,9
176,2 =
100
Debe señalarse que, a diferencia de lo que ocurría con la valoración a precios constantes en la
que el año de referencia y base coinciden, en el sistema de valoración a precios del año anterior
no son equivalentes. Así, el año de referencia es el que define la escala del índice encadenado
(haciéndolo 100), mientras que la base temporal es móvil, existiendo tantas bases como pares de
18
años consecutivos por lo que, en conjunto, la valoración encadenada carece de base fija (base
móvil).
La aplicación de esta metodología genera una pérdida de aditividad en las medidas encadenadas
de volumen (excepto en los datos correspondientes a los años de referencia y al inmediatamente
posterior). La pérdida de aditividad significa, por ejemplo, que la suma de los componentes del
Producto Interior Bruto (PIB) no coincide con éste (excepto en los datos correspondientes a los
años de referencia y al inmediatamente posterior). De forma general, una variable valorada
mediante medidas encadenadas de volumen no coincide con la suma de sus elementos
constituyentes igualmente evaluados a través de medidas encadenadas de volumen. La pérdida
de aditividad es una consecuencia directa de las propiedades matemáticas del sistema de
valoración, por lo que las discrepancias no reflejan deterioro alguno de calidad en el proceso de
medida.
donde
wi es el ponderador
s i es el método de normalización
ci es el indicador simple
Cuando se elabora un indicador compuesto es necesario que las series individuales presenten la
misma amplitud cíclica relativa, pues de lo contrario, las series con mayor amplitud cíclica
dominarían el comportamiento del indicador compuesto, impidiendo así que se revele la
información contenida en otras series de menor amplitud. Para lograrlo, se normalizan las series
componentes restándoles la media y dividiéndolas por el promedio de las desviaciones de la
media en valor absoluto, conforme la siguiente fórmula:
19
Otros métodos de normalización serían:
z-score:
Min-max:
xt + 100
IDt =
2
donde IDt es el índice de difusión y xt es el balance de respuestas correspondiente.
Cuando el índice de difusión es mayor que 50, significa que los entrevistados están optimistas
respecto a la evolución de la variable objetivo. Si es menor que 50, los entrevistados se
encuentran pesimistas.
La ponderación se puede obtener de datos base de la Contabilidad Nacional Anual, por ejemplo,
si se quiere construir un indicador de producción industrial, se puede agregar a partir de los
índices subsectoriales y el VAB o empleo de cada subsector.
20
a. El método de Granger y Newbold
Para la construcción del indicador sintético se estima la siguiente ecuación, utilizando la serie
anual de la macromagnitud de referencia y el conjunto de variables seleccionadas anualizadas:
( ) ( ) ( )
YT = α1 a1 + b1 X T1 + α 2 a2 + b2 X T2 + ... + α k ak + bk X tk + µT = ZT + µT
donde:
YT es el valor de la variable a trimestralizar en el año T.
X Tj es el valor del indicador aproximativo, en el año T, proyectada hasta el último trimestre del
año actual a través de modelos ARIMA, siendo k el número de indicadores aproximativos
utilizados
aj es el término independiente de la regresión entre Y y Xj.
bj es el coeficiente de la regresión entre Y e Xj.
α j es el peso asignado a la estimación a través de la variable j
ZT es el indicador sintético
σ −j 1
αj = k
∑σ
h =1
−1
h
Una vez obtenido el indicador Z, se obtiene la serie estimada del valor trimestral de la variable y
( ) ( ) (
yt = α1 a1 + b1 xt1 + α 2 a2 + b2 xt2 + ... + α k ak + bk xtk )
b. Estimación del modelo con Componentes Principales
21
Así pues, siendo X1, X2,….Xm los distintos indicadores que hemos seleccionado como
variables relacionadas con Y, este método nos va extraer las diferentes funciones lineales (Zs)
que existen entre ellas:
Este método extrae las funciones lineales (Zs) seleccionando las así de tal modo que las
varianzas de las Zs sean maximizadas. De este modo, los componentes extraídos son las
combinaciones lineales de los indicadores que tienen mayor varianza, siendo Z1 el componente
con mayor varianza explicada, seguido del Z2 que contiene la segunda mayor varianza explicada
pero sin estar correlacionado con Z1 y así sucesivamente, de modo que la suma de la varianza de
todos los componentes explique el total de las variaciones de las Xn y, a su vez, estén
incorrelacionadas entre ellas.
22
1.9. PROBLEMAS
Se pide:
a) Calcular el índice simple de cada precio tomando como referencia en año 1
b) Calcula un indice compuesto media aritmética, armónica y geométrica.
c) Calcula un indice compuesto ponderado utilizando como ponderadores 0.60, 0.30 y
0.10 para el precio A, B y C respectivamente.
a) Obtener los índices de precios de Paache, Laspeyres y Fisher tomando como referencia
en periodo 1.
b) Obtener los índices de cantidades de Paache, Laspeyres y Fisher tomando como
referencia en periodo 1.
1.3 En un contrato de alquiler está establecido que la renta anual se tiene que revisar de acuerdo
al crecimiento anual del IPC, teniendo en cuenta que el año 2010 se pagaba de 700 euros de
alquiler, calcule la actualización de dicha renta en 2011, 2012 y 2013, utilizando los datos
de la tabla siguiente:
IPC(Base
2005)
2010 120
2011 122
2012 125,5
2013 125
23
1.4 En la tabla siguiente se recogen los incrementos de salarios mensuales medios de una
industría durante el periodo 2010-2013, utilizando el IPC que se recoge en el cuadro
anterior calcule:
Salario
medio por
trabajador y
Año mes
2010 1200
2011 1210
2012 1150
2013 1000
1.5 En el 2013 se ha procedido a un cambio de base en dicho IPC, teniendo presente que el IPC
de 2014 con la base 2013 es 101,35, indique como ha variado el poder adquisitivo del un
salario medio de 1150 euros por trabajador y mes pagado en 2012.
Obtenga los eslabones y los índices de volumen de Laspeyres encadenados, año de referencia 0
y 1.
24
SOLUCIONES
1.1 a)
Año A B C
1 100 100 100
2 133,333333 175 87,5
3 150 150 50
4 166,666667 125 37,5
5 200 150 25
b)
Año Aritmética Armónica Geometrica
1 100 100 100
2 131,944444 121,73913 126,861044
3 116,666667 90 104,004191
4 109,722222 73,7704918 92,1007875
5 125 58,0645161 90,8560296
c)
Año Ponderado
1 100
2 141,25
3 140
4 141,25
5 167,5
1.2 a)
Paache Laspeyres Fisher
100 100 100
147,849462 145 146,4178
113 117,5 115,228035
b)
Paache Laspeyres Fisher
100 100 100
94,8275862 93 93,9093473
96,1702128 100 98,0664126
1.3
Renta
2010 700
2011 711,666667
2012 732,083333
2013 729,166667
25
1.4
a)
Indice de
precios
(Base
Año 2010)
2010 100
2011 101,666667
2012 104,583333
2013 104,166667
b)
Salarios a
valores
Año constantes
2010 1200
2011 1190,16393
2012 1099,60159
2013 960
c)
Indice de
Año Valor
2010 100
2011 99,1803279
2012 91,6334661
2013 80
1.5.
1139,22
1.6.
Indice
Años Eslabon encadenado
0 100
1 122,222222 122,222222
2 115,151515 140,740741
3 116,190476 133,795094
26
2. SERIES TEMPORALES
2.1. INTRODUCCIÓN
El presente epígrafe pretende ser una breve introducción al estudio de las series temporales, las
cuales poseen una gran importancia en el campo de la Economía dada la abundancia de este tipo
de observaciones; de hecho, las series temporales constituyen la mayor parte del material
estadístico con el que trabajan los economistas.
Pero, ¿qué es una serie temporal? Por definición, una serie temporal es una sucesión de
observaciones de una variable realizadas a intervalos regulares de tiempo. Según realicemos la
medida de la variable considerada podemos distinguir distintos tipos de series temporales:
− Flujo o Stock. En Economía, se dice que una serie de datos es de tipo flujo si está
referida a un período determinado de tiempo (un día, un mes, un año, etc.). Por su parte,
se dice que una serie de datos es de tipo stock si está referida a una fecha determinada
(por ejemplo, el 31 de Diciembre de cada año). Un ejemplo de datos de tipo flujo serían
las ventas de una empresa ya que éstas tendrán un valor distinto si se obtiene el dato al
cabo de una semana, un mes ó un año; por su parte, la cotización de cierre de las
acciones de esa misma empresa sería una variable de tipo stock, ya que sólo puede ser
registrado a una fecha y hora determinadas. Obsérvese que existen relación entre ambos
tipos de variables, pues la cotización al cierre de las acciones no es más que el precio de
cierre del día anterior más, o menos, el flujo de precios de la sesión considerada.
27
Antes de profundizar en el análisis de las series temporales es necesario señalar que, para
llevarlo a cabo, hay que tener en cuenta los siguientes supuestos:
− Se considera que existe una cierta estabilidad en la estructura del fenómeno estudiado.
Para que se cumpla este supuesto será necesario estudiar períodos lo más homogéneos
posibles.
− Los datos deben ser homogéneos en el tiempo, o, lo que es lo mismo, se debe mantener
la definición y la medición de la magnitud objeto de estudio. Este supuesto no se da en
muchas de las series económicas, ya que es frecuente que las estadísticas se
perfeccionen con el paso del tiempo, produciéndose saltos en la serie debidos a un
cambio en la medición de la magnitud estudiada. Un caso particularmente frecuente es
el cambio de base en los índices de precios, de producción, etc. Tales cambios de base
implican cambios en los productos y las ponderaciones que entran en la elaboración del
índice que repercuten considerablemente en la comparabilidad de la serie en el tiempo.
Dado que en la mayor parte de los problemas económicos, los agentes se enfrentan a una toma
de decisiones bajo un contexto de incertidumbre, la predicción de una variable reviste una
importancia notoria pues supone, para el agente que la realiza, una reducción de la
incertidumbre y, por ende, una mejora de sus resultados.
Las técnicas de predicción basadas en series temporales se pueden agrupar en dos grandes
bloques:
28
una acción en Bolsa, y la sociedad acaba de salir a cotizar al mercado, no se puede
acudir a la información del pasado ya que ésta no existe.
− Métodos cuantitativos, en los que se extrae toda la información posible contenida en los
datos y, en base al patrón de conducta seguida en el pasado, realizar predicciones sobre
el futuro.
Dentro de los métodos de predicción cuantitativos, se pueden distinguir dos grandes enfoques
alternativos:
− El otro gran bloque dentro de los métodos cuantitativos estaría integrado por el análisis
multivariante o de tipo causal, denominado así porque en la explicación de la variable o
variables objeto de estudio intervienen otras adicionales de ella o ellas mismas.
29
Y1, Y2, Y3, …, YT-1, YT
Dada esa información, la predicción de la variable Y para el período T+1 la podemos expresar
como:
YˆT +1 / T
Con esta notación queremos indicar que la predicción para el periodo T+1 se hace condicionada
a la información disponible en el momento T. El acento circunflejo sobre la Y nos indica que esa
predicción se ha obtenido a partir de un modelo estimado. Conviene también hacer notar que
T+1 significa que se está haciendo la predicción para un período hacia delante, es decir, con la
información disponible en t hacemos una predicción para el período siguiente.
Análogamente, la predicción para el período T+2 y para el período T+m, con la información
disponible en T, vendrá dada, respectivamente, por:
YˆT + 2 / T ; YˆT + m / T
Si, genéricamente, para el período t se efectúa una predicción con la información disponible en
t–1, y a la que designamos por Yˆt / t −1 , para el período t podemos hacer una comparación de este
valor con el que realmente observemos (Yt). La diferencia entre ambos valores será el error de
predicción de un período hacia adelante y vendrá dado por:
et / t −1 = Yt − Yˆt / t −1
Cuando un fenómeno es determinista y se conoce la ley que lo determina, las predicciones son
exactas, verificándose que et / t −1 = 0 . Por el contrario, si el fenómeno es poco sistemático o el
modelo es inadecuado, entonces los errores de predicción que se vayan obteniendo serán
grandes.
Para cuantificar globalmente los errores de predicción se utilizan los siguientes estadísticos: la
Raíz del Error Cuadrático Medio (RECM) y el Error Absoluto Medio (EAM).
30
En el caso de que se disponga de T observaciones y se hayan hecho predicciones a partir de la
observación 2, las fórmulas para la obtención de la raíz del Error Cuadrático Medio y el Error
Absoluto Medio son las siguientes:
T T
∑
t =2
et2/ t −1 ∑ (Y − Yˆ
t =2
t t / t −1 )
2
RECM = =
T −1 T −1
T T
∑
t =2
et / t −1 ∑ Y − Yˆ
t =2
t t / t −1
EAM = =
T −1 T −1
− Fluctuación cíclica (C), que refleja las fluctuaciones de carácter periódico, pero no
necesariamente regular, a medio plazo en torno a la tendencia. Este componente es
frecuente hallarlo en las series económicas, y se debe a los cambios en la actividad
económica.
31
− Variación Estacional (S): recoge aquellos comportamientos de tipo regular y repetitivo
que se dan a lo largo de un período de tiempo, generalmente igual o inferior a un año, y
que son producidos por factores tales como las variaciones climatológicas, las
vacaciones, las fiestas, etc.
− Movimientos Irregulares (I), que pueden ser aleatorios, la cual recoge los pequeños
efectos accidentales, o erráticos, como resultado de hechos no previsibles, pero
identificables a posteriori (huelgas, catástrofes, etc.)
En este punto, cabe señalar que en una serie concreta no tienen por qué darse los cuatro
componentes. Así, por ejemplo, una serie con periodicidad anual carece de estacionalidad.
La asociación de estos cuatro componentes en una serie temporal, Y, puede responder a distintos
esquemas; así, puede ser de tipo aditivo:
Y=T+C+S+I
Y=TCSI
Y=TCS+I
Una forma sencilla para ver como están asociadas las componentes de una serie temporal es
representar gráficamente la serie que estamos analizando. Si al realizar la representación gráfica
se observa que las fluctuaciones son más o menos regulares a lo largo de la serie, sin verse
afectadas por la tendencia (véase Figura. 2.1), se puede emplear el esquema aditivo.
32
Figura 2.1. Esquema aditivo
Si, por el contrario, se observa que la magnitud de las fluctuaciones varía con la tendencia,
siendo más altas cuando ésta es creciente y más bajas cuando es decreciente (véase Figura 2.2),
se debe adoptar entonces el esquema multiplicativo.
33
o regular observado en la serie durante un período de tiempo extenso. La tendencia es la
información más relevante de la serie temporal ya que nos informa de si dentro de cinco, diez o
quince años tendrá un nivel mayor, menor o similar al que la serie tiene hoy día.
El análisis de la tendencia se realiza fundamentalmente con dos objetivos: por un lado, para
conocer cuáles son las pautas de comportamiento a lo largo del tiempo, de la variable objeto de
estudio, y por otro, para predecir sus valores futuros.
1. Lineal.
2. Polinómica.
3. Exponencial.
4. Modelo autorregresivo
5. Función
6. Curva de Gompertz
7. Modelo logarítmico recíproco
Si una serie temporal Xt se ajusta a una tendencia lineal, la función de tiempo que se plantea es
la siguiente:
Xt =α+βt t= 1, 2, …, n
Una tendencia polinómica de grado p se ajustará a una función del siguiente tipo:
f(t) = aert
donde a y r son constantes.
34
La curva logística se representa mediante la función:
T
T (t ) =
1 − be − rt
donde t, b y r son constantes positivas.
f (t) = T·be-rt
donde T, r, b son parámetros positivos.
Para calcular las funciones de tendencia, lo habitual es linealizar las formas de las funciones no
lineales y proceder a su estimación como si fuera una función de tendencia lineal.
Una vez establecido un modelo teórico para la tendencia, se debe proceder a la determinación o
cálculo de los parámetros que desconocemos mediante diversos procedimientos estadísticos,
que pasamos a describir a continuación.
El método de los semipromedios es la forma más rápida de estimar una línea de tendencia recta.
El método requiere dividir la serie de datos en dos mitades y calcular el promedio de cada mitad
que se centra en el punto medio. La recta que una ambas medias (o semipromedios) será la línea
de tendencia estimada.
Ejemplo 2.1.
35
AÑOS Tm.
1985 441.300
1986 441.200
1987 466.700
1988 496.700
1989 527.809
1990 536.445
1991 548.302
1992 599.525
1993 613.849
1994 610.370
Dividimos la serie en dos mitades, cada una de cinco años, y calculamos los promedios de cada
mitad. Los promedios los centramos en las observaciones centrales, las correspondientes a 1987
y 1992:
Yt* = a + bt
El valor de a se obtiene al hacer t=0, y se hace corresponder con el valor del primer promedio:
a = Y0* = 474.472
36
581.698 − 474.742
b= = 21391
.
5
Nótese que al ser cinco los años que hay de diferencia entre 1992 y 1987, años en los que hemos
centrado los promedios, el denominador que utilizamos para calcular el incremento anual es
igual a 5.
La ecuación Yt*=474.742+21391t nos sirve para obtener la tendencia una vez conocidos los
valores t o del regresor, que ha de tener necesariamente valor cero en 1987. Los valores de Xt se
elaboran a partir de una sucesión de puntuaciones consecutivas que van desde un mínimo de -2
de 1985 hasta un máximo de 7 en 1994:
37
Tendencia de las ventas de gasolina
650.000
600.000
550.000
500.000 Tm.
Tendencia
450.000
400.000
1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
Figura 2.3.
El método de mínimos cuadrados es el que más se utiliza para ajustar tendencias. Este método
da los mismos resultados que el método anterior cuando es utilizado para obtener tendencias
lineales. Si realizamos sencillas transformaciones aritméticas de los datos puede también ser
utilizado para representar funciones de tendencias no lineales.
Estimar una tendencia lineal por el método de MCO equivale a estimar la siguiente función:
Yt* = a + bt (2.1.)
38
Si se quiere obtener una tendencia exponencial, debemos linealizar la función lo que requiere su
transformación en logaritmos:
Y = bert (2.2.)
Entonces:
ln Yt = ln b + rt
Una vez estimada la tendencia lineal por mínimos cuadrados, calculamos la exponencial del
logaritmo para devolver la tendencia a la escala de los datos originales.
Ejemplo 2.2
39
Tendencia de las ventas de gasolina
650.000
600.000
550.000
500.000 Tm.
Tendencia
T.Exponencial
450.000
400.000
1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
Figura 2.4.
Para analizar la calidad del ajuste realizado hay que considerar los estadísticos de la regresión
mínimo cuadrada1 :
Estadísticas de la regresión
Coeficiente de correlación múltiple 0,984248834
Coeficiente de determinación R2 0,968745767
2
R ajustado 0,964838988
Error típico 0,023756892
Observaciones 10
1
El capítulo 8.4 dedicado a la regresión minimo-cuadrada estudia los fundamentos de dicha técnica y los
estadísticos que se mencionan.
40
La intercepción en el origen es el coeficiente a, y la “Variable X 1” es el coeficiente b. La tabla
da el abanico de valores más probables para ambos coeficientes al nivel de confianza del 95%,
estos valores son los que figuran en las casillas Inferior y Superior. En el caso del coeficiente a,
el ajuste mínimo-cuadrado da como resultado que lo más probable es que se encuentre entre el
intervalo que va desde el valor 12,91 hasta el 12,98, siendo su valor medio 12,94; en tanto que
el coeficiente b estará en el intervalo que va desde 0,035 hasta 0,047, resultando ser su valor
medio 0,041. Se rechaza en ambos casos la hipóteis nula H 0 : β = 0 a un α = 0,05 , por lo que
Yt = 242801,6.e0,041t
Veamos qué es una media móvil: se trata, sencillamente de una media aritmética que se
caracteriza porque toma un valor para cada momento del tiempo y porque en su cálculo no
entran todas las observaciones de la muestra disponible.
Entre los distintos tipos de medias móviles que se pueden construir nos vamos a referir a dos
tipos: medias móviles centradas y medias móviles asimétricas. El primer tipo se utiliza para la
41
representación de la tendencia, mientras que el segundo lo aplicaremos para la predicción en
modelos con media constante.
Las medias móviles centradas se caracterizan porque el número de observaciones que entran
en su cálculo es impar, asignándose cada media móvil a la observación central. Así, una media
móvil centrada en t de longitud 2n + 1 viene dada por la siguiente expresión:
1 n
Y + Yt − n +1 + ... + Yt + ... + Yt + n −1 + Yt + n
MM ( 2n + 1) t = ∑
2n + 1 i = − n
Yt +i = t −n
2n + 1
Por su parte, en el caso de las medias móviles asimétricas se asigna cada media móvil al
período correspondiente a la observación más adelantada de todas las que intervienen en su
cálculo. Así la media móvil asimétrica de n puntos asociada a la observación t tendrá la
siguiente expresión:
1 t Y + Yt − n + 2 + ... + Yt −1 + Yt
MMA( n ) t = ∑ Yt +i = t −n +1
n i =t − n +1 n
Este tipo de medias móviles se emplea en la predicción de series cuya tendencia muestra una
media constante en el tiempo, utilizándose la siguiente ecuación:
1 T +1 Y Y
MMA( n ) T +1 = ∑ Yt = MMA( n ) T + T +1 − T −n +1
n i =T − n + 2 n n
Es decir, para predecir el valor de la serie en el período siguiente se suma a la media móvil, la
media aritmética de los n últimos períodos, siendo n la longitud de la media móvil.
42
refleja con mayor rapidez los cambios que puedan producirse en la evolución de la serie. Es
conveniente, pues, sopesar estos factores al decidir la longitud de la media móvil.
Ejemplo 2.3
1985 441300
1986 441200 449733
1987 466700 468200
1988 496700 497070
1989 527809 520318
1990 536445 537519
1991 548302 561424
1992 599525 587225
1993 613849 607915
1994 610370
650.000
600.000
550.000
Tm.
500.000
Media movil trienal
450.000
400.000
1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
Figura 2.5.
43
Como se aprecia en la figura 2.5., el inconveniente que tiene la media móvil es que perdemos
información de la tendencia en los ejercicios inicial y final. En este sentido, volvemos a resaltar
que las medias móviles, comparadas con métodos basados en ajustes aritméticos, tienen un
coste informativo.
El método del alisado exponencial simple consiste, al igual que en el caso de las medias
móviles, en una transformación de la variable original. Si una variable Y es sometida a un
proceso de alisado exponencial simple se obtiene como resultado la variable alisada St.
Teóricamente, la variable alisada St se obtendría según la expresión:
donde w es un parámetro que toma valores comprendidos entre 0 y 1, y los puntos suspensivos
indican que el número de términos de la variable alisada puede ser infinito. La expresión
anterior en realidad no es más que una media aritmética ponderada2 de infinitos valores de Y.
Se denomina alisada ya que suaviza o alisa las oscilaciones que tiene la serie, al obtenerse como
una media ponderada de distintos valores. Por otra parte, el calificativo de exponencial se debe a
que la ponderación o peso de las observaciones decrece exponencialmente a medida que nos
alejamos del momento actual t. Esto quiere decir que las observaciones que están alejadas tienen
muy poca incidencia en el valor que toma St. Finalmente, el calificativo de simple se aplica para
distinguirla de otros casos en que, como veremos más adelante, una variable se somete a una
doble operación de alisado.
Una vez que se han visto estos aspectos conceptuales, vamos a proceder a la obtención operativa
de la variable alisada, ya que la expresión no es directamente aplicable, por contener infinitos
términos. Retardando un período en la expresión anterior se tiene que:
2
Para que pueda aceptarse que es una media aritmética ponderada debe verificarse que las ponderaciones,
sumen 1. La demostración, que excede las pretensiones de este texto, se basa en el cálculo de la suma de
infinitos términos de una progresión geométrica convergente.
44
St-1 = (1 – w) Yt-1 + (1 – w) wYt-2 + (1-w) w2 Yt-3 + …
Restando (2.4) de (2.3) miembro a miembro y ordenando los términos se tiene que:
St = (1 - w) Yt + wSt-1
O también:
donde α = 1 – w.
Ahora ya sólo nos falta calcular los valores de α y S0, parámetros a partir de los cuales resulta
sencillo hallar los valores de la variable alisada de forma manera recursiva, tal que:
S1 = αY1 + (1 - α) S0
S2 = αY2 + (1 - α) S1
S3 = αY3 + (1 - α) S2
………………………
Al asignar un valor a α hay que tener en cuenta que un valor pequeño de α significa que estamos
dando mucho peso a las observaciones pasadas a través del término St-1. Por el contrario, cuando
α es grande se da más importancia a la observación actual de la variable Y. En general, parece
que un valor de α igual a 0.2 es apropiado en la mayor parte de los casos. Alternativamente, se
puede seleccionar aquel valor de α para el que se obtenga una Raíz del Error Cuadrático Medio
menor en la predicción del período muestral.
Respecto a la asignación de valor a S0 se suelen hacer estos supuestos: cuando la serie tiene
muchas oscilaciones se toma S = Y1; por el contrario, cuando la serie tiene una cierta estabilidad
se hace S0 = Y .
45
Ejemplo 2.4
46
En el menú de la macro hay que indicar el rango donde están los datos, el coeficiente α = 0,20 ,
y la celda en donde se grabará la salida de resultados, elegimos que nos realice el gráfico y nos
calcule los errores típicos (RECM).
47
2.3.5. Alisado Exponencial Doble
Una variante más avanzada del método anterior es el Alisado Exponencial Doble, también
conocido como método de Brown. Básicamente, lo que se hace mediante este método es
someter a la variable a una doble operación de alisado: en la primera operación se alisa
directamente la variable objeto de estudio, mientras que en la segunda operación se procede a
alisar la variable alisada previamente obtenida. Así pues, las fórmulas del Alisado Exponencial
Doble son las siguientes:
Obsérvese que en los dos alisados se utiliza el mismo coeficiente α. A partir de las dos variables
alisadas se estiman los coeficientes de la recta para utilizarlos en la predicción.
Las fórmulas que permiten pasar de los coeficientes de alisado a los coeficientes de la recta son
las siguientes:
Asimismo, al igual que en el caso del Alisado Exponencial Simple, para poder obtener St' y St’’
es necesario conocer los valores iniciales, que en este caso serían dos, S0’ y S0’’. Para
determinarlos se utilizan las siguientes relaciones que permiten obtener b0t y b1t, aunque en
sentido inverso.
Realizando un ajuste de la recta por mínimos cuadrados con toda la información disponible se
48
Haciendo que:
y tomando t = 0, se obtiene:
1−α
S 0' = b00 − b10
α
1−α
S 0'' = b00 − 2b10
α
En lo que respecta al valor de α, es válido lo que se dijo en el caso del Alisado Exponencial
Simple, siendo aconsejable tomar α = 0.2 o, alternativamente, seleccionar aquel valor de α que
haga mínima la RECM cuando realicemos predicciones.
Yt
Ft = γFt − s + (1 − γ ) , (0 < γ < 1)
Yˆ
t
donde s=4 en el caso de datos trimestrales y s=12 en el caso de los datos mensuales.
Yˆt sería el
suavizado de la serie.
49
Ejemplo 2.5
Utilizando el programa R se va a desarrollar un alisado exponencial doble, para lo cual hay que
invocar la función “HoltWinters”, que tiene la siguiente estructura:
Hay que tener presente que “x” es el conjunto de datos, alpha, beta y gamma, son las
constantes α , β , y γ de (2.6). Si se desea la función elege los coeficientes α , β , y γ
optimos, en la opción “optim.start”, hay que indicar los valores de partida, la function
intenta encontral el valor optimo minimizando el RECM en la opción por defecto. Si no se le
indican los valores de partida los encuera a través de una simple descomposición temporal de la
serie utilizando medias móviles.
> m
Holt-Winters exponential smoothing with trend and additive seasonal
component.
Call:
HoltWinters(x = co2)
Smoothing parameters:
alpha: 0.5126484
beta : 0.009497669
gamma: 0.4728868
Coefficients:
[,1]
a 364.7616237
b 0.1247438
s1 0.2215275
s2 0.9552801
s3 1.5984744
s4 2.8758029
s5 3.2820088
s6 2.4406990
s7 0.8969433
s8 -1.3796428
s9 -3.4112376
s10 -3.2570163
s11 -1.9134850
s12 -0.5844250
50
Realizamos una representación gráfica de los resultados con:
> plot(fitted(m)
− Las ventas diarias de un supermercado que suelen presentar entre semana un esquema
bastante regular.
51
− El movimiento de viajeros en los establecimientos hoteleros que se concentra en
determinados meses del año.
− El consumo de energía eléctrica que suele ser mayor los meses de invierno.
El motivo principal que induce a estudiar los ciclos estacionales es que, de no tenerse en cuenta
estas variaciones, se obtienen bastantes distorsiones a la hora de analizar la evolución de las
series, actuando muchas veces el factor estacional como una máscara que impide captar
adecuadamente la evolución del fenómeno objeto de estudio. Un ejemplo de estas distorsiones
ocurre, por ejemplo, cuando se compara el consumo de electricidad en el primer y segundo
trimestre del año, ya que el ciclo estacional al delimitar un aumento del consumo en los meses
de invierno, impide una interpretación correcta sobre el uso subyacente de la energía de dicho
período.
Por ello, será conveniente eliminar el influjo de los ciclos estacionales en la serie, a fin de poder
realizar comparaciones entre dos estaciones sucesivas y predecir correctamente el
comportamiento futuro de la variable.
Asimismo, cabe señalar que, con carácter previo a la desestacionalización, a menudo hay que
realizar una serie de ajustes en la serie temporal para tener en cuenta hechos o eventos que
pueden afectar al ciclo estacional que tratamos de analizar. Estos eventos que suelen ser
festividades, interrupciones del trabajo debido a huelgas, paros, regulaciones de empleo, etc., no
siempre son eliminados por los promedios dentro del mes o trimestre en que se producen, de ahí
que sea necesario corregir previamente los datos iniciales. Una forma de compensar estas
variaciones es multiplicar la serie de datos origínales por la siguiente razón:
52
en la que la definición de los días efectivos dependerá de la serie cronológica que nos interesa y
de los motivos por los que realizamos el ajuste.
Finalmente, para saber si una serie temporal presenta variaciones estacionales de relevancia, se
suele hacer un análisis de la varianza del componente estacional-irregular de la serie, utilizando
como factor de variación la referencia temporal de la serie (semanal, mensual, trimestral,
etc.…). Dicho análisis proporciona como estadístico la F de Snedecor, cuyo valor comparado
con el que figura en las tablas del Anexo, nos permite determinar si tiene significación el factor
temporal para explicar la varianza de la serie; de admitirse dicha posibilidad, quedaría
demostrado que los movimientos estacionales de la serie son lo suficientemente determinantes
como para proceder a su desestacionalización posterior.
Ejemplo 2.6
Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 26000 29100 28400 31000 35689 37229 32745 37621 35299 40157
2 24800 24200 27600 32400 32566 35146 28720 37208 39508 39203
3 29400 34900 33700 38700 45225 40100 42681 43175 45681 51174
4 35400 33400 40600 39700 35800 46117 44134 49106 55183 48357
5 31900 35200 34300 36500 44900 42894 43489 46905 46689 47538
6 31000 34700 39100 39900 42808 42972 42395 47682 50162 52353
7 56500 47300 50100 49700 54817 54729 57811 62712 66180 58967
8 74400 56900 60700 66100 67900 67200 70278 77667 75607 74335
9 35700 40200 40800 45300 46800 46200 50466 53616 53087 52880
10 34400 36700 38700 40200 40485 43940 46597 49400 49777 49722
11 28900 30300 33600 36100 36760 39572 40813 43204 44232 42519
12 32900 38300 39100 41100 44059 40346 48174 51229 52444 53165
TOTAL 441300 441200 466700 496700 527809 536445 548302 599525 613849 610370
53
Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 0 -7992 -9617 -9067 -7695 -7370 -11358 -10774 -15852 -10918
2 0 -11433 -10733 -8117 -10968 -9395 -15639 -11802 -11472 -11766
3 0 -1108 -4683 -2192 1566 -4391 -2034 -6098 -5255 223
4 0 -2800 2050 -1317 -7883 1338 -802 -401 4216 -2590
5 0 -1117 -4525 -4725 1163 -2119 -1551 -2800 -4364 -3266
6 -5775 -2067 208 -1492 -1176 -1732 -3297 -2279 -992 1489
7 19467 10592 10992 7918 10705 10399 11713 12945 14621 0
8 37417 19908 21192 24304 23573 23405 23472 27708 24074 0
9 -1742 3308 875 2960 2900 2190 3619 3449 1096 0
10 -2875 -792 -1150 -1815 -4275 96 -665 -1274 -1645 0
11 -8650 -7117 -6433 -6615 -7833 -4322 -6733 -7451 -7261 0
12 -4958 517 -1000 -1857 -548 -3500 188 366 768 0
Total 8156527733 95
54
2.4.1. Método del porcentaje promedio
El método del porcentaje promedio es un procedimiento rápido y simple para elaborar un índice
estacional. El primer paso consiste en expresar la información de cada mes (o trimestre) como
un promedio para el año; en un segundo paso se obtienen porcentajes de los promedios anuales;
y, finalmente, en un tercer paso, dichos porcentajes se promedian en cada mes, obteniéndose
como resultado el índice estacional.
Ejemplo 2.7.
Para ilustrar el método del porcentaje promedio utilizamos el anterior ejemplo de las ventas
mensuales de gasolina en Castilla y León para el período 1985-1994.
Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 26000 29100 28400 31000 35689 37229 32745 37621 35299 40157
2 24800 24200 27600 32400 32566 35146 28720 37208 39508 39203
3 29400 34900 33700 38700 45225 40100 42681 43175 45681 51174
4 35400 33400 40600 39700 35800 46117 44134 49106 55183 48357
5 31900 35200 34300 36500 44900 42894 43489 46905 46689 47538
6 31000 34700 39100 39900 42808 42972 42395 47682 50162 52353
7 56500 47300 50100 49700 54817 54729 57811 62712 66180 58967
8 74400 56900 60700 66100 67900 67200 70278 77667 75607 74335
9 35700 40200 40800 45300 46800 46200 50466 53616 53087 52880
10 34400 36700 38700 40200 40485 43940 46597 49400 49777 49722
11 28900 30300 33600 36100 36760 39572 40813 43204 44232 42519
12 32900 38300 39100 41100 44059 40346 48174 51229 52444 53165
TOTAL 441300 441200 466700 496700 527809 536445 548302 599525 613849 610370
MEDIA 36775 36767 38892 41392 43984 44704 45692 49960 51154 50864
• Después calculamos en cada año el porcentaje del promedio, que es la relación que se da
entre las ventas de cada mes y su promedio anual.
55
Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 70.70% 79.15% 73.02% 74.89% 81.14% 83.28% 71.66% 75.30% 69.01% 78.95%
2 67.44% 65.82% 70.97% 78.28% 74.04% 78.62% 62.86% 74.47% 77.23% 77.07%
3 79.95% 94.92% 86.65% 93.50% 102.82% 89.70% 93.41% 86.42% 89.30% 100.61%
4 96.26% 90.84% 104.39% 95.91% 81.39% 103.16% 96.59% 98.29% 107.88% 95.07%
5 86.74% 95.74% 88.19% 88.18% 102.08% 95.95% 95.18% 93.88% 91.27% 93.46%
6 84.30% 94.38% 100.54% 96.40% 97.33% 96.13% 92.78% 95.44% 98.06% 102.93%
7 153.64% 128.65% 128.82% 120.07% 124.63% 122.43% 126.52% 125.52% 129.37% 115.93%
8 202.31% 154.76% 156.07% 159.69% 154.37% 150.32% 153.81% 155.46% 147.80% 146.14%
9 97.08% 109.34% 104.91% 109.44% 106.40% 103.35% 110.45% 107.32% 103.78% 103.96%
10 93.54% 99.82% 99.51% 97.12% 92.04% 98.29% 101.98% 98.88% 97.31% 97.75%
11 78.59% 82.41% 86.39% 87.22% 83.58% 88.52% 89.32% 86.48% 86.47% 83.59%
12 89.46% 104.17% 100.54% 99.30% 100.17% 90.25% 105.43% 102.54% 102.52% 104.52%
• El índice estacional sería el promedio para cada mes de los diez datos anuales:
Años Índice
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 estacional
1 71% 79% 73% 75% 81% 83% 72% 75% 69% 79% 76%
2 67% 66% 71% 78% 74% 79% 63% 74% 77% 77% 73%
3 80% 95% 87% 93% 103% 90% 93% 86% 89% 101% 92%
4 96% 91% 104% 96% 81% 103% 97% 98% 108% 95% 97%
5 87% 96% 88% 88% 102% 96% 95% 94% 91% 93% 93%
6 84% 94% 101% 96% 97% 96% 93% 95% 98% 103% 96%
7 154% 129% 129% 120% 125% 122% 127% 126% 129% 116% 128%
8 202% 155% 156% 160% 154% 150% 154% 155% 148% 146% 158%
9 97% 109% 105% 109% 106% 103% 110% 107% 104% 104% 106%
10 94% 100% 100% 97% 92% 98% 102% 99% 97% 98% 98%
11 79% 82% 86% 87% 84% 89% 89% 86% 86% 84% 85%
12 89% 104% 101% 99% 100% 90% 105% 103% 103% 105% 100%
1200%
El índice nos señala que en el período estudiado las ventas de enero han estado un 75.71%
por debajo de las ventas mensuales promedio de cada año, y que en el mes de agosto el
nivel de ventas fue un 158.07% superior al nivel de venta mensuales promedio anual. Dado
que el valor medio mensual del índice ha de ser igual a 100, la suma de los 12 datos de que
consta el índice mensual debe ser igual a 1200.
56
• Para obtener una serie de las ventas ajustadas estacionalmente, esto es, descontando el
efecto que provoca el ciclo estacional, se dividiría las ventas de cada mes por el
correspondiente índice estacional y se multiplicaría por 100:
Años
Meses 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994
1 34341 38436 37511 40945 47139 49173 43250 49690 46624 53040
2 34122 33297 37975 44579 44807 48357 39516 51194 54359 53939
3 32051 38047 36739 42190 49303 43716 46530 47069 49801 55789
4 36503 34440 41865 40937 36915 47554 45509 50636 56902 49863
5 34276 37822 36854 39218 48244 46089 46728 50398 50166 51078
6 32350 36211 40803 41637 44672 44843 44241 49758 52346 54633
7 44293 37081 39276 38963 42974 42905 45321 49163 51882 46227
8 47066 35996 38400 41816 42954 42512 44459 49133 47830 47025
9 33806 38067 38636 42897 44317 43749 47789 50772 50271 50075
10 35237 37593 39642 41178 41470 45009 47731 50602 50988 50932
11 33898 35540 39411 42343 43117 46415 47871 50675 51881 49872
12 32936 38342 39143 41145 44107 40390 48227 51285 52502 53223
El método del porcentaje del promedio móvil es uno de los métodos más usados para la
medición de la variación estacional. Su cálculo es también bastante sencillo: en primer lugar se
obtiene un promedio móvil de 12 meses de la serie de datos originales (o de 4 trimestres si se
utilizan los datos trimestrales) tal que:
L/2
∑Y t +i
( − L / 2 ) +1 L L L
MM ( L) t +0.5 = , t= , + 1,..., N −
L 2 2 2
MM ( L) t −0.5 + MM ( L) t +0.5 L L L
MM ( L x 2) t = , t = + 1, + 2,..., N −
2 2 2 2
57
Finalmente se obtiene el índice dividiendo los datos originales por el promedio móvil centrado,
MM(L x 2)t:
Yt
EI t =
MM ( L x 2) t
es decir, una estimación conjunta del componente estacional y del componente irregular. A los
valores obtenidos mediante la expresión anterior se los denomina índices brutos de variación
estacional.
Para cada estación se puede calcular una media de todos los índices brutos disponibles. Así,
para la estación h, la media se obtendrá sumando todos los índices brutos de variación
estacional correspondientes a esa estación y dividiendo por K–1, que es el número de datos
disponibles en cada caso; es decir:
E h* =
∑ EI t
, h = 1,2,..., L
K −1
Sin embargo, estos índices no van a ser los definitivos, ya que se trata de índices no
normalizados. Si existe estacionalidad, ésta no debe afectar al nivel de la serie, por lo que es
razonable exigir a los coeficientes de estacionalidad el requisito de que su media sea 1, ó,
alternativamente, que su suma sea L. Cuando los índices de estacionalidad cumplen este
requisito se dice que están normalizados. Los índices de variación estacional normalizados se
pueden calcular fácilmente aplicando una proporción. Así, si utilizamos el símbolo Ê h para
designar el índice de variación estacional de la estación h, su expresión vendrá dada por
58
L
Eˆ h =ˆ E h* L
∑E
h =1
*
h
Finalmente, la serie desestacionalizada se obtendrá dividiendo cada valor de la serie original por
el índice de variación estacional correspondiente. Así, en el caso de que el período t pertenezca
a la estación h, entonces el valor de la serie desestacionalizada, al que designaremos por Dt,
vendrá dado por:
Yt
Dt =
Eˆ h
Ejemplo 2.8.
El primer promedio móvil se centra en el 6º mes (Junio), lo que implica dejar sin valores seis
meses al final de la serie.
59
El segundo promedio, que es una media móvil de dos meses, se realiza para centrar
convenientemente el promedio móvil anterior, el primer valor que aparece es el valor promedio
de 36775 y 37033, y se centra en el 7º mes (Julio), quedando así ambos extremos de la serie
resultante con seis meses de ausencia de datos:
Finalmente se calcula el índice dividiendo los datos originales por el promedio móvil centrado y
multiplicando por cien:
60
Años Meses Ventas Media móvil Promedio Índice
12 meses móvil centrado estacional
1985 1 26000
2 24800
3 29400
4 35400
5 31900
6 31000 36775
7 56500 37033 36904 153.10%
8 74400 36983 37008 201.04%
9 35700 37442 37213 95.94%
10 34400 37275 37358 92.08%
11 28900 37550 37413 77.25%
12 32900 37858 37704 87.26%
1986 1 29100 37092 37475 77.65%
2 24200 35633 36363 66.55%
3 34900 36008 35821 97.43%
4 33400 36200 36104 92.51%
5 35200 36317 36258 97.08%
La serie desestacionalizada de las ventas de gasolina en Castilla y León sería el promedio móvil
centrado de 12 meses:
80000
70000
60000
50000
40000
30000
20000 Ventas
Media movil 12 meses
10000
0
86 Ene.
90 Ene.
May
Jun.
Abr.
Sep.
Mar.
Ago.
Jun.
Abr.
Sep.
May.
Mar.
Ago.
Feb.
Jul.
Dic.
Oct.
Feb.
Jul.
Dic.
Oct.
Nov.
Nov.
Figura 2.6.
61
Los coeficientes de estacionalidad calculados en el epígrafe anterior pueden ser utilizados para
realizar predicciones de la variable. Para ello, vamos a considerar el supuesto de que
disponemos de una muestra de tamaño T y deseamos realizar predicciones para los L períodos
siguientes (por ejemplo, si los datos son trimestrales y la muestra comprende años completos, se
trataría de predecir los valores que toma la variable en los trimestres del primer año
postmuestral).
Bajo el supuesto de estacionalidad estable, el predictor vendrá dado por la siguiente expresión:
Yˆt + h / T = TˆT + h Eˆ h , h = 1, 2, …, L
donde TˆT + h es la predicción obtenida de la tendencia mediante el ajuste de una función a los
datos desestacionalizados.
Hasta ahora hemos considerado el supuesto de que los coeficientes de estacionalidad eran
estables, es decir, que se repetían año tras año. Sin embargo, en muchas ocasiones este supuesto
no es realista, pudiendo ocurrir que estos coeficientes estén afectados por una tendencia.
Bajo el supuesto de estacionalidad cambiante, las fases para la aplicación del método de la razón
a la media móvil son las siguientes:
Las tres primeras fases son las mismas que se aplicaban bajo el supuesto de estacionalidad
estable. Una vez obtenidos los índices brutos de variación estacional, se debe proceder a la
representación de este indicador para cada estación por separado. A la vista de esta
62
representación se tomará la decisión de cuál es la función matemática adecuada para representar
la tendencia de la estacionalidad.
Recuérdese que los índices brutos de variación estacional son una estimación conjunta del
componente estacional y del componente irregular. Por ello, al realizar el ajuste de modelos que
recojan la tendencia de la estacionalidad, lo que estamos haciendo en realidad es separar estos
dos componentes. Así, adoptando el supuesto de que están integrados de forma aditiva, se
tendrá la siguiente descomposición:
EI t = E t* + I t , h = 1, 2, …, L
donde Et* son los valores estimados al ajustar una función del tiempo en la que la variable
dependiente es EI. En la mayor parte de las ocasiones es adecuado el ajuste de una recta para tal
finalidad. Si éste es el caso resulta:
E t* = aˆ h 0 + aˆ h1 r , h = 1, 2, …, L
donde r es el año en que se encuentra el período t. Teniendo en cuenta que al calcular los índices
brutos de variación estacional se pierden L/2 datos al principio y L/2 al final y suponiendo que
se dispone de información sobre K años completos, entonces r variará, según los casos, entre 2 y
K o entre 1 y K–1.
L
Eˆ t =ˆ E t* , m = 1, 2, …, r
∑E
m
*
m
Como puede verse en la fórmula anterior, la normalización se realiza año a año. Por ello, el
factor de normalización es igual a L dividido por la suma de los índices de variación estacional
correspondientes al mismo año (r) en que se encuentra el período t.
63
Finalmente, la serie desestacionalizada, al igual que antes, se obtiene dividiendo la serie original
por el índice de variación estacional correspondiente, es decir,
Yt
Dt =
Eˆ t
Obsérvese que, bajo el supuesto de estacionalidad cambiante, a cada dato de la variable le corresponde un
índice de variación estacional distinto, a diferencia de lo que ocurría bajo el supuesto de estacionalidad
constante, donde el índice de variación estacional permanecía fijo dentro de cada estación.
Yˆt + h / T = TˆT + h Eˆ h , h = 1, 2, …, L
donde TˆT + h es la predicción obtenida de la tendencia mediante el ajuste de una función a los
datos desestacionalizados y E es la predicción de la estacionalidad para el período T+h,
obtenida a partir de un ajuste y su posterior normalización.
64
Y[t] = T[t] + S[t] + e[t]
Y el multiplicativo:
La función calcula el componente de tendencia utilizando medias móviles, (si filter = NULL, se
utilizan medias móviles simétricas), los índices de estacionalidad son promedios de los indices
de estacionalidad que se obtienen al desestacionalizar la serie por el modelo elegido, por último,
el componente irregular se obtiene eliminando la tendencia y estacionalidad de la serie
temporal.
La función requiere que los datos tengan forma de serie temporal, “ts” es la función genérica de
R para que los datos tengan forma de serie temporal. Su sintasis es la siguiente:
> x <- ts(x, start = c(1951, 1), end = c(1958, 4), frequency = 4)
> m
65
$x
Qtr1 Qtr2 Qtr3 Qtr4
1951 -50 175 149 214
1952 247 237 225 329
1953 729 809 530 489
1954 540 457 195 176
1955 337 239 128 102
1956 232 429 3 98
1957 43 -141 -77 -13
1958 125 361 -45 184
$seasonal
Qtr1 Qtr2 Qtr3 Qtr4
1951 62.45982 86.17411 -88.37946 -60.25446
1952 62.45982 86.17411 -88.37946 -60.25446
1953 62.45982 86.17411 -88.37946 -60.25446
1954 62.45982 86.17411 -88.37946 -60.25446
1955 62.45982 86.17411 -88.37946 -60.25446
1956 62.45982 86.17411 -88.37946 -60.25446
1957 62.45982 86.17411 -88.37946 -60.25446
1958 62.45982 86.17411 -88.37946 -60.25446
$trend
Qtr1 Qtr2 Qtr3 Qtr4
1951 NA NA 159.125 204.000
1952 221.250 245.125 319.750 451.500
1953 561.125 619.250 615.625 548.000
1954 462.125 381.125 316.625 264.000
1955 228.375 210.750 188.375 199.000
1956 207.125 191.000 166.875 72.000
1957 -9.250 -33.125 -36.750 36.250
1958 103.000 131.625 NA NA
$random
Qtr1 Qtr2 Qtr3 Qtr4
1951 NA NA 78.254464 70.254464
1952 -36.709821 -94.299107 -6.370536 -62.245536
1953 105.415179 103.575893 2.754464 1.254464
1954 15.415179 -10.299107 -33.245536 -27.745536
1955 46.165179 -57.924107 28.004464 -36.745536
1956 -37.584821 151.825893 -75.495536 86.254464
1957 -10.209821 -194.049107 48.129464 11.004464
1958 -40.459821 143.200893 NA NA
$figure
[1] 62.45982 86.17411 -88.37946 -60.25446
$type
[1] "additive"
attr(,"class")
[1] "decomposed.ts"
66
Una función técnicamente más elaborada para descomponer series temporales en R es la
función “stl”, cuya referencia bibliográfica es Cleveland, R.B. , Cleveland W. S., McRae J. E, y
Terpenning I. (1990
67
2.5. PROBLEMAS
2.1.- En la tabla siguiente se recogen las ventas de una empresa en millones de euros
Trimestres/Años
2006 2007 2008 2009 2010
Primero 3 4 3 6 7
Segundo 3 6 6 7 9
Tercero 4 7 7 10 11
Cuarto 4 6 6 4 7
Se pide:
2.2.- Con los datos de la tabla siguiente realice un suavizado exponencial simple con α = 0.4 y
calcule el del Error Cuadrático Medio y el Error Absoluto Medio.
t Y
0 58
1 54
2 60
3 55
4 62
5 62
6 65
7 63
8 70
2.3.- Utilizando los datos del problema 2.1.-, realice una desestacionalización por el método del
porcentaje promedio y porcentaje promedio móvil, y obtenga el índice estacional.
2.4.- Descomponga en la serie co2 que incluye la librería genérica R utilizando el modelo
multiplicativo y presente los resultados gráficos.
SOLUCIONES
2.1.-
Solución:
68
a) V*=4,6+0,28t , t=(-4,-3,…..,15)
b) V*=3,06+0,28t , t=(1,2,…..20)
c)
2.2.-
Pronostico
58,000
55,600
58,240
56,296
59,718
61,087
63,435
63,174
EAM=1,370
RECM=1,505
69
2.3.-
Serie desestacionalizada por el método de porcentaje promedio
Trimestres/Años
2006 2007 2008 2009 2010
Primero 3,9363179 5,2484238 3,9363179 7,8726357 9,1847417
Segundo 2,9484662 5,8969325 5,8969325 6,8797546 8,8453987
Tercero 3,1208187 5,4614327 5,4614327 7,8020467 8,5822513
Cuarto 4,2613335 6,3920003 6,3920003 4,2613335 7,4573337
Serie Índice
Año Desestacionalizada estacional
1.2006
2.2006
3.2006 3,625 90,6%
4.2006 4,125 103,1%
1.2007 4,875 121,9%
2.2007 5,5 91,7%
3.2007 5,625 80,4%
4.2007 5,5 91,7%
1.2008 5,5 183,3%
2.2008 5,5 91,7%
3.2008 5,875 83,9%
4.2008 6,375 106,3%
1.2009 6,875 114,6%
2.2009 7 100,0%
3.2009 6,875 68,8%
4.2009 7,25 181,3%
1.2010 7,625 108,9%
2.2010 8,125 90,3%
3.2010
4.2010
70
3. ANÁLISIS UNIVARIANTE DE SERIES
TEMPORALES
3.1. INTRODUCCIÓN
La publicación de la obra Time Series Analysis: Forecasting and Control por G. E. P. Box y G.
M. Jenkins en 1976 estableció un punto de inflexión en las técnicas cuantitativas de predicción
en Economía. La metodología propuesta por estos autores, también conocida como metodología
ARIMA, trata de realizar previsiones acerca de los valores futuros de una variable, utilizando
únicamente como información la contenida en los valores pasados de la propia serie temporal.
Este enfoque supone una alternativa a la construcción de modelos uniecuacionales o de
ecuaciones simultáneas, pues supone admitir que las series temporales poseen un carácter
estocástico, lo que implica que deben analizarse sus propiedades probabilísticas para que éstas
“hablen por sí mismas”.
El análisis univariante de series temporales presenta como ventaja frente a otros métodos de
predicción el no depender de los problemas de información asociados a las variables endógenas
o exógenas. Como hemos visto en capítulos anteriores, los modelos económicos que hemos
estimado hasta el momento requerían un conjunto de variables exógenas que se utilizaban para
explicar el comportamiento de una variable endógena. Sin embargo, en muchas ocasiones no se
dispone de observaciones para alguna de las variables exógenas, ya sea porque no es posible
medir la variable (por ejemplo, las expectativas de los agentes) o porque la muestra de datos de
que disponemos para representar dicha variable presenta errores de medida (cuyas
consecuencias se vieron en el capítulo 4). Este problema desaparece cuando se trata de
modelizar una variable endógena mediante un modelo de tipo univariante como el propuesto por
Box y Jenkins, ya que se hace depender a dicha variable tan sólo de su propio pasado y un
conjunto de perturbaciones aleatorias, pero no de otras variables, caracterizando así las series
económicas en su dimensión temporal.
71
3.2. PROCESOS ESTÓCÁSTICOS
La relación existente, por tanto, entre una serie temporal y el proceso estocástico que la genera
es análoga a la que existe entre una muestra y la población de la que procede, de tal forma que
podemos considerar una serie temporal como una muestra o realización de un proceso
estocástico, formada por una sola observación de cada una de las variables que componen el
proceso. La tarea del investigador será, por tanto, inferir la forma del proceso estocástico a partir
de las series temporales que genera.
Un proceso estocástico, Yt, se suele describir mediante las siguientes características: esperanza
matemática, varianza, autocovarianzas y coeficientes de autocorrelación.
Por su parte, la varianza de un proceso aleatorio es una sucesión de varianzas, una por cada
variable del proceso:
Las autocovarianzas, por su parte, son las covarianzas entre cada par de variables del proceso
tales que:
72
Finalmente, los coeficientes de autocorrelación son los coeficientes de correlación lineal entre
cada par de variables que componen el proceso:
γ t ,t + k
ρ t ,t + k = , t = 1,2,3..., con − 1 ≤ ρ t ,t + k ≤ 1
Var (Yt )·Var (Yt + k )
Por último, a partir de los coeficientes de autocorrelación, vamos a definir dos funciones que
nos serán muy útiles a lo largo del presente capítulo:
− La función de autocorrelación parcial (fap), que mide la correlación existente entre dos
variables del proceso en distintos períodos de tiempo, pero una vez eliminados los
efectos sobre las mismas de los períodos intermedios. Por ejemplo, puede que exista
cierta correlación entre Yt e Yt-2 debido a que ambas variables estén correlacionadas con
Yt-1.
Dado que en la práctica se dispone de una muestra de un proceso estocástico, Y1, ...YT, se pueden
obtener los coeficientes de autocorrelación simple y parcial muestral y utilizarlos como
estimadores de los parámetros de la función de autocorrelación simple y parcial teórica.
Así, la función de autocorrelación simple (fas) puede estimarse a partir de las autocovarianzas
del proceso tal que:
γˆ k
ρˆ k =
γˆ 0
Siendo:
∑ (Y
t =1
t − Y )2
γˆ0 =
T
73
T T
∑ (Yt − Y )(Yt +k − Y )
t = k +1
∑ (Y
t = k +1
t+k − Y )(Yt − Y )
γˆk = =
T −k T −k
La estimación de los parámetros de la función de autocorrelación parcial (fap) resulta algo más
compleja, por lo que se verá en epígrafes posteriores.
Se dice que un proceso estocástico es estacionario en sentido estricto si todas las variables
aleatorias que componen el proceso están idénticamente distribuidas, independientemente del
momento del tiempo en que se estudie el proceso. Es decir, la función de distribución de
probabilidad de cualquier conjunto de k variables (siendo k un número finito) del proceso debe
mantenerse estable (inalterable) al desplazar las variables s períodos de tiempo tal que, si P(Yt+1,
Yt+2, …, Yt+k ) es la función de distribución acumulada de probabilidad, entonces:
74
entre ambos tipos de series queda patente en los gráficos que se muestran en las figuras 3.1. y
3.2.
Sin embargo, en la práctica el aspecto visual de la serie no siempre será una herramienta
suficiente para decidir si ésta es estacionaria o no, debiendo recurrir al diagrama desviación
típica – media, esto es, a la representación gráfica de la media (eje de abscisas) contra la
desviación típica (eje de ordenadas), calculadas sobre subdivisiones de la serie en grupos del
mismo tamaño. En función de la configuración que adopte dicho gráfico decidiremos si la serie
es estacionaria o no, tal y como puede apreciarse en los gráficos de la figura 3.3.
75
Serie estacionaria en media y varianza Serie no estacionaria en varianza
Pero, ¿por qué resulta importante para el investigador que el proceso analizado sea estacionario?
La razón fundamental es que los modelos de predicción de series temporales que veremos a
continuación están diseñados para ser utilizados con procesos de este tipo. Si las características
del proceso cambian a lo largo del tiempo, resultará difícil representar la serie para intervalos de
tiempo pasados y futuros mediante un modelo lineal sencillo, no pudiéndose por tanto realizar
previsiones fiables para la variable en estudio.
Sin embargo, por regla general, las series económicas no son series que procedan de procesos
estacionarios, sino que suelen tener una tendencia, ya sea creciente o decreciente, y variabilidad
no constante. Dicha limitación en la práctica no es tan importante porque las series no
estacionarias se pueden transformar en otras aproximadamente estacionarias después de aplicar
diferencias a la serie en una ó más etapas. Por ello, cuando estemos analizando una serie
económica que no sea estacionaria en media deberemos trabajar con la serie en diferencias,
especificando y estimando un modelo para la misma. Si además observamos que la serie
76
presenta no estacionariedad en varianza, deberemos transformarla tomando logaritmos antes de
aplicar diferencias en la serie3.
Posteriormente la predicción que realicemos con las series transformadas habrá que traducirla a
una predicción para la serie original, en cuyo análisis estaba interesado inicialmente el
investigador, deshaciendo las diferencias y aplicando antilogaritmos según convenga.
Por último, antes de continuar avanzando, debemos hacer mención a un tipo de proceso
estacionario particular: es el denominado ruido blanco, un proceso estocástico en el que las
variables aleatorias que lo forman no están correlacionadas entre sí, siendo su esperanza
matemática igual a cero y su varianza constante e igual a σ2.
En particular, supondremos que los errores de los procesos que veremos a continuación son
ruidos blancos gaussianos, formados por una sucesión de variables aleatorias con distribución
Normal, esperanza cero, varianza constante e incorrelacionadas serialmente entre sí. Es decir:
εt es ruido blanco gaussiano si εt ∼ N(0,σ2), para cualquier t, tal que Cov(εt,εt’) = 0, ∀ t≠t'
3
La aplicación de logaritmos a la serie para hacerla estacionaria en varianza es lo que se conoce como
transformación Box-Cox. Para más detalles, véase Venables y Ripley (2002).
77
3.3.1. Operador de Retardos y Operador Diferencia
Antes de seguir avanzando, debemos mencionar dos operadores que utilizaremos
frecuentemente a lo largo del capítulo. Por un lado, se define el operador de retardos, que
denotaremos por B, como aquel operador que al ser aplicado a la serie la transforma de tal forma
que:
BYt = Yt-1
y, en general, podemos decir que el operador Bk aplicado sobre una variable en el periodo t, la
retarda k períodos tal que:
BkYt = Yt-k
Por su parte, el operador diferencia, el cual denotaremos por ∆, aplicado a una serie la
transformará de tal forma que:
∆Yt = Yt – Yt-1 = (1 – B) Yt
∆kYt = (1 – B) kYt
78
Por lo que resulta evidente que la relación existente entre el operador diferencia y el operador
retardo es:
∆k = (1 – B) k
Las estructuras estocásticas estacionarias lineales que se tratarán de asociar a una serie de datos
económicos se clasifican en tres tipos: modelos autorregresivos, modelos de medias móviles y
modelos mixtos, los cuales pasamos a ver a continuación.
¿Por qué el análisis de series temporales se ha centrado en este tipo de procesos? La principal
justificación es el Teorema de la descomposición de Wold (1938): Un proceso estocástico
discreto, estacionario en covarianza, se puede representar unívocamente como la suma de dos
procesos mutuamente incorrelacionados, Yt = Dt + Wt , siendo Dt un proceso puramente
79
Restringiremos el estudio a los procesos lineales discretos que dependan de pocos parámetros
conocidos como procesos autorregresivos de medias móviles de órdenes p y q, abreviadamente
ARMA(p,q), que se definen:
invertibilidad con objeto de que el modelo sea útil para predecir, y que implica la condición
lim s →∞ ϕ s = 0 en la forma autorregresiva.
Pasamos a mostrar las propiedades que caracterizan a los distintos procesos ARMA. Dentro de
esta clase general de modelos encontramos dos casos particulares, los procesos autorregresivos
(cuando q=0) y los procesos médias móviles (si p=0).
donde δ es un término constante y εt es un ruido blanco, que representa los errores del ajuste y
otorga el carácter aleatorio al proceso.
80
Asimismo, haciendo uso del operador de retardos que veíamos anteriormente, el proceso
también puede expresarse como:
O también:
φp(L)Yt = δ + εt
Yt = δ + φ1Yt-1 + εt
δ
E (Yt ) = E (Yt −1 ) = µ ⇒ µ = δ + φ1 µ ⇒ µ = (3.2)
1 − φ1
σ ε2
Var (Yt ) = Var (Yt −1 ) = γ 0 ⇒ γ 0 = φ12γ 0 + σ ε2 ⇒ γ 0 =
1 − φ12
La condición a cumplir para que µ y γ0 sean positivas y finitas es que |φ1| < 1 . En ese caso el
proceso será estacionario en media y varianza. Del mismo modo, si el proceso es estacionario,
también se verificará para las covarianzas que:
81
Cov(Yt −1 , Yt ) = Cov (Yt , Yt +1 ) = γ 1 , ∀t
(3.3)
Cov(Yt −1 , Yt ) = E [(Yt −1 − µ )(Yt − µ )] = E ( y t −1 y t )
Donde las variables en minúscula expresan que los datos están expresados en desviaciones
respecto a la media.
Yt = δ + φ1Yt −1 + ε t = µ (1 − φ1 ) + φ1Yt −1 + ε t
Yt − µ = φ1 (Yt −1 − µ ) + ε t ⇒ y t = φ1 y t −1 + ε t
El resultado anterior puede generalizarse si tomamos esperanzas entre yt e yt-k obteniéndose que,
en general:
γ k = φ1k γ 0
ρ0 = 1
γ
ρ1 = 1 = φ1
γ0
γ
ρ 2 = 2 = φ12
γ0
LLL
γk
ρk = = φ1k
γ0
Del resultado anterior se deduce que los valores de la función de autocorrelación son las
sucesivas potencias del parámetro φ1. La condición |φ1|<1 garantiza que los sucesivos valores ρk
82
convergerán a cero, si bien la función puede presentar dos aspectos distintos, dependiendo del
signo de φ1 como puede observarse en la figura 3.5.
φ1 >0 φ1 <0
La condición |φ1|<1 para que el proceso AR(1) sea estacionario es equivalente a la condición de
que la raíz del operador polinomial φ(Β) = 0 debe caer fuera del círculo unidad, es decir:
1
1 − φ1 B = 0 ⇒ B > 1 ⇒ > 1 ⇒ φ1 < 1
φ1
Yt = δ + φ1Yt-1 + φ2Yt-2 + εt
Del mismo modo que antes, si el proceso es estacionario en media y varianza tenemos que E(Yt)
= E(Yt-1)= E(Yt-2) y Var(Yt) = Var(Yt-1) = Var(Yt-2), ∀t.
δ
E (Yt ) = E (Yt −1 ) = µ ⇒ µ = δ + φ1 µ + φ 2 µ ⇒ µ =
1 − φ1 − φ 2
83
σ ε2
Var(Yt ) = Var(Yt −1 ) = Var(Yt −2 ) = γ 0 ⇒ γ 0 = φ12 γ 0 + φ 22 γ 0 + σ ε2 ⇒ γ 0 =
1 − φ12 − φ22
Finalmente, para las covarianzas se verificará que:
ρ0 = 1
γ φ γ + φ2γ 1 φ
ρ1 = 1 = 1 0 = φ1 + φ 2 ρ 1 → ρ1 = 1
γ0 γ0 1 − φ2
γ2 φ2
ρ2 = = φ1 ρ 1 + φ 2 → ρ 2 = 1 + φ 2
γ0 1 − φ2
LLL
γk
ρk = = φ1 ρ k −1 + φ 2 ρ k − 2 , k > 0
γ0
1 − φ1 B + φ2 B 2 = 0
84
Asimismo, si el parámetro φ2 fuera negativo, la resolución de las raíces del polinomio podría
generar raíces imaginarias; en tal caso, Yt presentará ciclos de periodo T que vendrán dados por
la expresión:
2π φ1
cos =
T 2 − φ2
Al igual que en el caso anterior, la función de autocorrelación simple converge a cero si bien
ahora puede presentar cuatro aspectos distintos en función de los signos de φ1 y φ2, como puede
apreciarse en la figura 3.6.
85
Yt = δ + φ1Yt-1 + φ2Yt-2 + ...+ φpYt-p + εt
δ
µ=
1 − φ1 − φ 2 − ... − φ p
Por lo que para que la media sea finita, deberá verificarse que φ1 + φ 2 + ... + φ p ≠ 1
Del mismo modo, generalizando los resultados obtenidos para los coeficientes de la función de
autocorrelación simple se tiene que:
γ 1 = φ1γ 0 + φ 2 γ 1 + ... + φ p γ p −1
γ 2 = φ1γ 1 + φ 2 γ 0 + ... + φ p γ p − 2
.............................. ..............
γ k = φ1γ k −1 + φ 2 γ k − 2 + ... + φ p γ 0
ρ 1 = φ1 ρ 0 + φ 2 ρ 1 + ... + φ p ρ p −1
ρ 2 = φ1 ρ 1 + φ 2 ρ 0 + ... + φ p ρ p − 2
.............................. ..............
ρ k = φ1 ρ p −1 + φ 2 ρ p − 2 + ... + φ p ρ 0
86
Dado que p es el orden del proceso autorregresivo, resulta evidente que los coeficientes de
autocorrelación parcial serán distintos de cero para retardos iguales o inferiores a p. Así, para un
proceso AR(1) tendríamos una función de autocorrelación parcial como la que se muestra en la
figura 3.7.
φ1 >0 φ1 <0
Del mismo modo, la función de autocorrelación parcial para un proceso AR(2) tendrá la
siguiente forma (fig. 3.8.):
87
Finalmente, y de forma análoga a los resultados obtenidos en los procesos AR(1) y AR(2), para
que un proceso autorregresivo de orden p sea estacionario, las raíces del polinomio de retardos
del proceso, 1 − φ1 B + φ2 B 2 + ... + φ p B p = 0 , deberán ser menores a la unidad en valor absoluto.
Pasamos a ver a continuación las características particulares de dos procesos de medias móviles
básicos, el de orden 1 ó MA(1), y el de orden 2 ó MA(2). Posteriormente, los resultados
obtenidos se generalizarán, como ya hicimos en el caso de los procesos autorregresivos, al caso
de un proceso de medias móviles de orden q, MA(q).
Yt = δ + εt – θ1εt-1
siendo su media E(Yt) = δ, y su varianza Var (Yt) = Var(εt) + θ12 Var(εt-1) = σ ε2 (1+ θ12 ) = γ0
88
El resultado obtenido pone de manifiesto que los procesos de media móvil poseen memoria de
sólo un período, ya que cualquier valor de Yt está correlacionado con Yt-1 e Yt+1 pero con ningún
otro valor de la serie.
A partir de las expresiones anteriores, y de modo análogo a como procedíamos en el caso de los
modelos AR, podemos obtener los coeficientes de la función de autocorrelación simple:
ρ0 = 1
γ − θ1
ρ1 = 1 =
γ 0 1 + θ12
γ
ρ k = k = 0, ∀k > 1
γ0
De todos estos resultados se desprende que un proceso MA(1) siempre es estacionario con
independencia del valor de θ1.
θ1 > 0 θ1 < 0
89
3.4.3.2. Modelos de medias móviles de segundo orden MA(2)
Veamos ahora el caso de un proceso MA(2). Dicho proceso viene definido por la siguiente
ecuación:
Yt = δ + εt – θ1εt-1 – θ2εt-2
con media E(Yt)=δ y varianza Var(Yt)=Var(εt)+ θ12 Var(εt-1)+ θ 22 Var(εt-2)= σ ε2 (1+ θ12 + θ 22 )=γ0
ρ0 = 1
γ − θ 1 + θ 1θ 2
ρ1 = 1 =
γ 0 1 + θ12 + θ 22
γ − θ2
ρ2 = 2 =
γ 0 1 + θ 12 + θ 22
L
γk
ρk = = 0, ∀k > 2
γ0
De los resultados obtenidos para el modelo MA(2) también se desprende que siempre es
estacionario con independencia del valor de sus parámetros, siendo su memoria en este caso de
dos períodos.
90
La representación gráfica de la función de autocorrelación simple, la cual depende del signo de
θ1 y θ2, es la que se muestra en la figura 3.10.
91
3.4.3.3. Modelos de medias móviles de orden q, MA(q)
Una vez analizados los resultados obtenidos para los procesos de media móvil de orden 1 y 2,
ya podemos obtener una generalización de las expresiones anteriores para un proceso de media
móvil de orden q cualquiera.
Los coeficientes de la función de autocorrelación simple pueden ser obtenidos a partir de las
expresiones anteriores de autocovarianzas, no siguiendo los mismos una expresión regular. En
cualquier caso, cualquier proceso MA de orden finito es estacionario.
92
3.4.3.4. Relación entre procesos AR y MA
Cualquier proceso MA(q) puede expresarse como un AR de orden infinito. Así, por ejemplo, si
consideramos un modelo MA(1) cuya expresión es, como sabemos:
Yt = δ + εt – θ1εt-1 (3.4)
Despejando en (3.4) el valor de εt y sustituyendo de forma recursiva los valores de εt-1 y εt-2,
tenemos que:
Del mismo modo, puede comprobarse que en el caso de un modelo MA(2), la condición que
debe verificarse es |θ1+θ2|< 1 ó, en términos de raíces del polinomio de retardos, 1–θ1B–θ2B2=0
⇒ B >1, y en general, para cualquier modelo MA(q), la condición es 1–θ1B–θ2B2–...–θqBq = 0
⇒ B >1
93
Si se verifica esta condición, denominada condición de invertibilidad, entonces es posible
expresar un proceso MA(q) como un proceso AR de orden infinito, lo que implica que un
proceso de media móvil consta de infinitos coeficientes de autocorrelación parcial distintos de
cero, si bien a partir de q comenzarán a decaer rápidamente. Así, la función de autocorrelación
parcial de un proceso de media móvil se comportará de manera análoga a como lo hace la
función de autocorrelación simple de un proceso autorregresivo, como puede apreciarse en la
figura 3.11. para un proceso MA(1) y en la figura 3.12. para un proceso MA(2).
θ1 >0 θ1 <0
94
3.4.4. Procesos ARMA(p, q)
Los procesos ARMA (p, q) son, como su nombre indica, un modelo mixto que posee una parte
autorregresiva y otra de media móvil, donde p es el orden de la parte autorregresiva y q, el de la
media móvil. La expresión genérica de este tipo de procesos es:
En este tipo de modelos deben verificar las dos condiciones que hemos visto hasta el momento:
por un lado, la condición de estacionariedad, debiéndose cumplir que las raíces del polinomio de
retardos de la parte autorregresiva, φ(Β) = 0, estén fuera del círculo unidad; y por otro, la
condición de invertibilidad, debiéndose verificar que las raíces del polinomio de retardos de la
parte MA, θ(L) = 0, estén fuera del círculo unidad.
Yt = δ + φ1Yt-1 + εt – θ1εt-1
δ
Media: µ = < ∞, φ1 ≠ 1
1 − φ1
σ ε2 (1 + θ 12 − 2φ1σ ε2 )
⇒γ0 = , con φ1 < 1
1 − φ12
95
γ 1 = E [Yt −1Yt ] = φ1γ 0 − θ1σ ε2
γ 2 = E [Yt −2Yt ] = φ1γ 1
L
γ k = E [Yt − k Yt ] = φ1γ k −1 , ∀k ≥ 2
A continuación se presentan en las figuras 3.13. y 3.14. las funciones de autocorrelación simple
y parcial de un proceso ARMA (p, q).
φ1>0, θ1>0, |φ1| > |θ1| φ1>0, θ1>0, |φ1| < |θ1|
φ1<0, θ1<0, |φ1| > |θ1| φ1<0, θ1<0, |φ1| < |θ1|
96
φ1>0, θ1<0, |φ1| = |θ1| φ1<0, θ1>0, |φ1| = |θ1|
φ1>0, θ1>0, |φ1| > |θ1| φ1>0, θ1>0, |φ1| < |θ1|
φ1<0, θ1<0, |φ1| > |θ1| φ1<0, θ1<0, |φ1| < |θ1|
97
El simple examen de los gráficos anteriores pone de manifiesto que no resulta nada sencillo en
la práctica identificar un proceso ARMA (1, 1) a través de sus funciones de autocorrelación
simple y parcial, ya que es fácil confundir dichas funciones con las de otros procesos
univariantes. Por ello, normalmente el investigador seguramente especifique y estime
inicialmente un modelo más sencillo, como por ejemplo un AR(2); posteriormente el análisis de
los residuos obtenidos en dicha estimación pondrá de manifiesto la presencia de otras
estructuras. Si, por ejemplo, el investigador detecta en las funciones de autocorrelación simple y
parcial de los residuos obtenidos una estructura de MA(1) será necesario incorporar dicha
estructura especificando un modelo ARMA (2, 1), el cual sin duda tendrá una mayor capacidad
explicativa.
φ ( B )ωt = δ + θ ( B )ε t
El modelo ARIMA(p, d, q) puede ser considerado como el modelo estocástico lineal general,
del cual derivan el resto de procesos que hemos visto. Así, si p = d = 0, estaremos ante un
modelo ARIMA(0, 0, q) equivalente a un modelo MA(q); si q = 0 tendríamos un modelo
ARIMA (p, d, 0) ó ARI(p,d) (es decir, un modelo autorregresivo en el que se han tomado d
diferencias para hacer estacionaria a la serie analizada).
98
3.4.5. Procesos Estacionales
Cuando trabajamos con series temporales cuya frecuencia de medida es inferior al año
(mensuales, trimestral, cuatrimestrales), es frecuente encontrarse con patrones estacionales, es
decir, ciclos u oscilaciones estrictamente periódicos, siendo dicho período igual o inferior al
año. Por ejemplo, si una serie trimestral presenta estacionalidad diremos que su periodo
estacional será igual a cuatro cuando en dicha serie se aprecian similitudes en su
comportamiento cada cuatro trimestres.
Otra manera para detectar un comportamiento estacional consiste en analizar las funciones de
autocorrelación simple y parcial de la serie de la que se sospecha que presenta un
comportamiento de tipo estacional. Si al representar dichas funciones se aprecian valores muy
altos, significativamente distintos de cero, para los retardos estacionales podremos concluir que
la serie presenta un componente estacional el cual debe presentar un carácter estacionario, es
decir, debemos exigir que el componente estacional se mantenga constante a lo largo del
tiempo.
99
comportamiento estacional, aplicando para ello el operador diferencia estacional, ∆s, que se
define como:
Así, podemos especificar el siguiente modelo para la parte estacional detectada en la serie:
A su vez, podemos suponer que el término de error de este modelo, ut, viene generado por un
proceso ARIMA(p, d, q) en lugar de ser ruido blanco tal que:
100
O, de forma más abreviada, expresando el modelo en notación de retardos y generalizándolo
incluyendo un término constante:
Φ ( B s )φ ( B )[(1 − B s ) D (1 − B ) d Yt − δ ] = Θ( B s )θ ( B )ε t
donde:
Así, por ejemplo, si deseamos especificar un modelo para una serie con estacionalidad mensual
podemos especificar un ARIMA(1, 1, 1) × ARIMA(1,1, 1)12, el cual puede escribirse como:
La estructura de las funciones de autocorrelación simple y parcial suele ser generalmente muy
compleja de este tipo de modelos por lo que no vamos a entrar en detalle en sus expresiones,
limitándonos a presentar a continuación la forma de las funciones de autocorrelación simple y
parcial de algunos procesos típicos de muchas series económicas.
101
Funciones de autocorrelación simple y parcial de algunos
procesos ARIMA(p, d, q) × ARIMA(P, D, Q)s
a) φ1>0, Φ1>0, φ1 = Φ 1
b) φ1>0, Φ1<0, φ1 = Φ 1
c) φ1<0, Φ1>0, φ1 = Φ 1
102
d) φ1<0, Φ1<0, φ1 = Φ 1
103
c) φ1>0, φ2<0, Φ1>0, φ2 < φ1 < Φ 1
104
f) φ1<0, φ2>0, Φ1<0, φ2 < φ1 < Φ 1
105
ARIMA(0, 0, 1) × ARIMA(0, 0, 1)12
a) θ1>0, Θ1>0, θ1 = Θ1
b) θ1>0, Θ1<0, θ1 = Θ1
c) θ1<0, Θ1>0, θ1 = Θ1
106
d) θ1<0, Θ1<0, θ1 = Θ1
107
c) θ1>0, θ2<0, Θ1>0, θ 2 < θ1 < Θ1
108
f) θ1<0, θ2>0, Θ1<0, θ 2 < θ1 < Θ1
109
ARIMA(0, 0, 1) × ARIMA(2, 0, 0)12
110
b) θ1>0, Φ1<0, Φ2<0, Θ1>0, θ1 = Φ 1 = Θ1 , Φ 2 < Θ1
Aunque las fases que vamos a explicar a continuación son válidas para cualquier tipo de proceso
univariante, vamos a centrarnos fundamentalmente en los procesos de tipo ARIMA.
Básicamente se trata de buscar un proceso ARIMA que de forma verosímil haya podido generar
la serie temporal, es decir, que se adapte mejor a las características de la misma. Para ello
seguiremos las siguientes fases:
− Fase de identificación
− Fase de estimación
− Fase de validación
− Fase de predicción
111
− A través del gráfico desviación típica-media. Si en el gráfico realizado observamos que,
conforme crece la media, la desviación típica aumenta, la varianza del proceso será
creciente por lo que diremos que la serie es no estacionaria en varianza.
En este punto cabe señalar que es preferible trabajar con series económicas en niveles en lugar
de tasas de variación ya que, en caso de detectarse no estacionariedad en la varianza, no
podremos aplicar logaritmos si existe alguna tasa negativa. Asimismo, debemos tener en cuenta
que normalmente las series originales transformadas aplicando logaritmos y tomando
posteriormente una diferencia constituyen una aproximación a una tasa de variación tal que
∆lnYt ≅ (Yt – Yt-1) / Yt-1
112
− En los modelos MA(q), se da el patrón opuesto: la función de autocorrelación simple se
anula para retardos superiores a q y la función de autocorrelación parcial decrece
exponencial o sinusoidalmente.
− Sin embargo, como ya hemos visto, la especificación de los modelos ARMA no se ajusta a
unas normas tan bien definidas. Por ejemplo, en un modelo AR(1), la función de
autocorrelación parcial es cero para k>1, pero esto no ocurre en un ARMA(1,1), pues a la
componente AR(1) hay que superponer la MA(1) cuya función de autocorrelación parcial
converge exponencialmente a cero.
− En cualquier caso, para que una serie sea fácilmente identificable hay que considerar un
tamaño muestral elevado, superior a 50 observaciones.
Asimismo, debemos tener presente que el proceso estimado debe verificar las siguientes
hipótesis:
a) El término εt posee estructura de ruido blanco y sigue una distribución Normal con
media 0 y varianza σ ε2 .
113
b) La parte AR del proceso es estacionaria.
Para la aceptación del modelo, éste debe cumplir los siguientes requisitos:
• Análisis de los residuos. Como sabemos, una de las hipótesis de los modelos
univariantes es que el término de error del modelo es ruido blanco. Por ello, los residuos
obtenidos tras la estimación del modelo deben seguir un proceso puramente aleatorio
con distribución Normal, ya que de lo contrario, contendrían información relevante para
la predicción que se estaría despreciando.
114
Con objeto de estudiar si los residuos se aproximan al comportamiento de un proceso de
ruido blanco, se disponen de las siguientes herramientas:
k
rˆj2
Q ( k ) = T (T + 2 ) ∑
j =1
T−j
T −k
∑ε ε
t =1
t t −k
donde T es el número de observaciones y rˆk = T −k
es el coeficiente
∑ t =1
ε t2
Dicho estadístico, bajo la hipótesis nula de que los residuos del modelo son
ruido blanco sigue una distribución χ 2 con k grados de libertad, por lo que
se rechazará la hipótesis nula si el valor del estadístico obtenido es superior
al tabulado en la distribución a un nivel de significación dado.
rˆk ≈ N (0, 1 / T )
115
En consecuencia, bajo la hipótesis nula de que r̂k =0, se puede construir un
2
intervalo de confianza acotado por ± . Si algún r̂k cayera fuera de este
T
intervalo, entonces se rechazará la hipótesis de no autocorrelación.
A 2 ( K − 3) 2
JB = N ⋅ +
6 24
4
Recordemos que los coeficientes de asimetría y curtosis se calculan de la siguiente manera:
n n
( xi − x ) 3 ( xi − x ) 4
∑
i =1
n ∑
i =1
n
A= K= −3
;
σ x3 σ x4
Para el caso de una distribución Normal, se verificará que A = 0 y K = 3, valores que sustituidos en la
expresión del estadístico de Jarque-Bera hacen que sea igual a 0.
116
Bajo la hipótesis nula de Normalidad en la distribución de los residuos, el
estadístico JB se distribuye según una χ2 con 2 grados de libertad, por lo
que valores muy elevados del estadístico sugerirán la no normalidad de la
serie de residuos analizada.
Del mismo modo, si las raíces del polinomio de retardos (o alguno de sus
parámetros) del componente media móvil del modelo estuviera cercana a
uno, posiblemente el modelo esté sobrediferenciado.
117
modelos univariantes sólo son comparables en aquellos modelos en los que se hayan tomado
idéntico número de diferencias, debido a que para que éste sea un elemento de comparación
directa, la varianza de la variable debe ser la misma. Para paliar este inconveniente, se han
propuesto medidas alternativas como el estadístico AIC (Akaike Information Criterion),
formulado por Akaike (1974) o el SIC (Schwarz Information Criterion), formulado por
Schwarz (1978)5. Las expresiones de dichos estadísticos son:
l k
AIC = −2 +2
T T
l log(T )
SIC = −2 +k
T T
T T1 T2
∑
t =1 ∑
ε t2 − ε 12t + ∑ ε 22t / k
t =1
F=
t =1
~ Fk, T–2k
T 1 T 2
∑
ε2 +
1t ∑ 2
ε 2 t / T − 2k
t =1 t =1
donde:
5
La mayor parte de paquetes informáticos dedicados al análisis de series temporales calcula de forma
automática cuando se realiza la estimación de un modelo.
118
ε1t es el residuo obtenido en la estimación del modelo utilizando los T1 primeros datos.
ε2t es el residuo obtenido en la estimación del modelo utilizando los T2 últimos datos.
Lo que se pretende contrastar con el test de Chow es si el último tramo muestral ha estado
generado por la misma estructura que el resto de las observaciones. En este sentido, algunos
autores recomiendan tomar como segundo tramo muestral el último tercio o cuarto de la
muestra.
En caso de que el estadístico F obtenido sea mayor que su valor tabulado a un determinado
nivel de significación, se rechazará la hipótesis nula de estabilidad estructural.
119
PROCESO AR (1)
Valor Futuro Error de Predicción Varianza del Error
Y, en general, para k periodos hacia delante se verifica que YT+k = δ(1+φ1+φ12+…+φ1k)+ φ1kYT
PROCESO AR (2)
Valor Futuro Error de Predicción Varianza del Error
La previsión con modelos AR(p) con un orden p superior a 1 genera estructuras complejas
en horizontes de predicción superiores a 1.
Por tanto, las expresiones para las previsiones a 1 periodo con modelos de medias
móviles sencillos, el error cometido y la varianza de dicho error son:
120
Por tanto, las expresiones para las previsiones a 1 y 2 periodos con un modelo
ARMA(1,1), el error cometido y la varianza de dicho error son:
Predicción a 2 periodos YT+2 = (1+φ1)δ + φ12YT –φ1θ1εT εT+2+(φ1 – θ1)εT+1 [1+(φ1 – θ1)2]+ σ ε
2
δ
lim YT + k =
k →∞ 1 − φ1
Asimismo, debemos recordar que hay que deshacer las transformaciones que hayamos realizado
en la variable original para hacerla estacionaria. Así, si hemos tomado una diferencia, la
predicción para YˆT +1 es ωˆ T +1 + YˆT para la predicción a un periodo y, de forma más genérica,
YˆT + k = ωˆ T + k + ωˆ T + k −1 + ωˆ T + k −2 + ... + ωˆ T +1 + YˆT ; del mismo modo, si hemos tomado dos diferencias
1
ωˆT + k + ·Var eT ( k )
YˆT + k = e 2
Dependiendo del tamaño de la varianza del error de predicción, supondría una diferencia
significativa o no con respecto a la aplicación de antilogaritmos a la predicción de la serie
diferenciada, aunque por lo general en la práctica el término asociado a la varianza del error
suele ser despreciable.
121
3.6. EJEMPLOS PRÁCTICOS
> data(AirPassengers)
> x<-AirPassengers
El hecho de que la varianza de la serie no sea constante en el tiempo sugiere que lo primero que
debemos hacer es transformar la serie tomando logaritmos para hacer que sea estacionaria en
varianza.
> x <- log(x)
Tras tomar logaritmos, la serie presenta ahora el siguiente aspecto (fig. 3.2.):
122
> plot(x)
123
Figura 3.17. Funciones de autocorrelación simple y parcial (serie en logaritmos)
124
Figura 3.18. Pasajeros de líneas aéreas internacionales
(serie logarítmica en diferencias)
125
Figura 3.19. Funciones de autocorrelación simple y parcial (serie logarítmica en
diferencias)
El gráfico de la figura 3.20. muestra la serie logarítmica con una diferencia regular y una
diferencia estacional de periodo 12; en ella podemos apreciar la pérdida de las 13 primeras
observaciones al haber aplicado las diferencias indicadas. Tras haber aplicado las
transformaciones que hemos comentado, la serie presenta ahora un claro comportamiento
estacionario, el cual viene confirmado por las funciones de autocorrelación simple y parcial de
la serie (figura 3.21).
> par(mfcol = c(1, 1))
> x1_12 <- diff(x1,12)
> plot(x1_12)
126
Figura 3.20. Pasajeros de líneas aéreas internacionales
(serie logarítmica con una diferencia regular y una diferencia estacional)
127
De las funciones de autocorrelación simple y parcial podemos extraer algunas conclusiones: por
un lado, en la parte regular podemos comprobar que las funciones de correlación simple y
parcial son muy parecidas, siendo el primer retardo significativo para ambos casos. Esto indica
que quizás el modelo sea un ARIMA(1,1,0), un ARIMA(0,1,1) o un ARIMA(1,1,1), en
cualquier caso un modelo de primer orden.
Por otro lado, en la parte estacional vemos que el retardo 12 es significativo y que en sus
cercanías hay muy poca correlación, lo que sugiere un proceso con muy poca memoria,
posiblemente un ARIMA(0,1,1)12 en la parte estacional.
Para estimar un modelo ARIMA en R hay que utilizar la función “arima”, cuya estructura es la
siguiente:
arima(x, order = c(0L, 0L, 0L),
seasonal = list(order = c(0L, 0L, 0L), period = NA),
xreg = NULL, include.mean = TRUE,
transform.pars = TRUE,
fixed = NULL, init = NULL,
method = c("CSS-ML", "ML", "CSS"), n.cond,
SSinit = c("Gardner1980", "Rossignol2011"),
optim.method = "BFGS",
optim.control = list(), kappa = 1e6)
destacar, la opción order, en donde se especifican los elementos (p,d,q) de la parte no estacional
del modelo arima, y seasonal, en donde se especifican los elementos de la parte estacional.
a) Resultados de la estimación
ARIMA(1,1,0)×(0,1,1)12
> mod1 <- arima(x,c(1,1,0),c(0,1,1))
> mod1
Call:
arima(x = x, order = c(1, 1, 0), seasonal = c(0, 1, 1))
Coefficients:
ar1 sma1
-0.3395 -0.5619
s.e. 0.0822 0.0748
sigma^2 estimated as 0.001367: log likelihood = 243.74, aic = -
481.49
128
ARIMA(0,1,1)×(0,1,1)12
> mod2 <- arima(x,c(0,1,1),c(0,1,1))
> mod2
Call:
arima(x = x, order = c(0, 1, 1), seasonal = c(0, 1, 1))
Coefficients:
ma1 sma1
-0.4018 -0.5569
s.e. 0.0896 0.0731
ARIMA(1,1,1)×(0,1,1)12
> mod3 <- arima(x,c(1,1,1),c(0,1,1))
> mod3
Call:
arima(x = x, order = c(1, 1, 1), seasonal = c(0, 1, 1))
Coefficients:
ar1 ma1 sma1
0.1960 -0.5784 -0.5643
s.e. 0.2475 0.2132 0.0747
129
b) Ajuste del modelo
ARIMA(1,1,0)×(0,1,1)12
> par(mfcol = c(1, 2))
> plot(x)
> lines(x-mod1$residuals,col="red")
> plot(mod1$residuals)
ARIMA(0,1,1)×(0,1,1)12
> par(mfcol = c(1, 2))
> plot(x)
> lines(x-mod2$residuals,col="red")
> plot(mod2$residuals)
130
Figura 3.23. Resultados de la estimación y residuos del modelo
ARIMA(0,1,1)×(0,1,1)12
131
ARIMA(0,1,1)×(0,1,1)12
ARIMA(1,1,0)×(0,1,1)12
> summary(mod1$residuals)
Min. 1st Qu. Median Mean 3rd Qu.
-0.1115000 -0.0232700 -0.0004461 0.0004500 0.0238100
Max.
0.1032000
132
> library(tseries)
> jarque.bera.test(mod1$residuals)
data: mod1$residuals
X-squared = 3.607, df = 2, p-value = 0.1647
ARIMA(0,1,1)×(0,1,1)12
> summary(mod2$residuals)
Min. 1st Qu. Median Mean 3rd Qu.
-0.1186000 -0.0191600 -0.0000515 0.0005731 0.0223300
Max.
0.1085000
> hist(mod2$residuals)
133
> jarque.bera.test(mod2$residuals)
data: mod2$residuals
X-squared = 5.2265, df = 2, p-value = 0.0733
En definitiva los dos primeros modelos que hemos estimado superan las pruebas de diagnosis
perfectamente y realizan un ajuste muy parecido de los datos. La elección del modelo ahora sí
resulta sencilla a la luz de los valores de los estadísticos AIC, pues el segundo modelo presenta
valores para estos estadísticos menores, en términos absolutos, que el primero. Así pues, el
modelo seleccionado para modelizar el número de pasajeros que viaja mensualmente en líneas
aéreas internacionales es un ARIMA(0,1,1)×(0,1,1)12.
El siguiente ejemplo utiliza los totales mensuales del índice de producción industrial (IPI) de
Cantabria Base 2010 para el periodo comprendido entre Enero de 2000 y Abril de 2014
incluidos en libro de Box y Jenkins. Esta base de datos está disponible en la librería
“descomponer” de R:
> library(descomponer)
> data(ipi)
> x<-ts(ipi,c(2000,1),frequency=12)
134
En la figura 3.24. se muestra la representación gráfica de la serie en la que puede apreciarse
claramente una fuerte estacionalidad en los datos y una varianza creciente en el tiempo.
> plot(x)
El hecho de que la varianza de la serie no sea constante en el tiempo sugiere que lo primero que
debemos hacer es transformar la serie tomando logaritmos para hacer que sea estacionaria en
varianza.
> x <- log(x)
Tras tomar logaritmos, la serie presenta ahora el siguiente aspecto (figura 3.25.):
> plot(x)
135
Figura 3.25 Índice de Producción Industrial de Cantabria
(serie en logaritmos)
En la librería “forecast” hay una función “auto.arima” que selecciona el mejor modelo ARIMA
atendiendo al AIC. Su estructura es la siguiente:
auto.arima(x, d=NA, D=NA, max.p=5, max.q=5,
max.P=2, max.Q=2, max.order=5, max.d=2, max.D=1,
start.p=2, start.q=2, start.P=1, start.Q=1,
stationary=FALSE, seasonal=TRUE,
ic=c("aicc","aic", "bic"), stepwise=TRUE, trace=FALSE,
approximation=(length(x)>100 | frequency(x)>12), xreg=NULL,
test=c("kpss","adf","pp"), seasonal.test=c("ocsb","ch"),
allowdrift=TRUE, lambda=NULL, parallel=FALSE, num.cores=2)
6
Kwiatkowski, D.; Phillips, P. C. B.; Schmidt, P.; Shin, Y. (1992). "Testing the null hypothesis of
stationarity against the alternative of a unit root". Journal of Econometrics 54 (1–3): 159–178
7
Osborn DR, Chui APL, Smith J, and Birchenhall CR (1988) "Seasonality and the order of integration for
consumption", Oxford Bulletin of Economics and Statistics 50(4):361-377.
8
Se explica en el apartado siguiente
9
Phillips, P.C.B and P. Perron (1988), "Testing for a Unit Root in Time Series Regression", Biometrika,
75, 335–346
136
test “ch”10. En la función se puede indicar el orden de los coeficientes AR(p) y MA(q) regulares,
y AR(P) y MA(Q) estacionales con que iniciar la selección del mejor modelo (“start”) y con que
acabar la selección del mejor modelo (“max”), si no se le indica nada los valores por defecto son
los que figuran en la estructura de la función, señalar, por último, que en “ic” se puede optar por
el criterio de selección: AICC, AIC y BIC11) .
A continuación, buscamos con los parámetros de los coeficientes establecidos por defecto, y
cambiando el test KPSS por el test Dikey-Fuller Aumentado para testear la existencia de alguna
raiz unitaria, el mejor AIC para un modelo ARIMA en la serie del IPI de Cantabria:
Series: x
ARIMA(3,1,1)(1,0,2)[12]
Coefficients:
ar1 ar2 ar3 ma1 sar1 sma1
-0.1254 -0.0285 0.0697 -0.5843 0.9835 -0.4231
s.e. 0.3026 0.2221 0.1532 0.2862 0.0107 0.0951
sma2
-0.1829
s.e. 0.0984
Series: x
ARIMA(3,1,1)(1,0,2)[12]
Coefficients:
ar1 ar2 ar3 ma1 sar1 sma1
-0.1254 -0.0285 0.0697 -0.5843 0.9835 -0.4231
s.e. 0.3026 0.2221 0.1532 0.2862 0.0107 0.0951
sma2
-0.1829
s.e. 0.0984
Dado que los coeficientes AR(1),AR(2) y AR(3) no son significativos, optamos por el modelo
ARIMA(0,1,1)×(1,0,2)12
10
Canova F and Hansen BE (1995) "Are Seasonal Patterns Constant over Time? A Test for Seasonal
Stability", Journal of Business and Economic Statistics 13(3):237-252.
2k (k + 1)
11
AICC = AIC + , siendo n el numero de datos y k los parámetros del modelo
n − k −1
seleccionado; el estadístico BIC (Bayesian information criterion) es una denominación alternativa del
137
> mod2 <- arima(x,c(0,1,1),c(1,0,2))
> mod2
Series: x
ARIMA(0,1,1)(1,0,2)[12]
Coefficients:
ma1 sar1 sma1 sma2
-0.6522 0.9841 -0.4145 -0.2237
s.e. 0.0580 0.0110 0.0962 0.0979
El AIC es menor pero el modelo no esta sobre parametrizado. Comprobamos sus resultados12:
> par(mfcol = c(1, 2))
> plot(x)
> lines(x-mod1$residuals,col="red")
> plot(mod1$residuals)
138
> summary(mod2$residuals)
> library(tseries)
139
> jarque.bera.test(mod2$residuals)
data: mod2$residuals
X-squared = 1.8029, df = 2, p-value = 0.406
El modelo elegido presenta residuos en apariencia normal, si bien puede que precise de alguna
diferenciación estacional, debido a que algunos de los coeficientes de la función de
autocorrelación parcial están en el límite del intervalo de confianza. En consecuencia podría
probarse el modelo ARIMA(0,1,1)×(1,1,1)12:
> mod3 <- arima(x,c(0,1,1),c(1,1,1))
> mod3
Series: x
ARIMA(0,1,1)(1,1,0)[12]
Coefficients:
ma1 sar1
-0.6141 -0.2768
s.e. 0.0578 0.0846
140
3.7. PROBLEMAS
Suponiendo que la serie y ≡ [y1 , ...,yN ]′ anterior es una realización particular de una
muestra Y ≡ [Y1 , ...,YN ]′ de tamaño N = 10 procedente de un proceso estocástico
estacionario (Yt):
3.2 En la librería “forecast” de R, se encuentra una base de datos en formato de serie temporal,
“gas”, que recoge la producción australiana de gas durante mes a mes durante los años de
1956 a 1996. Estudie la estacionariedad de la serie en R a través de us gráfica y de las
funciones de autocorrelación y autocorrelación parcial.
3.3 Compare el modelo estacionario elegido con alguno de los procesos de Funciones de
autocorrelación simple y parcial de procesos ARIMA(p, d, q) ARIMA(P, D, Q)s teóricos
representados en el texto. Elija los modelos que crea más probables y estimelos con R.
3.4 Realice en R una estimación automática del modelo estacionario y discuta los resultados.
3.5 Sea el siguiente proceso autoregresivo:
Yt = 1 + 0,5Yt −1 + ε t
141
SOLUCIONES
3.1.
a) µ = 0.44, σ 2 = 2.284
b) Se acepta la hipótesis nula
c) acf: {0.443 0.137 –0.250 –0.399 –0.434 –0.313} ;
pacf: {0.443 –0.074 –0.353 –0.204 –0.192 –0.150}
3.6
Y101 = 0,51 ; Y101 = −0,045
142
4. COINTEGRACION
4.1. INTRODUCCIÓN
De acuerdo con Granger y Newbold (1974), obtener un R > d es una buena regla práctica
2
para sospechar que la regresión estimada es espuria. Ni que decir tiene que en estas
regresiones el estadístico t es engañoso ya que no está distribuido como una t de Student y,
por tanto, no se pueden probar con ellos hipótesis sobre los parámetros
143
Si una serie de tiempo no es estacionaria en el sentido antes definido, se denomina serie de
tiempo no estacionaria. En otras palabras, una serie de tiempo no estacionaria tendrá una
media que varía con el tiempo o una varianza que cambia con el tiempo, o ambas. En dicho
aparatado se señalaba la importancia de este tipo de series, debido a que si una serie de
tiempo no es estacionaria, sólo podemos estudiar su comportamiento durante el periodo de
estudio. Si las características del proceso cambian a lo largo del tiempo, resultará difícil
representar la serie para intervalos de tiempo pasados y futuros mediante un modelo lineal
sencillo, no pudiéndose por tanto realizar previsiones fiables para la variable.
144
En su formulación matemática se entiende que
Yt es un paseo aleatorio si :
Yt − Yt −1 = u t (4.1)
Donde
u t es un término de error de ruido blanco, con media 0 y varianza σ 2 .
En general:
T
Yt = Y0 + ∑ u t
t =1 (4.2)
Tomando esperanzas matemáticas en (4.2) , resulta que
T
E (Yt ) = E (Y0 ) + E ∑ u t = Y0
t =1
y
2
T
E [Yt − E (Yt )] = E ∑ u t = Tσ 2
2
t =1
Es decir la media de
Yt es igual a su valor inicial (constante), pero conforme se incrementa
Yt − Yt −1 = ∆Yt = ut (4.3)
145
Si se modifica (4.1) en el sentido siguiente:
Yt = δ + Yt −1 + u t
E [Yt − E (Yt )] = Tσ 2
2
nula.
El modelo de RW no es más que un caso específico de una clase más general de procesos
estocásticos conocidos como procesos integrados. El paseo aleatorio estudiado se llama
proceso integrado de orden 1 y se denota como I(1). De manera similar, si una serie de
tiempo tiene que diferenciarse dos veces (es decir, se toman primeras diferencias de la serie
de primeras diferencias) para hacerla estacionaria, esa serie de tiempo se denomina
integrada de orden 2. En general, si una serie de tiempo (no estacionaria) debe diferenciarse
d veces para hacerla estacionaria, decimos que la serie es integrada de orden d. Una serie de
tiempo Yt integrada de orden d se denota como I(d).
La mayoría de las series de tiempo económicas son I(1); es decir, por lo general se
convierten en estacionarias sólo después de tomar sus primeras diferencias.
En Gujarati y Porter (2010), señalan las siguientes propiedades de las series de tiempo
integradas.
146
Sea X t , Yt y Z t tres series de tiempo:
Este modelo es un modelo autorregresivo de primer orden similar al que se utiliza para
explicar la autocorrelación (Contraste de Durbin-Watson). Si φ = 1 , se transforma en un
RW sin deriva, y por tanto en una serie no estacionaria en varianza. La no estacionariedad
de este tipo de modelos también se denomina problema de raíz unitaria.
13
En el apartado 3.4.2.1 en el que se estudia el AR(1) se considera que si el proceso es estacionario en
1 σ u2
media y varianza, se verifica que E (Yt ) = y Var (Yt ) = y que la condición a cumplir para
1−φ 1−φ 2
que la media y varianza sean positivas y finitas es que φ <1
147
En la practica, la manera de averiguar si una serie de tiempo tiene una raíz unitaria, es a
través de un test en el que la hipótesis que se contrasta es el valor unitario del coeficiente
autorregresivo ( φ ) a través del análisis de la nulidad de (φ − 1) .
Yt − Yt −1 = φYt −1 − Yt −1 + u t = (1 − φ )Yt −1 + u t
Por tanto, en vez de estimar (4.4), obtenemos (4.5) y probamos la hipótesis (nula) de que δ
= 0, y la hipótesis alternativa es que δ < 0 (nota 25). Si δ = 0, entonces φ = 1 ; es decir,
tenemos una raíz unitaria, lo cual significa que la serie de tiempo en consideración es no
estacionaria.
δ
τ=
σδ
En este contraste de hipótesis el estadístico no sigue la distribución t ni siquiera en
muestras grandes. Dickey y Fuller calcularon los valores críticos del estadístico τ con base
en simulaciones Monte Carlo. Por este motivo, en el estadístico o prueba tau se conoce
como prueba Dickey-Fuller (DF).
∆Yt = β1 + β 2 t + δYt −1 + u t
148
De hecho en la mayor parte del software informático sobre el test se permite elegir las
opciones de incorporar término constante sin tendencia, término constante y tendencia ó no
incorporar ninguno de ambos términos.
m
∆Yt = β 1 + β 2 t + δYt −1 + ∑ α i ∆Yt − m +u t
i =1
Siendo
∆Yt −1 = (Yt −1 − Yt − 2 ) , ∆Yt − 2 = (Yt − 2 − Yt −1 ) , etc…
Ejemplo 4.1
Vamos a realizar el test de Dikey-Fuller (DF) para ver el grado de integración de la serie del
PIB, para ello grabamos (install) y cargamos la librería “urca”.
149
Vamos a realizar el test de Dikey-Fuller (DF) para ver el grado de integración de la serie del
PIB, para ello grabamos (install) y cargamos la librería “urca”.
> library(urca)
Para realizar el test, vale esta sentencia (si no se especifican los retardos el test se realiza
con un retardo):
###############################################
###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################
Call:
lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)
Residuals:
Min 1Q Median 3Q Max
-1.7575 -0.4745 0.1939 0.5426 1.3763
Coefficients:
Estimate Std. Error t value Pr(>|t|)
z.lag.1 -0.0001002 0.0013083 -0.077 0.939
z.diff.lag 0.3311003 0.1606497 2.061 0.047 *
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
150
Value of test-statistic is: -0.0766
###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################
Call:
lm(formula = z.diff ~ z.lag.1 + 1 + z.diff.lag)
Residuals:
Min 1Q Median 3Q Max
-1.32952 -0.41679 0.05446 0.47788 1.05791
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 9.65519 4.97144 1.942 0.06189 .
z.lag.1 -0.10059 0.05183 -1.941 0.06208 .
z.diff.lag1 0.28123 0.17392 1.617 0.11670
z.diff.lag2 0.55538 0.16358 3.395 0.00201 **
z.diff.lag3 -0.11551 0.18850 -0.613 0.54480
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################
Call:
lm(formula = z.diff ~ z.lag.1 + 1 + tt + z.diff.lag)
Residuals:
Min 1Q Median 3Q Max
-1.0315 -0.4394 0.1123 0.3433 1.1701
151
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 20.81894 5.96966 3.487 0.00163 **
z.lag.1 -0.20734 0.06002 -3.454 0.00178 **
tt -0.04575 0.01624 -2.818 0.00877 **
z.diff.lag1 0.19561 0.15915 1.229 0.22928
z.diff.lag2 0.44990 0.15163 2.967 0.00609 **
z.diff.lag3 -0.14243 0.16959 -0.840 0.40811
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 0.6034 on 28 degrees of freedom
Multiple R-squared: 0.5223, Adjusted R-squared: 0.437
F-statistic: 6.124 on 5 and 28 DF, p-value: 0.0005953
152
###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################
Call:
lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)
Residuals:
Min 1Q Median 3Q Max
-1.65584 -0.43986 0.06371 0.50584 1.16911
Coefficients:
Estimate Std. Error t value Pr(>|t|)
z.lag.1 -0.3896 0.1838 -2.120 0.0416 *
z.diff.lag -0.4246 0.1573 -2.699 0.0109 *
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 0.6897 on 33 degrees of freedom
Multiple R-squared: 0.4574, Adjusted R-squared: 0.4245
F-statistic: 13.91 on 2 and 33 DF, p-value: 4.162e-05
La serie diferenciada del PIB rechaza la hipótesis nula de no estacionariedad, valor del
estadístico (-2.1197), está por encima del valor crítico (-1.95) incluso cuando incluimos
deriva y tendencia.
4.4. COINTEGRACIÓN
Se dice que dos o más series están cointegradas si las mismas se mueven conjuntamente a lo
largo del tiempo y las diferencias entre ellas son estables (es decir estacionarias), aún
cuando cada serie en particular contenga una tendencia estocástica14 y sea por lo tanto no
153
estacionaria. De aquí que la cointegración refleja la presencia de un equilibrio a largo plazo
hacia el cual converge la relación entre ambas variables a lo largo del tiempo.
Sea X t , Yt dos series de tiempo I(1), Dado que las dos series comparten la misma
tendencia común, la regresión de una sobre la otra no será necesariamente espuria:
Yt = aˆ + bˆX t + uˆ t (4.6)
Se calcula uˆ t = Yt − aˆ + bˆX t y se verifica con la prueba de raíz unitaria que los residuos de
En este caso la metodología tradicional de regresión es aplicable a las series de tiempo (no
estacionarias) y la regresión no es espúrea. En opinión de Granger: “Una prueba para la
cointegración puede considerarse como una pre-prueba para evitar las situaciones de
regresiones espurias”.
En definitiva probar la cointegración entre dos series I(1) es igual que probar la
estacionariedad de los residuos. Para testar la cointegración sólo hay que estimar los
residuos del modelo de regresión y pasar la prueba de DF o DFA a los residuos estimados
(û t ) . Si se cumple Ho entonces X t , Yt están cointegradas y b̂ es consistente.
Esta prueba de raíz unitaria DF o DFA sobre los residuos estimados a partir de la regresión
cointegrante se conoce como Prueba de Engle-Granger (EG) o prueba de Engle-Granger
Aumentada (EGA)
estimado b̂ , y los valores críticos de la prueba DF y DFA no son del todo apropiados. Engle
y Granger calcularon estos valores que se incluyen los principales software econométricos.
Ejemplo 4.2
154
Se realiza ahora el test de Dikey-Fuller (DF) para la serie de Ocupados que se representa a
continuación:
> plot(ts(cantabria$Ocupados,frequency=4,start=2005))
Call:
lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)
Residuals:
Min 1Q Median 3Q Max
-8.6618 -4.3752 -0.3451 4.9139 12.4019
Coefficients:
Estimate Std. Error t value Pr(>|t|)
z.lag.1 -0.001476 0.003856 -0.383 0.704
z.diff.lag 0.108089 0.170337 0.635 0.530
155
###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################
Call:
lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)
Residuals:
Min 1Q Median 3Q Max
-9.2258 -4.2283 -0.3936 2.9457 7.6578
Coefficients:
Estimate Std. Error t value Pr(>|t|)
z.lag.1 -1.3406 0.1951 -6.871 7.62e-08 ***
z.diff.lag 0.4768 0.1494 3.191 0.0031 **
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################
Call:
lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)
Residuals:
Min 1Q Median 3Q Max
-9.9445 -2.2775 0.0041 2.2536 9.3488
156
Coefficients:
Estimate Std. Error t value Pr(>|t|)
z.lag.1 -0.5039 0.1498 -3.363 0.00192 **
z.diff.lag 0.2797 0.1694 1.651 0.10786
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Si X t , Yt estan cointegradas, es decir, hay una relación de equilibrio de largo plazo entre
las dos, dado que en el corto plazo, puede haber desequilibrio, se puede utilizar el término
de error de la relación cointegrada para relacionar el comportamiento de corto plazo de Yt
con su valor de largo plazo. El mecanismo de corrección de errores utilizado por primera
vez por Sargan y popularizado más tarde por Engle y Granger, corrige dicho desequilibrio.
donde
ε t es un término de error de ruido blanco y uˆ t −1 es el valor del término de error de la
157
Ejercicio 4.3
Call:
lm(formula = dOcup ~ dPIB + res_1)
Residuals:
Min 1Q Median 3Q Max
-3.373e-14 -6.780e-16 1.113e-15 2.549e-15 4.810e-15
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -1.214e-15 1.036e-15 -1.172e+00 0.249
dPIB 5.047e+00 1.346e-15 3.750e+15 <2e-16 ***
res_1 1.000e+00 2.316e-16 4.318e+15 <2e-16 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
4.6. PROBLEMAS
4.1. Genere con R dos paseos aleatorios (RW) utilizando el siguiente código R:
rw <- function(n){
x=numeric(n)
xdir=c(TRUE, FALSE)
step=c(1,-1)
for (i in 2:n)
if (sample(xdir,1)) {
x[i]=x[i-1]+sample(step,1)
} else {
x[i]=x[i-1]
}
list(x=x)
}
158
donde rw(n) sería un paseo aleatorio de “n” datos, diferencie las series obtenidas y realice
la regresión de una sobre otra, calcula el coeficiente de determinación y el estadístico de
Durbin-Watson.. Analice los resultados obtenidos.
4.2. Genere con R un nuevo RW y obtenga el estadístico DFA. Diferencie la serie y repita
el proceso. Analice los resultados obtenidos.
SOLUCIONES:
4.1 A realizar por el alumno
4.2 A realizar por el alumno
4.3
a) No estacionaria al 5% y estacionaria al 10%.
b) Falso.
4.4
a) ∆PIBt = a + bEmpleot + u t
b) Los residuos serán I(0)
159
4.5 A realizar por el alumno
160
5. MODELOS VAR
5.1. INTRODUCCIÓN
El enfoque estructural aplicado a los modelos de series temporales (modelos de ecuaciones
sumultaneas) utiliza conceptos de teoría económica para representar relaciones entre distintas
variables. Sin embargo, a veces la teoría económica no es capaz de ofrecer una especificación
dinámica que identifique todas estas relaciones. Ello obliga al investigador a especificar a priori,
y en muchas ocasiones de forma subjetiva, cuál o cuáles deben ser las variables exógenas del
modelo y en qué ecuaciones deben aparecer, lo que puede afectar a los resultados de la
identificación del modelo y conducir a estimaciones y relaciones entre variables incorrectas.
Por ello, en 1980, Sims realiza una fuerte crítica hacia la especificación de modelos
estructurales de ecuaciones simultáneas, proponiendo, frente a la arbitrariedad que supone la
especificación de los modelos estructurales, una nueva metodología: la metodología VAR
(Vectores Autorregresivos), en la que no se impone una decisión acerca de qué variables deben
ser tratadas como exógenas. Según Sims, si existe verdadera simultaneidad entre un conjunto de
variables, todas deben ser tratadas del mismo modo; en este sentido, la metodología VAR
rompe con el principio de causalidad, al no existir una distinción previa a la estimación entre
variables exógenas y endógenas.
El punto álgido en el declive de los modelos de ecuaciones simultáneas se alcanzó en los años
70 con las elevadas tasas de inflación y desempleo registradas en ese periodo y que no pudieron
ser previstas mediante los modelos de tipo keynesiano. En ese momento comenzaron a aparecer
las primeras críticas contra el enfoque de los modelos estructurales con múltiples ecuaciones. La
primera de ellas la realizó Lucas en 1976, argumentando que los parámetros de las reglas de
161
decisión incorporadas en los modelos de ecuaciones estructurales no permanecen estables a lo
largo del tiempo cuando las reglas de política económica varían. Este ataque a los modelos
estructurales condujo a los investigadores a utilizar sistemas de ecuaciones menos estructurados
para realizar previsiones de las variables macroeconómicas y delinear los efectos de los cambios
en la política monetaria y de shocks externos sobre la economía, como son los modelos VAR
que pasamos a ver seguidamente.
5.2.1. Definición
Un modelo de Vectores Autorregresivos (VAR) se define como una descripción estadística de
las interrelaciones existentes entre un conjunto de diferentes variables en la que no se hace uso
de ninguna teoría económica previa acerca de cómo se espera que dichas variables se relacionen
entre sí. Por tanto, los modelos VAR no pueden ser utilizados para validar ninguna teoría, no
pudiendo tampoco utilizarse para interpretar los datos en términos de principios económicos
generales.
El uso de modelos VAR queda así restringido básicamente a dos campos que serán analizados
en detalle más adelante: por un lado, a la predicción de los valores futuros de un conjunto de
variables que aparecen interrelacionadas en el sistema; y por otro, al análisis del efecto a lo
largo del tiempo, sobre cada una de las variables del sistema, de perturbaciones aleatorias o
shocks producidos en el tiempo.
El enfoque VAR elimina por tanto la necesidad de especificar un modelo estructural mediante la
representación de cada variable endógena del sistema como una función de sus propios valores
retardados así como de los retardos de todas las variables endógenas presentes en el sistema.
y1t = µ1 + φ11,1 y1t −1 + φ11,2 y1t −2 + ... + φ11, p y1t − p + ... + φ1k ,1 y kt −1 + φ1k ,2 y kt −2 + ... + φ1k , p y kt − p + ε 1t
y 2t = µ 2 + φ21,1 y1t −1 + φ21,2 y1t −2 + ... + φ21, p y1t − p + ... + φ2k ,1 y kt −1 + φ2k ,2 y kt −2 + ... + φ2k , p y kt − p + ε 2t
(5.1)
...
y kt = µ k + φk1,1 y1t −1 + φk1,2 y1t −2 + ... + φk1, p y1t − p + ... + φkk ,1 y kt −1 + φkk ,2 y kt −2 + ... + φkk , p y kt − p + ε kt
162
Donde:
yit–p son las variables incluidas en el modelo, donde i y p poseen el mismo significado
que acabamos de señalar.
σ 12 0 0 0
σ 22 0 0
Σ = E [ε kt ·ε ' kt ) =
O 0
σ k2
y t = µ + Φ 1 y t −1 + Φ 2 y t −2 + ... + Φ p y t − p + ε t (5.2)
donde yt es un vector compuesto por las variables sin retardar, µ es un vector de términos
constantes, φi son matrices de coeficientes asociados a las variables retardadas i periodos y εt es
un vector de ruidos que pueden estar correlacionados contemporáneamente pero que están
incorrelacionados con sus retardos y con todas las variables que aparecen a la derecha de la
igualdad.
163
Las matrices yt, µ y εt son vectores de orden k×1, mientras que Φ i es una matriz de orden k×k
tal que:
Por tanto, a la hora de estimar los parámetros de un modelo VAR deberemos estimar k
parámetros constantes, más p×k×k parámetros correspondientes a las variables explicativas del
modelo.
En los modelos VAR también cabe la posibilidad de que aparezcan variables explicativas, que
denotaremos por xt, que no sean retardos de las variables dependientes de tal forma que la
expresión (5.2) pasaría a ser:
y t = µ + Φ 1 y t −1 + Φ 2 y t −2 + ... + Φ p y t − p + βx t + ε t
Siendo:
164
Yt = µ1 + φ11,1Yt −1 + φ11,2Yt −2 + φ12,1 M t −1 + φ12,2 M t −2 + ε 1t
M t = µ 2 + φ21,1Yt −1 + φ21,2Yt −2 + φ22,1 M t −1 + φ22,2 M t −2 + ε 2t
Otra forma de expresar un modelo VAR es mediante la notación en retardos que veíamos en el
capítulo 3. Así, el modelo de la expresión 5.2. puede escribirse como:
( I − Φ 1 B − Φ 2 B 2 − ... − Φ p B p ) y t = µ + ε t
Φ ( B )· y t = µ + ε t (5.3)
Dicho modelo VAR será estacionario si y solo si se verifica que los autovalores del polinomio
de retardos caen fuera del círculo unidad:
Esta representación del modelo (10.2.) será clave para comprender la función de respuesta al
impulso que veremos más adelante.
Ψ ( B ) = [Φ ( B )]−1
( I − Φ 1 B − Φ 2 B 2 − ... − Φ p B p )( I + Ψ1 B + Ψ2 B 2 + ...) = I
El desarrollo de esta expresión permite obtener las ecuaciones que relacionan los parámetros Φ
y Ψ del modelo tal que:
165
Ψ1 = Φ 1
Ψ2 = Φ 1 Ψ1 + Φ 2
LLLLLLLL
Ψs = Φ 1Ψs −1 + Φ 2 Ψs −2 + ... + Φ p Ψs − p , ∀s = 1, 2, ...
Siendo Ψ0 = I y Ψs = 0, ∀s < 0 .
Si el modelo no verificara la condición (5.4) será necesario proceder como en el caso de los
modelos univariantes, tomando las diferencias suficientes sobre las variables para hacerlas
estacionarias.
5.2.2. Estimación
Dado que los valores retardados de las variables sólo aparecen como regresores y no como
variables dependientes, no existen problemas de simultaneidad en el modelo por lo que las
estimaciones obtenidas para los coeficientes aplicando Mínimos Cuadrados Ordinarios a cada
ecuación serán consistentes; asimismo, la matriz de varianzas y covarianzas de las
perturbaciones puede ser estimada utilizando el sumatorio de cuadrados y productos cruzados de
los residuos mínimo-cuadráticos. Si además las perturbaciones se ajustan a una distribución
Normal, entonces los estimadores obtenidos coincidirán con los obtenidos por el método de
Máxima Verosimilitud.
Sin embargo, previamente a la estimación del modelo, debemos decidir el número óptimo de
retardos, p, esto es, el orden del VAR. Antes de presentar el procedimiento para calcular p cabe
tener en cuenta la siguiente advertencia: la inclusión de muchos retardos en el modelo reduce en
gran medida el número de observaciones disponibles, disminuye el número de grados de
libertad a la hora de realizar contrastes y aumenta el riesgo de aparición de multicolinealidad;
por su parte, la inclusión de pocos retardos en el modelo provocará seguramente errores de
especificación.
Una forma de decidir sobre el orden del modelo es examinar los criterios información. Los más
utilizados en este tipo de modelos son los de Akaike (AIC) , Schwarz (SIC ó SC) y el de
Hannan-Quin (HQ):
2l n
AIC = − +2
T T
2l ln(nT )
SC = − +2
T T
166
2l k ln(ln(T ))
HQ = − +2
T T
Tk Tk T ˆ
Siendo l i = − log(2π ) − + ln Σ , d es el número de variables exógenas, p el orden
2 2 2
del VAR, k el número de variables y n = k (d + pk ) el número deparámetros estimados en el
modelo VAR ∑ (
ˆ = T −1
∑
T
t −1
)
uˆ t uˆ t' .
No obstante, existe un contraste más formal para seleccionar el orden del VAR basado en el
contraste de razón de verosimilitudes. Supongamos que estimamos un VAR de orden p1 y
queremos contrastar la hipótesis nula de que el orden del VAR es p0, siendo p1 > p0. Es decir, se
trata de contrastar H0: VAR(p0) frente a H1: VAR(p1). El procedimiento para realizar el contraste
es el siguiente:
− Se estima el modelo VAR bajo cada uno de los supuestos de las hipótesis a contrastar.
[ ]
λMV = 2(l 1 − l 0 ) = (T − k ) ln ∑ˆ ( p o ) − ln ∑ˆ ( p1 ) ~ χ q2
Tk Tk T ˆ
Siendo l i = − log(2π ) − + ln Σ( p i ) el máximo del logaritmo de la función
2 2 2
de verosimilitud del VAR, donde k es y Σˆ ( pi ) es el determinante de la matriz de
167
investigador puede así, comenzar especificando un orden elevado para el modelo, por ejemplo
p1 = 15, e ir realizando contrastes sucesivos en los que se van reduciendo progresivamente los
órdenes comparados hasta que el valor del estadístico supere por primera vez al valor en tablas
de la distribución χ 2 , momento en el que se rechazará la hipótesis nula del contraste y
habremos determinado el orden del VAR, que será el último valor asignado a p1.
yˆ t +1 = E ( y t +1 | y t , y t −1 ,..., y1 ) = Φ· y (5.5)
Donde para simplificar hemos suprimido el término constante del modelo. Si deseáramos
obtener la predicción óptima para yt+2 bastaría con aplicar de forma recursiva el resultado
obtenido en (5.5) tal que:
yˆ t + 2 = E ( y t + 2 | y t +1 , y t ,..., y1 ) = Φ (Φ y ) = Φ 2 y
yˆ t + s = Φ s y
168
Con vector de errores de predicción para s periodos hacia delante:
e s = y t + s − yˆ t + s = ε t + s + Φε t + s −1 + ... + Φ s −1ε t +1
De manera análoga podríamos obtener expresiones para modelos VAR de orden superior y
sustituyendo las expresiones que aparecen por sus valores estimados.
Por su parte, la obtención de funciones de respuesta al impulso permite conocer el efecto que
tendrá a lo largo del tiempo un shock inesperado sobre las variables del sistema. Recordemos
que si el modelo VAR es estacionario entonces es posible expresarlo como un VMA de orden
infinito tal que:
Cada elemento ij de la matriz Ψs de la expresión (5.6) puede interpretarse como el efecto que
tendría un aumento de una unidad en la innovación j sobre el valor de la variable i en el
momento t+s, manteniendo el resto de innovaciones constantes en todos los periodos, tal que:
∂y t + s
= Ψs
∂ε t
Es decir, si se produce una variación de δ unidades en alguna de las innovaciones del modelo
tendremos que:
169
∂y t + s
= Ψs δ
∂ε t
A la representación gráfica del efecto que produce sobre las variables del modelo una variación
en una de las perturbaciones se la conoce como función de respuesta al impulso.
Y donde la estimación que se ha obtenido para los parámetros del modelo es:
170
y10 0
=
y20 1
y11 0.4 0.1 0 0.10
y = 0.2 · =
0.5 1 0.50
21
y12 0.4 0.1 y11 0.4 0.1 0.10 0.09
= · = · =
0.5 y21 0.2 0.5 0.50 0.27
y22 0.2
y13 0.4 0.1 y12 0.4 0.1 0.09 0.06
= · y = 0.2 0.5 · 0.27 = 0.15
y
23 0.2 0.5 22
y14 0.4 0.1 y13 0.4 0.1 0.06 0.04
= · = · =
y24 0.2 0.5 y23 0.2 0.5 0.15 0.09
y15 0.4 0.1 y14 0.4 0.1 0.04 0.03
= · = · =
y25 0.2 0.5 y24 0.2 0.5 0.09 0.05
Periodo y1 y2
0 0 1
1 0.10 0.50
2 0.09 0.27
3 0.06 0.15
4 0.04 0.09
5 0.03 0.05
171
Función de Respuesta al Impulso
1.2
0.8
y1
0.6
y2
0.4
0.2
0
0 1 2 3 4 5
Periodo
Sin embargo, en la práctica normalmente no se producen shocks de forma aislada en una sola
variable sino que dichos shocks suelen producirse de forma simultánea (por ejemplo, no tendría
sentido pensar que se produce un shock en el consumo y simultáneamente no se produce un
shock en la renta). En este caso la obtención de la función de respuesta al impulso resulta poco
menos que imposible por lo que se suele adoptar como solución la transformación de los
términos de error del modelo en un nuevo conjunto de errores ortogonales, los cuales no están
correlacionados entre sí y poseen varianzas unitarias.
Retomando la expresión del VAR como un VMA de orden infinito tenemos que:
∞
yt = µ + ∑Ψ ε
i =0
i t −i , Ψ0 = I
Sea Σ la matriz de varianzas y covarianzas del término de error del modelo; y sea P una matriz
no singular tal que PΣP' = I . Multiplicando el sumatorio de la expresión 10.22 por P −1 P queda
que:
∞
yt = µ + ∑Ψ P
i =0
i
−1
Pε t −i
172
∞
yt = µ + ∑M w
i =0
i i
Calculando la esperanza matemática del nuevo término de error, wi, se tiene que:
( ) ( ) ( )
E wt wt' = E Pε t ε t' P ' = PE ε t ε t' P' = PΣP' = I
Lo que implica que los componentes del término de error transformado, wt, no están
correlacionados y que poseen varianza unitaria.
El resultado anterior implica que la función de respuesta al impulso pasa a ser ahora:
∂y t + s
= M s = Ψs P −1
∂wt
Sin embargo, la solución al problema que aparece cuando pretendemos calcular la función de
respuesta al impulso con más de shock simultáneo en las perturbaciones presenta consecuencias
indeseables puesto que no existe una matriz P única. Ello provoca que los resultados numéricos
obtenidos no sean interpretables económicamente, debiéndonos limitar a darles una
interpretación de tipo cualitativo.
Hasta el momento hemos considerado a los modelos VAR como un modelo completamente
ateórico y sin restricciones. Sin embargo, los modelos VAR pueden ser entendidos como la
expresión de un modelo económico estructural en forma reducida, lo que permite reconciliar la
utilización de modelos VAR con el enfoque de modelos estructurales (modelos de ecuaciones
simultáneas). La utilización de los modelos VAR en estos casos sí posee fundamento teórico
pues el investigador comienza elaborando un modelo basado en la teoría económica, a partir del
cual obtendrá su forma reducida, que tendrá la forma de un VAR.
Sin embargo, ¿es posible recuperar los parámetros de la forma estructural del modelo a partir de
la forma reducida? El siguiente ejemplo responde a esta cuestión: supongamos que el
investigador especifica y estima el siguiente modelo estructural de orden 1:
173
y1t = µ1 − γ 12 y 2t + φ11,1 y1t −1 + φ12,1 y 2t −1 + ε 1t
(5.7)
y 2t = µ 2 − γ 21 y1t + φ21,1 y1t −1 + φ22,1 y 2t −1 + ε 2t
Que consta de 10 parámetros (8 coeficientes más 2 varianzas de los términos de error) que
debemos estimar.
Dado que un modelo VAR es una función de los valores retardados de las variables que lo
componen exclusivamente. Si reordenamos el modelo (5.7) y lo expresamos en forma matricial
tenemos que:
(5.8)
Γy t = µ + Φy t −1 + ε t
Premultiplicando (5.8) por Γ −1 podemos obtener la expresión de la forma reducida del modelo
VAR tal que:
El modelo (5.9) es la forma reducida del modelo estructural que especificamos en (5.7) y que
puede ser estimado aplicando MCO a cada ecuación del modelo. Sin embargo, la estimación de
los parámetros del modelo (5.9) no nos va a permitir recuperar el valor de los parámetros del
modelo estructural, ya que ahora sólo disponemos de 9 parámetros (coeficientes+varianzas y
covarianza de los errores); es decir, la forma reducida de un modelo VAR estructural siempre
está subidentificada
Sin embargo, si imponemos alguna restricción en los parámetros del VAR estructural, la forma
reducida pasará a estar exactamente identificada. Así, si en el modelo (5.7) hacemos γ 21 = 0
queda que:
174
1 γ 12 y1t µ1 φ11,1 φ12,1 y1t −1 ε 1t
= + ·
+
0 1 y 2 t µ 2 φ21,1 φ22,1 y 2t −1 ε 2t
1 γ 12
Premultiplicando el modelo estructural por la inversa de la matriz tenemos que:
0 1
−1 −1 −1
y1t 1 γ 12 µ1 1 γ 12 φ11,1 φ12,1 y1t −1 1 γ 12 ε 1t
= +
φ
·
+
y 2t 0 1 µ2 0 1 21,1 φ 22,1 y 2t −1 0 1 ε 2t
A partir de la expresión anterior ahora sí es posible recuperar los parámetros del modelo
estructural tal que:
Cov (ε 1t *, ε 2t *)
γ 12 = −
Var (ε 2t *)
Cov(ε 1t *, ε 2t *)
µ1 = µ1 * − µ2 *
Var (ε 2t *)
µ1 * = µ1 − γ 12 µ 2
µ2 = µ2 *
µ2 * = µ2
Cov (ε 1t *, ε 2t *) *
φ1* = φ11,1 − γ 12φ21,1 φ11,1 = φ1* − φ2
Var (ε 2t *)
φ2* = φ21,1 Cov(ε 1t *, ε 2t *) *
φ12,1 = φ3* − φ4
φ3* = φ12,1 − γ 12φ22,1 ⇒ Var (ε 2t *)
φ4* = φ22,1 φ21,1 = φ2*
Var (ε 1t *) = σ ε21t + γ 12
2 2
σ ε 2t φ22,1 = φ4*
2
Var (ε 2t *) = σ ε22 t Cov (ε 1t *, ε 2t *)
σ ε 1t
2
= Var (ε 1t *) − Var (ε 2t *)
Cov(ε 1t *, ε 2t *) = −γ 12σ ε22 t Var (ε 2 t *)
σ ε22 t = Var(ε 2t *)
Var (ε 2 t *)
σ ε22 t = Cov (ε 1t *, ε 2 t *)· = Var (ε 2t *)
Cov (ε 1t *, ε 2t *)
175
5.4. EJEMPLO DE ESTIMACION DE UN MODELO VAR
CON R.
Se va a estimar un modelo VAR con datos relativos al mercado de trabajo de Canadá, tomado
de Breitung, Bruggemann, and Lutkepohl (2004). Se utilizan las siguientes series: productividad
del trabajo, definida como la diferencia entre el logaritmo del PIB y el logaritmo del empleo;
empleo, medido en logaritmo, tasas de desempleo; y salarios reales definido como el logaritmos
del índice de evolución de los salarios reales. En la base de datos se denominan, “prod”, “e”,
“U” y “rw”, respectivamente. Los datos procede de la base de datos de la OCDE y cubren el
periodo comprendido entre el primer trimestre de 1980 y cuarto trimestre de 2004 (Pfaff, 2008).
P realizar el ejercicio hay que cargar el “package” o la librería R : “vars”.
> library("vars")
> data("Canada")
> summary(Canada)
e prod rw
Min. :928.6 Min. :401.3 Min. :386.1
1st Qu.:935.4 1st Qu.:404.8 1st Qu.:423.9
Median :946.0 Median :406.5 Median :444.4
Mean :944.3 Mean :407.8 Mean :440.8
3rd Qu.:950.0 3rd Qu.:410.7 3rd Qu.:461.1
Max. :961.8 Max. :418.0 Max. :470.0
U
Min. : 6.700
1st Qu.: 7.782
Median : 9.450
Mean : 9.321
3rd Qu.:10.607
Max. :12.770
176
Figura 5.2. Productividad, empleo, desempleo y salarios reales en Canada.
En primer lugar se realizó el test ADF a las series para conocer su orden de integración.
> adf1 <- summary(ur.df(Canada[, "prod"], type = "trend", lags = 2))
> adf1
###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################
Call:
lm(formula = z.diff ~ z.lag.1 + 1 + tt + z.diff.lag)
Residuals:
Min 1Q Median 3Q Max
-2.19924 -0.38994 0.04294 0.41914 1.71660
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 30.415228 15.309403 1.987 0.0506 .
z.lag.1 -0.075791 0.038134 -1.988 0.0505 .
tt 0.013896 0.006422 2.164 0.0336 *
z.diff.lag1 0.284866 0.114359 2.491 0.0149 *
z.diff.lag2 0.080019 0.116090 0.689 0.4927
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
177
Critical values for test statistics:
1pct 5pct 10pct
tau3 -4.04 -3.45 -3.15
phi2 6.50 4.88 4.16
phi3 8.73 6.49 5.47
> adf2 <- summary(ur.df(diff(Canada[, "prod"]), type = "drift",lags =
1))
> adf2
###############################################
# Augmented Dickey-Fuller Test Unit Root Test #
###############################################
Call:
lm(formula = z.diff ~ z.lag.1 + 1 + z.diff.lag)
Residuals:
Min 1Q Median 3Q Max
-2.05124 -0.39530 0.07819 0.41109 1.75129
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.11534 0.08029 1.437 0.155
z.lag.1 -0.68893 0.13350 -5.160 1.83e-06 ***
z.diff.lag -0.04274 0.11275 -0.379 0.706
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
178
Se observa que son I(1) las primeras diferencias de “prod”, “e”, “rw” y la serie original “U”.
$criteria
1 2 3 4
AIC(n) -6.272579064 -6.636669705 -6.771176872 -6.634609210
HQ(n) -5.978429449 -6.146420347 -6.084827770 -5.752160366
SC(n) -5.536558009 -5.409967947 -5.053794411 -4.426546046
FPE(n) 0.001889842 0.001319462 0.001166019 0.001363175
5 6 7 8
AIC(n) -6.398132246 -6.307704843 -6.070727259 -6.06159685
HQ(n) -5.319583658 -5.033056512 -4.599979185 -4.39474903
SC(n) -3.699388378 -3.118280272 -2.390621985 -1.89081087
FPE(n) 0.001782055 0.002044202 0.002768551 0.00306012
De acuerdo con el AIC y FPE el numero optimo de retardos es 3, el criterio HQ sería 2 y según
el SC sería 1. La estimación en R de un VAR con p = 1 , se realiza con la siguente sentencia:
> Canada <- Canada[, c("prod", "e", "U", "rw")]
> p1ct <- VAR(Canada, p = 1, type = "both")
> p1ct
15
K
T + n* ˆ
FPE (n) =≤ ft ∑
*
T − n
Siendo ∑ = T ∑ uˆ t uˆ t , n el número de parámetros en cada ecuación y n el orden de los retardos.
ˆ −1 T ' *
t −1
179
Estimated coefficients for equation U:
======================================
Call:
U = prod.l1 + e.l1 + U.l1 + rw.l1 + const + trend
Figura 5.2. Estimación y residuos del modelo VAR para el empleo de Canada.
180
5.5. PROBLEMAS
5.1. Comente las diferencias existentes entre los tres métodos de predicción económica que se
han visto hasta el momento: modelos de ecuaciones simultáneas, modelos univariantes de series
temporales y modelos VAR.
Periodo y1 y2
1 5 8
2 6 4
3 4 3
4 8 2
5 3 6
181
SOLUCIONES
5.1. A realizar por el lector
5.2. A realizar por el lector
5.3. Los primeros valores de la función de respuesta al impulso se presentan en la siguiente
tabla:
Periodo y1 y2 y3
0 0 7 0
1 0.7 2.1 0.7
2 0.56 1.02 0.7
3 0.41 0.62 0.54
4 0.29 0.42 0.39
5 0.21 0.29 0.27
5.4.
182
6. REGRESIÓN EN EL DOMINIO DE LA FRECUENCIA
6.1. INTRODUCCIÓN
Nerlove (1964) y Granger (1969) fueron los primeros investigadores en aplicar el Análisis
espectral a las series de tiempo en economía. El uso del análisis espectral requiere un cambio en
el modo de ver las series económicas, al pasar de la perspectiva del tiempo al dominio de la
frecuencia. El análisis espectral parte de la suposición de que cualquier serie X t , puede ser
donde µ es la media de la serie, a j y b j son su amplitud, f son las frecuencias que del
dinámica de la bajas frecuencias (pequeños valores de f ) van a corresponder con los ciclos
f
largos. Si nosotros hacemos que = ω la ecuación (6.1) quedaría, así:
n
[
xt = µ + ∑ a j cos(ω j t ) + b j seno(ω j t )]
n
(6.2)
j =1
183
el resultado sumar los valores en t que resultan de N ciclos de diferente longitud y amplitud, a
los que habría que añadir si cabe un termino de error.
bp
donde R p = a p + b p y φ p = tan −1
a
p
nR p2
La representación gráfica de I (ω ) = frente ω recibe el nombre de periodograma de las
4π
serie de datos. Una tendencia produce un pico en la representación gráfico del periodograma en
la frecuencia cero, mientras que las variaciones estacionales procuren "picos" en las frecuencias
estacionales y sus múltiplos enteros, de manera que si un peridograma presenta un "pico" en
alguna frecuencia ω , presentará también "picos" en las frecuencias 2ω ,3ω ,...
Hannan (1963) fue quien propuso la regresión en dominio de la frecuencia (regresión band
spectrum). Engle (1974), demostró que dicha regresión no alteraba los supuestos básicos de la
regresión clásica, cuyos estimadores eran Estimadores Lineales Insesgados y Óptimos (ELIO).
fˆx (θ k ) = wk x
2
(
wk = 1, e iθ k , e 2iθ k ,..., e (T −1)iθ k )
184
donde θ k = 2πk
wk x
; y t=0;1;…;T-1; sería el elemento k-ésimo de la transformada finita
T T
de Fourier del vector columna de xt .
Haciendo
w0
w1
W = w2
.
w
t −1
Se cumple que WW ' = I = W 'W debido a las ortogonalidad de los productos de senos y
cósenos.
Y obteniendo el vector ~
x como la transformada de Fourier de x en T periodos, podemos
transformar el modelo de regresión múltiple:
y = xβ + u (6.3)
En
~ x β + u~
y=~
Se trata de una regresión con variables aleatorias complejas pero que no afecta a los supuestos
básicos del modelo de regresión clásico. Las propiedades del error u~ :
var(u~ ) = E (u~u~ ' ) = E (Wuu 'W ' ) = WE (uu ' )W ' = σ u2WΩW '
185
Si Ω = I , entonces var(u~ ) = σ u2 I .
−1 T −1
T −1
βˆ = ∑ fˆxx (θ k ) ∑ fˆ (θ )
xy k
k =0 k =0
donde
fˆxx (θ k ) es la matriz de cross-periodogramas de cada frecuencia e fˆxy (θ k ) es el vector del
cross-periodograma de
xt e y t .
La transformación de los datos originales del dominio del tiempo al dominio de la frecuencia
utilizando series finitas de senos y cósenos en la regresión band spectrium, se realiza a través de
la matriz ortogonal A, con el elemento (j,t)th (Harvey, 1978) :
1
1 2
∀j = 1
T
1
2 2 πj (t − 1)
T cos T ∀j = 2,4,6,..., (T − 2) /(T − 1)
a j ,t = 1
2 2 π ( j − 1)(t − 1)
sin ∀j = 3,5,7,..., (T − 1) / T
T T
1
1 2 t +1
(−1) ∀j = T
T (6.4)
De esta forma los problemas derivados del uso de la transformada compleja de Fourier pueden
ser eludidos. Asimismo afirma que el vector de residuos definido en (6.3) da lugar a un vector
de residuos del modelo transformado a través de A:
vˆ = A( y − Xβ ) = Auˆ
de forma que :
186
T
p j = vˆ2 j + vˆ2 j +1 , j = 1,..., 2 − 1 si T par
2 2
p = vˆ 2 + vˆ 2 , j = 1,..., T − 1 si T impar
pj = j 2j 2 j +1
2
T
p j = 2vˆ22 j , j = y T impar
2
p o = 2vˆ12
Puede ser utilizado de forma consistente como estimador del periodograma de û .Al ser β̂ un
estimador MCO de β , puede utilizarse el test del periodograma acumulado de Durbin (Durbin,
1969) (ver anexo I).
Hui T and Ashley R (1999), señalan que el procedimiento de elaboración del cross-
periodograma consta de tres etapas:
1.- Transformar los datos originales del dominio del tiempo al dominio de la frecuencia
utilizando series finitas de senos y cósenos. Implicaría premultiplicar los datos originales por
una matriz ortogonal, A, sugerida por Harvey (1978).
2.- Permitir la variación de β k a través de m bandas de frecuencia usando variables Dummy
( D1j ...D mj ) . Estas variables se elaboran a partir de submuestras de las T observaciones del
3.- Re-estimar el resultado del modelo de regresión en el dominio del tiempo con las
estimaciones
β1 ...β k y los coeficientes de las m variables Dummy. Implicaría premultiplicar la
ecuación de regresión ampliada por las variables Dummy por la transpuesta de A.
Ejemplo 6.1
En la tabla siguiente se recogen las cifras de Consumo de energía final eléctrica (TEP) y del PIB
en Millones de euros de España en el periodo 1992 y 2007.
187
Consumo de Energía Final Eléctrica (TEP) PIB (Mill euros año 2000)
1992 11244 484580,9
1993 11237 479583,3
1994 11777 491011,6
1995 12116 515405
1996 12655 527862,4
1997 13672 548283,8
1998 14202 572782
1999 15241 599965,8
2000 16205 630263
2001 17279 653255
2002 17759 670920,4
2003 18916 691694,7
2004 19834 714291,2
2005 20827 740108
2006 22052 769850,2
2007 22548 797366,8
2008 22817 804223,1
Fuente: INE
La regresión Mínimo Cuadrática en el dominio del tiempo de ambas series ofrece los siguientes
resultados:
Estadísticas de la regresión
Coeficiente de correlación múltiple 0,99827044
Coeficiente de determinación R^2 0,99654387
R^2 ajustado 0,99629701
Error típico 244,666006
Observaciones 16
La transformación de los datos del dominio del tiempo al dominio de la frecuencia se realiza
premultiplicando los datos originales por la matriz ortogonal A definida en (6.4).
188
aj,t 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250 0,250
2 0,354 0,327 0,250 0,135 0,000 -0,135 -0,250 -0,327 -0,354 -0,327 -0,250 -0,135 0,000 0,135 0,250 0,327
3 0,000 0,135 0,250 0,327 0,354 0,327 0,250 0,135 0,000 -0,135 -0,250 -0,327 -0,354 -0,327 -0,250 -0,135
4 0,354 0,250 0,000 -0,250 -0,354 -0,250 0,000 0,250 0,354 0,250 0,000 -0,250 -0,354 -0,250 0,000 0,250
5 0,000 0,250 0,354 0,250 0,000 -0,250 -0,354 -0,250 0,000 0,250 0,354 0,250 0,000 -0,250 -0,354 -0,250
6 0,354 0,135 -0,250 -0,327 0,000 0,327 0,250 -0,135 -0,354 -0,135 0,250 0,327 0,000 -0,327 -0,250 0,135
7 0,000 0,327 0,250 -0,135 -0,354 -0,135 0,250 0,327 0,000 -0,327 -0,250 0,135 0,354 0,135 -0,250 -0,327
8 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000
9 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354 0,000 0,354 0,000 -0,354
10 0,354 -0,135 -0,250 0,327 0,000 -0,327 0,250 0,135 -0,354 0,135 0,250 -0,327 0,000 0,327 -0,250 -0,135
11 0,000 0,327 -0,250 -0,135 0,354 -0,135 -0,250 0,327 0,000 -0,327 0,250 0,135 -0,354 0,135 0,250 -0,327
12 0,354 -0,250 0,000 0,250 -0,354 0,250 0,000 -0,250 0,354 -0,250 0,000 0,250 -0,354 0,250 0,000 -0,250
13 0,000 0,250 -0,354 0,250 0,000 -0,250 0,354 -0,250 0,000 0,250 -0,354 0,250 0,000 -0,250 0,354 -0,250
14 0,354 -0,327 0,250 -0,135 0,000 0,135 -0,250 0,327 -0,354 0,327 -0,250 0,135 0,000 -0,135 0,250 -0,327
15 0,000 0,135 -0,250 0,327 -0,354 0,327 -0,250 0,135 0,000 -0,135 0,250 -0,327 0,354 -0,327 0,250 -0,135
16 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250 0,250 -0,250
i Y X Constante Y ajustado
dominio de la
frecuencia
1 67284 2551717 4 67284
2 -1713 -56628 0 -2083
3 -12669 -334387 0 -12302
4 -2162 -52088 0 -1916
5 -5702 -160516 0 -5905
6 -2397 -70960 0 -2611
7 -3077 -89304 0 -3286
8 -2053 -64772 0 -2383
9 -2023 -60838 0 -2238
10 -2129 -62400 0 -2296
11 -1083 -38099 0 -1402
12 -2069 -57905 0 -2130
13 -924 -26001 0 -957
14 -2306 -55621 0 -2046
15 -557 -11901 0 -438
16 -1366 -38885 0 -1431
Estadísticas de la regresión
Coeficiente de correlación múltiple 0,99991214
Coeficiente de determinación R^2 0,99982429
R^2 ajustado 0,92838317
Error típico 244,666006
Observaciones 16
189
Coeficientes Error típico Estadístico t
Intercepción 0 #N/A #N/A
X 0,03679065 0,00057906 63,53565298
Cte -6648,76729 374,426101 -17,7572217
Se crea ahora una variable Dummy para separar altas frecuencias de las bajas frecuencias. Las
variables transformadas al dominio de la frecuencia y las Dummys utilizadas (D1 y D2)
aparecen en la Tabla siguiente:
i Y D1 D2 Y ajustado
dominio
Cte frecuencia
1 67,284 2,551,717 0 4 67.284
2 -1,713 -56,628 0 0 -2.101
3 -12,669 -334,387 0 0 -12.405
4 -2,162 -52,088 0 0 -1.932
5 -5,702 -160,516 0 0 -5.955
6
-2,397 -70,960 0 0 -2.632
7 -3,077 -89,304 0 0 -3.313
8
-2,053 0 -64,772 0 -2.242
9 -2,023 0 -60,838 0 -2.105
10 -2,129 0 -62,400 0 -2.159
11 -1,083 0 -38,099 0 -1.318
12
-2,069 0 -57,905 0 -2.004
13
-924 0 -26,001 0 -900
14 -2,306 0 -55,621 0 -1.925
15 -557 0 -11,901 0 -412
16 -1,366 0 -38,885 0 -1.346
Estadísticas de la regresión
Coeficiente de correlación múltiple 0,99992471
Coeficiente de determinación R^2 0,99984942
R^2 ajustado 0,92290317
Error típico 235,050452
Observaciones 16
190
La representación gráfica de los resultados obtenidos, requiere transformar los datos ajustados
en el dominio de la frecuencia a datos ajustados en el dominio utilizando la transpuesta de A.
de T x 1 parámetros , e
Yt es un vector de T x 1 observaciones de la variable independiente y
ut es un vector de T x 1 errores de media cero y varianza constante, asumiendo que las series
191
[
Yt = η y + ∑ a jy cos(ω j ) + b jy sin (ω j ) ]
N
j =1
β t = η β + ∑ [a βj cos(ω j ) + b βj sin (ω j )]
N
j =1
[
u t = η u + ∑ a uj cos(ω j ) + b uj sin (ω j ) ]
N
(6.6)
j =1
T
Pre-multiplicado cada observación de (6.6) por W se obtiene:
Y& = X&β& (6.7)
donde Y& = AT Yt , X& = AT X t , y β& = AT β t .
Si denominamos, e& = AI N AT u& , se buscaría una solución que minimizara la suma cuadrática
de los errores: eˆt = Ae& .
Para obtener una solución a la minimización de los errores e& que ofrezca el mismo resultado
que la regresión lineal por mínimos cuadrados ordinarios, requiere utilizar una matriz de
regresores X cuya primera columna sería el vector de tamaño T (1,0,0,...), la segunda columna
sería la primera fila de la matriz AX t I N AT y las columnas, corresponderían las filas de
donde β&o ,1 sería el parámetro asociado a la constante, β&1,1 el asociado a la pendiente, y β&1, j los
192
Ejemplo 1.2
Utilizando los datos del ejemplo 1 vamos a plantear la regresión en el dominio de la frecuencia
con parámetros dependientes del tiempo. Para ello se ha obtenido la matriz θ jjX
X
= AX t I N AT :
θ jjX
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
1 637929 -14157 -83597 -13022 -40129 -17740 -22326 -16193 -15209 -15600 -9525 -14476 -6500 -13905 -2975 -9721
2 -14157 628721 -28375 -22555 -74899 -20658 -39130 -23575 -22522 -21686 -15351 -20863 -8839 -19958 -4596 -13905
3 -83597 -28375 647137 43325 2534 17621 2242 9052 -1513 6158 -1214 4631 -1198 4596 -515 2975
4 -13022 -22555 43325 626479 -10755 -21041 -65847 -19444 -32972 -22377 -17891 -21171 -10755 -20863 -4631 -14476
5 -40129 -74899 2534 -10755 649379 52377 1020 23779 1028 13683 -2712 10755 -1729 8839 -1198 6500
6 -17740 -20658 17621 -21041 52377 627693 -4596 -19843 -61216 -18929 -28375 -22377 -13683 -21686 -6158 -15600
7 -22326 -39130 2242 -65847 1020 -4596 648165 57008 -178 28375 513 17891 -2712 15351 -1214 9525
8 -16193 -23575 9052 -19444 23779 -19843 57008 628208 0 -19843 -57008 -19444 -23779 -23575 -9052 -16193
9 -15209 -22522 -1513 -32972 1028 -61216 -178 0 647650 61216 -178 32972 1028 22522 -1513 15209
10 -15600 -21686 6158 -22377 13683 -18929 28375 -19843 61216 627693 4596 -21041 -52377 -20658 -17621 -17740
11 -9525 -15351 -1214 -17891 -2712 -28375 513 -57008 -178 4596 648165 65847 1020 39130 2242 22326
12 -14476 -20863 4631 -21171 10755 -22377 17891 -19444 32972 -21041 65847 626479 10755 -22555 -43325 -13022
13 -6500 -8839 -1198 -10755 -1729 -13683 -2712 -23779 1028 -52377 1020 10755 649379 74899 2534 40129
14 -13905 -19958 4596 -20863 8839 -21686 15351 -23575 22522 -20658 39130 -22555 74899 628721 28375 -14157
15 -2975 -4596 -515 -4631 -1198 -6158 -1214 -9052 -1513 -17621 2242 -43325 2534 28375 647137 83597
16 -9721 -13905 2975 -14476 6500 -15600 9525 -16193 15209 -17740 22326 -13022 40129 -14157 83597 637929
637929 -14157 -83597 -13022 -40129 -17740 -22326 -16193 -15209 -15600 -9525 -14476 -6500 -13905 -2975 -9721
193
β& βˆ0t = Aβ&oi β&1i βˆ1t = Aβ&1i
oi
-26595,0691 -6648,76729 0,14716261 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
0 -6648,76729 0 0,03679065
La matriz de regresores X ' considerando los dos ciclos de bajas frecuencias sería:
1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
637929 -14157 -83597 -13022 -40129 -17740 -22326 -16193 -15209 -15600 -9525 -14476 -6500 -13905 -2975 -9721
-14157 628721 -28375 -22555 -74899 -20658 -39130 -23575 -22522 -21686 -15351 -20863 -8839 -19958 -4596 -13905
-83597 -28375 647137 43325 2534 17621 2242 9052 -1513 6158 -1214 4631 -1198 4596 -515 2975
-13022 -22555 43325 626479 -10755 -21041 -65847 -19444 -32972 -22377 -17891 -21171 -10755 -20863 -4631 -14476
-40129 -74899 2534 -10755 649379 52377 1020 23779 1028 13683 -2712 10755 -1729 8839 -1198 6500
194
j/t Y& Yt β 0 ,i β 0 ,t β1,i β1,t e& et
1 67284 11295 -20721 -5180,29 0,137708056 0,03435348 0,00 -58,07
2 -1713 11564 0 -5180,29 0,000254003 0,03410096 0,17 213,32
3 -12668 12330 0 -5180,29 -0,00174343 0,03397314 1,49 -213,64
4 -2161 12741 0 -5180,29 -0,00046199 0,03394976 0,10 -85,52
5 -5694 13447 0 -5180,29 0 0,03397396 7,44 224,92
6 -2481 14292 0 -5180,29 0 0,03399631 -84,41 -90,19
7 -3058 15224 0 -5180,29 0 0,03400917 19,25 16,95
8 -2248 16280 0 -5180,29 0 0,0340503 -195,44 -75,36
9 -2083 17144 0 -5180,29 0 0,03417387 -59,87 135,03
10 -2157 17904 0 -5180,29 0 0,03440679 -28,32 -144,93
11 -1305 18834 0 -5180,29 0 0,03471786 -221,29 82,13
12 -2000 19834 0 -5180,29 0 0,03501998 69,51 -0,18
13 -890 20877 0 -5180,29 0 0,03520675 33,88 -49,51
14 -1920 21922 0 -5180,29 0 0,03520399 385,65 130,49
15 -408 22734 0 -5180,29 0 0,03500789 149,04 -185,84
16 -1342 22717 0 -5180,29 0 0,03468801 24,01 100,39
195
Figura 6.3.- Periodograma acumulado de êt y bandas del test de Durbin.
Finalmente se representan las estimaciones del Consumo de consumo de energía final eléctrica,
en MCO y en el dominio de la frecuencia con coeficientes dependientes del tiempo:
196
6.4. DESESTACIONALIZACIÓN A TRAVÉS DE LA
REGRESIÓN DEPENDIENTE DE LA FRECUENCIA
La regresión en el dominio de la frecuencia puede utilizarse para descomponer unas serie
temporal en sus componentes de tendencia, estacionalidad e irregular, de una serie temporal y t
de frecuencia b , o con b datos por intervalo de tiempo. Por ejemplo, una serie de frecuencia 7
sería una serie de datos diarios, y el intervalo temporal la semana, las frecuencias 4 y 12
indicarían series trimestrales y mensuales, en el periodo de tiempo de un año equivales.
π
Si la observación se toma a intervalos de tiempo ∆t , entonces la frecuencia angular es ω = .
∆t
ω 1
La frecuencia equivalente expresada en ciclos por unidad de tiempo es f = = ∆t .
2π 2
1
Cuando solo hay una observación por año, ω = π radianes por año o f = ciclos por año (un
2
ciclo por cada dos años), variaciones con una oscilación de un año tienen una frecuencia de
ω = 2π radianes por año o f = 1 ciclos por año.
Por ejemplo en una serie mensual de n = 100 datos, el ciclo estacional o las oscilaciones que
100
ocurren al cabo del año, tienen una frecuencia de f = = 8,33 ciclos por cada 100 datos.
12
Una serie mensual que completa 8 ciclos, al ser su menor frecuencia estacional 1 ciclo por año,
tendrá un total de 96 observaciones (8 ciclos), y los múltiplos enteros que también destacaran en
n 2n 3n
su periodograma corresponderán a las frecuencias f = , , ,... ; las oscilaciones de
12 12 12
tendencia o de baja frecuencia, las que ocurren con un ciclo inferior al año corresponderán a las
n
frecuencias f < .
12
Puede utilizarse (6.8) para estimar los coeficientes de Fourier de la serie temporal y t :
o
Y& = AtI n AT β& + AI N AT u& (6.10)
En (6.9)
197
1 0 0 ... 0
0 1 0 ... 0
W = At I n A = 0
T
0 1 ... 0
. . . ... .
0 1
0 0 ...
1 0 0 0 0 ... 0
0 1 0 0 0 ... 0
0 0 1 0 0 ... 0
W * = At I n AT = 0 0 0 1 0 ... 0
0 0 0 0 0 ... 0
. . . . . ... .
0 0 0 0 0 ... 0
2n
Las − 1 primeras filas de la matriz A son utilizadas para estimar los coeficientes de Fourier
12
2n
que corresponden a los ciclos de bajas frecuencias, los ciclos de tendencia, y las filas y
12
2n
+ 1 permiten regresar sobre los coeficientes de Fourier que dan lugar a oscilaciones de un
12
6n 6n 8n
ciclo en cada año, los múltiplos enteros de dicha frecuencia y + 1 , el ...deben de ser
12 12 12
utilizados para obtener la frecuencia estacional.
Ejemplo 1.2
>data(ipi)
198
La función descomponer, requiere indicar la serie, la frecuencia de la serie temporal, el tipo de
ajustes , 1, si se quiere realizar un ajuste utilizando (6.9) o 2 si se desea realizar un ajuste
utilizando (6.10), y el numero de datos a proyectar.
pero dejando pasar solo las bajas frecuencias. La serie estacional ST es TD menos TDST, y la
serie irregular IR resulta de restar TDST de y t (figure 8). El índice temporal t se obtiene a
> summary(desc1)
y TDST
Min. : 58.6 Min. : 69.11
1st Qu.: 94.5 1st Qu.: 96.32
Median :101.7 Median :102.55
Mean :101.8 Mean :101.77
3rd Qu.:110.0 3rd Qu.:108.56
Max. :129.7 Max. :123.98
TD ST
Min. : 90.88 Min. :-26.929130
1st Qu.: 97.15 1st Qu.: -1.375028
Median :100.35 Median : 1.901078
Mean :101.77 Mean : 0.000005
3rd Qu.:105.66 3rd Qu.: 6.090043
Max. :115.65 Max. : 11.248954
IR
Min. :-13.108033
1st Qu.: -4.199689
Median : -0.446392
Mean : 0.002388
3rd Qu.: 3.389198
Max. : 14.937375
>gdescomponer(ipi,12,1,0,2002,1)
199
Para realizar una representación gráfica del periodograma de los residuos se invoca la función
“gperiodograma”.
> gperiodograma(desc1$IR)
Para realizar un test sobre la aleatoriedad de la serie irregular (IR) basado en el periodograma
acumulados puede utilizarse la función “cpgram”.
200
> cpgram(ts(desc1$IR,frequency=12))
6.1. PROBLEMAS
t y x
1 15,25 12
2 12,65 7
3 16,55 15
4 20,45 23
5 22,05 25
6 14,85 11
Se pide:
201
6.2 Utilizando los datos de la tabla anterior hacer una regresión en el dominio de la frecuencia
con parámetros dependientes del tiempo, dejando pasar la frecuencia correspondiente al primer
coseno.
6.3.- Estimar un modelo lineal en el dominio de la frecuencia con parámetros dependientes del
tiempo del tipo y& = β&0 + β&1 x& + β&&z& + e& t . Siendo z:
t z
1 5
2 2
3 2
4 4
5 1
6 1
SOLUCIONES
6.1
a)
i y x
1 41,559676 37,96709101
2 -6,20651539 -12,70170592
3 -3,85 -7
4 1,52997821 3,464101615
5 1,65 3
6 2,40866491 4,490731195
b)
y& = 9,1489 + 0,5044 x& + e& t
c)
y& = 9,1712 + 0,5029 D1 + 0,5117 D 2 + e& t
202
6.2.
β 0 ,i β 0 ,t β1,i β1,t
21,322274 8,70478192 1,31850568 0,560483
0 8,70478192 0,03846073 0,54938035
0 8,70478192 0 0,52717504
0 8,70478192 0 0,51607238
0 8,70478192 0 0,52717504
0 8,70478192 0 0,54938035
6.3.
y& = 24,782 + 1,235 x& − 2,123 z& + e& t
6.4. A realizar por el alumno
203
7. FILTROS LINEALES
7.1. INTRODUCCIÓN
Un filtro lineal se define como:
∞
a( L) = ∑a L
j = −∞
j
j
donde los ponderadores son números reales, i. e. a j ∈ ℜ ; no dependen del tiempo y satisfacen
∞
∑a
j = −∞
2
j < ∞ . Aplicando el filtro lineal a ( L) a un proceso estocástico estacionario, xt , da como
donde las propiedades de xt se transmiten a y t por medio del filtro lineal a ( L) . Para
examinar el efecto que tiene un filtro lineal hay que analizarlo en el dominio de la frecuencia.
Utilizando la transformada de Fourier, se obtiene el espectro del filtro lineal aplicado a xt :
2
S y (ω ) = a (e −iω ) S x (ω )
( ) ∑a e
∞
− iω j
donde: a e −iω = j .
j = −∞
es conocido como la respuesta de frecuencia del filtro lineal o función de transferencia. Esta
función describe como el espectro de la serie xt es afectado por la aplicación del filtro a ( L) .
Dado que la respuesta de frecuencia puede resultar en valores complejos resulta conveniente
expresarla como:
( )
a e −iω = G (ω )e −iF (ω )
∞
− ∑ a j sin(ϖj )
Donde G (ω ) = a (e − iω ) , y F (ω ) = tan −1 ∞
j = −∞
, son respectivamente el módulo
∑ a j cos(ϖj )
j = −∞
y el argumento de la respuesta de frecuencia.
204
En este contexto el módulo, G (ω ) , es conocido como la ganancia del filtro; el cual determina la
medida en la que la amplitud de los movimientos observados en cierta frecuencia en el espectro
de xt son transferidos al espectro de y t . Por ejemplo una ganancia de cero alrededor de la
dicha frecuencia.
Los filtros más utilizados en el análisis de series temporales son las tasas de variación y las
medias móviles.
Las tasas de variación son operadores lineales invariantes en el tiempo pero no lineales. Dado
que la teoría elemental de los filtros se refiere a operadores lineales invariantes, hay que
aproximar las tasas a operadores de diferencia. Así la primera diferencia de un logaritmo es una
buena aproximación de una tasa de variación mensual.
( xt − xt −1 )
Sea T = , utilizando operadores de diferencia obtenemos el filtro lineal
xt
invariante más elemental:
a( L) Ln( xt ) = (1 − L) Ln( xt )
16
A veces el desplazamiento de fase se expresa como
F (ω ) , lo cual permite expresar el desfase en
ω
unidades de tiempo.
17
Para entender esta propiedad de los filtros lineales, se utilizan los siguientes resultados trigonométricos:
sin(−ω ) + sin(ω ) = 0
sin(0) = 0
∞
Esto implica que cuando h j = −h j , el producto en ∑h
j = −∞
j sin(ωj ) (1) es igual a cero, lo cual a su vez
implica que
F (ω ) = 0 dado que tan −1 (0) = 0 .
205
Las aproximaciones lineales de las tasas más utilizadas y los filtros lineales equivalentes
aparecen en el tabla 7.1.
Una media móvil simple es la media aritmética de los n datos anteriores Mientras más grande
sea n, mayor será la influencia de los datos antiguos.
Las medias móviles centradas se caracterizan porque el número de observaciones que entran
en su cálculo es impar, asignándose cada media móvil a la observación central. Así, una media
móvil centrada en t de longitud 2n + 1 viene dada por la siguiente expresión:
1 n
x + xt − n +1 + ... + xt + ... + xt + n−1 + xt + n
MM (2n + 1) t = ∑
2n + 1 i = − n
xt + i = t − n
2n + 1
En las medias móviles asimétricas se asigna cada media móvil al período correspondiente a la
observación más adelantada de todas las que intervienen en su cálculo. Así la media móvil
asimétrica de n puntos asociada a la observación t tendrá la siguiente expresión:
1 t x + xt − n + 2 + ... + xt −1 + xt
MMA(n) t = ∑ Yt +i = t − n+1
n i =t − n +1 n
Los filtros lineales asociados a las medias móviles se denotan de la siguiente forma:
1 n j
a ( L ) xt = ∑ L xt
n j =0
206
Expresión Filtro lineal Equivalente
xt
12
(1 − L)
1
T − 1 ⋅ 100
1 xt −1
xt
2
(1 − L6 )
− 1 ⋅ 100
1
T
6 x
t −6
x − 1 ⋅ 100 (1 − L12 )
T t
1
12 x
t −12
z t
12
zt =
(xt + xt −1 + xt −2 ) (1 − L)(1 + L + L2 ) = (1 − L3 )
− 1 ⋅ 100
3
T 3
1 z
t −1
z − 1 ⋅ 100
4 (xt + xt −1 + xt −2 ) (1 − L3 )(1 + L + L2 ) = (1 − L)(1 + L + L3 ) 2
T t
3
zt =
3
3 z t −1
z − 1 ⋅ 100
12
zt =
(xt + xt −1 + ... + xt −5 ) (1 − L)(1 + L + L2 + ... + L5 ) = (1 − L6 )
T t
6
6
1 z t −1
z (xt + xt −1 + ... + xt −11 ) (1 − L)(1 + L + L2 + ... + L11 ) = (1 − L12 )
− 1 ⋅ 100
12
zt =
T t
12
12
1 z t −1
z − 1 ⋅ 100
12
zt =
(xt + xt −1 + ... + xt −11 ) (1 − L12 )(1 + L + L2 + ... + L11 ) = (1 − L )
12 2
T t
12 (1 − L)
z t −12
12 12
Fuente: Melis (1991)
Tabla 7.1.- Tasas de Variación y Filtros Lineales equivalentes
Si aplicamos una primera diferencia, por poner el ejemplo más simple, a la función
característica, obtenemos como salida:
207
La función de respuesta a (ϖ ) es una función compleja de la frecuencia cuyo módulo se conoce
como función de ganancia del filtro y cuyo argumento se denomina función de fase del filtro.
iπ
donde se ha hecho uso de la igualdad e 2
= 1 y del Teorema de Moivre18, se obtienen su
función de ganancia y de fase:
ϖ
G (ω ) = 2 sin
2
π ϖ
F (ω ) = −
2 2
π ϖ
−
F (ϖ ) 2 2 T − 2
El desfase temporal de este filtro = = , si se consideraϖ = 2π .
ϖ ϖ 4 T
1 n j
El operador de medias móviles a ( L) xt = ∑ L xt tiene la función de respuesta frecuencial
n j =0
siguiente:
(
a e −iϖ = ) 1
3
(
1 + e −iϖ + e − 2iω )
A partir de la respuesta de frecuencia del filtro:
1
3
( )1
3
( 1
3
)
1 + e −iω + e − 2iω = e −iω e iω + 1 + e −iω = e −iω (1 + 2 cos(ω ) )
G (ω ) =
1
(1 + 2 cos(ω ) )
3
F (ω ) = −ω
−ω
φ (ω ) = = −1
ω
18
e − iω = cos(ω ) − i sin(ω ) y e iω = cos(ω ) + i sin(ω )
19
( )
ya que e − iω e iω = 1 , e iω + e − iω = (2 cos(ω ) ) ,aplicando el teorema de De Moivre y las
igualdades sin( −ω ) = − sin(ω ) y cos(−ω ) = − cos(ω )
208
Ejemplo 7.1
0,5
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27
-0,5
-1
2
1,8
1,6
1,4
1,2
1
0,8
0,6
0,4
0,2
0
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14
1 2 j
Cuando aplicamos el filtro lineal a ( L) = ∑ L , el resultado obtenido es:
3 j =0
209
1
0,5
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27
-0,5
-1
En el gráfico se observa que las oscilaciones de la serie filtrada son de amplitud menor a las de
la serie original, y que hay un desplazamiento de la serie filtrada con respecto a la original.
1 2 j
La función de ganancia del filtro a ( L) = ∑ L es:
3 j =0
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14
Se aprecia que la ganancia del filtro es igual a cero en la frecuencia ω = 2π . Esto significa
3
que el filtro anula el efecto de cualquier componente de la serie que tenga fluctuaciones con
periodo 3. Por ejemplo, si se trata de una serie de tiempo mensual el filtro eliminará cualquier
efecto trimestral presente en la serie.
210
F (ω )
Normalizando el desplazamiento de fase se obtiene que
ω = −1 . Esto significa que el
filtro introduce un desfase temporal de un periodo en la serie filtrada.
Las funciones de ganancia (modulo) fase y desfase de los principales filtros lineales figuran en
la Tabla 7.2.
Filtro Modulo Periodo de Fase Desfase
máxima ganancia temporal
para un
periodo
p
(1 − L) ( 2)
2 sin ω 2 π
−
ω p−2
2 2 4
(1 − L3 ) ( 2)
2 sin 3ω 6,2 π
−3
ω p−6
2 2 4
(1 − L6 ) (
2 sin 6 ω
2
) 12,4,24 π
−6
ω p − 12
2 2 4
(1 − L12 ) (
2 sin 12 ω
2
) 24,8,4.8,3.43,2.7,2.8 π
− 12
ω p − 24
2 2 4
(1 − L3 )(1 + L + L2 ) = (1 − L)(1 + L + L3 ) 2 ( 2)
2 sin 2 3ω 8 π
−5
ω p − 10
3 sin (ω )
2 2 4
2
(1 − L12 )(1 + L + L2 + ... + L11 ) = (1 − L ) 2 sin (12 ω ) π ω p − 46
12 2
2 32
(1 − L) 2 − 23
12 sin ( )
2 2 4
ω
2
Fuente: Melis (1991)
Tabla 7.2. Modulo, fase y desfase temporal de los filtros de la Tabla 7.1
Las tasas y las medias móviles forman parte de lo que en señales digitales se denominan filtros
de respuesta impulsional finita (FIR), ya que se basan en obtener las salidas a partir,
exclusivamente, de las entradas actuales y anteriores. Generalizando, para un filtro lineal de
longitud N:
N −1
yt = ao xt + a1 xt −1 + ... + a N −1 xt − N +1 = ∑ a j xt − j
j =0
211
Una media móvil de orden tres, sería entonces el siguiente filtro FIR:
1 1 1
yt = xt + xt −1 + xt − 2
3 3 3
La media móvil de orden tres es por tanto un filtro FIR tipo I, es decir simétrico de orden impar,
y la tasa de crecimiento sería un filtro FIR tipo IV, es decir antisimétrico de orden par.
N −1
2
G (ω ) == ∑ 2a
j =0
j cosϖ .
2
− j + a N −1
2
N −1
F (ϖ ) = −ϖ
2
( ) (
a e − iw = a o + a1e − iw + a 2 e −2iw + a 3 e −3iw + a 4 e −4iw + ... = )
N −1 N −1 N −1 N −1
20
− iw
N −1 N −1 iw −1 iw −2 iw −3 iw −4
=e 2 a e iw 2 + a e 2 + a e 2 + a e 2 + a e 2 + ..
o 1 2 3 4
N −1 N −1 N −1 N −1 N −1 N −1 N −1 N −1
− iw iω iw −iw −iw iω − iw iω −iw
ya que e 2
e 2
=e 2 2
= e =1 y e
0 2
e 2
e =e
iw 2
e 2
212
1 1
Un filtro media movil de 3 términos (N=3), donde a 0 = y a N −1 = a 2 = , tendrá entonces
3
2
3
G (ω ) = 2 cos(ϖ ) + y F (ϖ ) = −ϖ
1 1
3 3
N
−1
N −1
2
G (ω ) = ∑ 2a
j =0
j cosϖ .
2
− j
N −1
F (ϖ ) = −ϖ
2
1
Un promedio móvil anual, es una tasa Tipo II, con doce coeficientes N=12 de valor a j = .
12
Con lo que:
12
−1
2
1 12 − 1
G (ω ) = ∑ 2 12 cosϖ .
j =0 2
− j =
1 12 − 1 12 − 1 12 − 1 12 − 1 12 − 1 12 − 1
= cosϖ + cosϖ − 1 + cosϖ − 2 + cosϖ − 3 + cosϖ − 4 + cosϖ − 5 =
6 2 2 2 2 2 2
1 11 9 7 5 3 1
= cosϖ + cosϖ + cosϖ + cosϖ + cosϖ + cosϖ
6 2 2 2 2 2 2
F (ϖ ) = −ϖ
11
.
2
Ejemplo 7.2
1 11 j
a( L) = ∑L .
12 j = 0
El resultado se ilustra en la figura siguiente:
213
2,5
2
1,5
1
0,5
0
-0,5 1 3 5 7 9 111315171921232527293133353739414345474951
-1
-1,5
-2
-2,5
El promedio movil de 12 términos produce una salida en donde se promedian las oscilaciones
de periodo inferior a 12 “t”, si se tratara de datos mensuales, la función representada incluye
1 11 j
La función de ganancia del filtro a ( L) = ∑ L es:
12 j = 0
214
1,2
0,8
0,6
0,4
0,2
0
-0,86 0,14 1,14 2,14 3,14
N −1
−1
N −1
2
G (ω ) = ∑ 2a
j =0
j sin ϖ .
2
− j
π N −1
F (ϖ ) = −ϖ
2 2
Y un filtro tipo IV tiene la siguiente función de ganancia y fase:
N
−1
N −1
2
G (ω ) == ∑ 2a
j =0
j sin ϖ .
2
− j
π N −1
F (ϖ ) = −ϖ
2 2
215
La tasa de crecimiento trimestral a ( L) = 1 − L3 sería un filtro tipo IV, de 4 coeficientes (N=4),
calcularía:
4
−1
2
4 −1 4 −1 4 − 1 3
G (ω ) = ∑ 2a j sin ϖ .
− j == 2 1 sin ϖ
+ 0. cosϖ
− 1 == 2 sin ϖ
2
j =0 2 2 2
π
Su función de desfase será F (ϖ ) = −ϖ
2
calcularía:
13 −1
−1
2
13 − 1
G (ω ) = ∑j =0
2a j sin ϖ .
2
− j =
13 − 1 13 − 1 13 − 1 13 − 1 13 − 1 13 − 1
= 21sin ϖ + 0. cosϖ − 1 + 0 sin ϖ − 2 + 0 sin ϖ − 3 + 0 sin ϖ − 4 + 0 sin ϖ − 5 =
2 2 2 2 2 2
12
= 2 sin ϖ
2
π
y su función de desfase F (ϖ ) =
12
−ϖ
2 2
z 0 y 0 + z1 y N −1 + z 2 y N −2 + ... + z N − 2 y 2 + z N −1 y1
z y + z y + z y + ... + z y + z y
0 1 1 0 2 N −1 N −2 3 N −1 2
z 0 y 2 + z1 y1 + z 2 y 0 + ... + z N −2 y 4 + z N −1 y 3
y∗z =
.
z 0 y N −2 + z1 y N −3 + z 2 y N −4 + ... + z N − 2 y 0 + z N −1 y N −1
z 0 y N −1 + z1 y N −2 + z 2 y N −3 + ... + z N −2 y1 + z N −1 y 0
216
El producto de convolución se puede expresar de forma matricial:
yo y N −1 y N −2 . y2 y1 z o
y yo y N −1 . y2 y 2 z1
1
y y1 yo . y4 y3 z 3
y∗z = 2 ⋅
. . . . . . .
y N −2 y N −3 y N −4 . y0 y N −1 z N − 2
y N −1 y N −2 y N −3 . y1 y 0 z N −1
La matriz cuadrada del producto de convulsión recibe el nombre de matriz circulante ya que los
elementos de la primera columna van rotando su posición en las columnas sucesivas.
La transformada discreta de Fourier del producto de convolución de y ∗ z es el producto de
Hadamard de las correspondientes transformadas de y y de z :
− 1 1 0 . 0 0 zo
0 −1 1
. 0 0 z1
0 0 −1 . 0 0 z3
y∗z = ⋅
. . . . . . .
0 0 0 . − 1 1 z N −2
1 0 0 . 0 − 1 z N −1
217
− 1
0
0
y=
0
0
1
Una media móvil centrada de tres términos se expresaría por el siguiente producto de
convolución:
1 1 1 . 0 0 z
3 3 3 o
0 1 1 . 0 0 z1
3 3
0 0 1 . 0 0 z3
y∗z = 3 ⋅
. . . . . . .
13 0 0 . 1 1 z N −2
3 3
1 1 1 z N −1
3 0 . 0
3 3
donde el vector y sería:
1
3
0
0
y=
.
1
3
1
3
Para obtener los gráficos de las funciones de ganancia y desfase utilizando la transformada
discreta de Fourier, se emplean las siguientes expresiones:
G ( w) = R(ϖ ) + I (ϖ )
− I (ϖ )
F (ω ) = tan −1
R(ϖ )
218
1 1 1 . 0 0 z
3 3 3 o
0 13 1 . 0 0 z1
3
0 0 1 . 0 0 z3
y∗z = 3 ⋅
. . . . . . .
0 0 0 . 1 0 z N −2
3
0 . 1 1 z N −1
0 0
3 3
[(N − 2) × 1] = [(N − 2 ) × N ] × [N × 1]
Es decir habría que eliminar las dos últimas filas de la matriz que desarrolla el filtro lineal.
Ejemplo 7.3
219
Aplicamos un filtro de media móvil de 12 términos a la serie z y la representamos :
-0.2
-0.6
0 10 20 30 40
Time
>GW = abs(y)
>P = GW[1:25]
>f = (0:24)*pi/25
>plot(f, P, type="l")
220
1.0
0.8
0.6
P
0.4
0.2
0.0
De tal manera que el filtrado de una serie por una media móvil de 12 términos centrada con R se
realizaría de la siguiente manera:
>Y <- c(rep(1,12))/12
>X <- convolve(Z,Y,type="filter")
>plot (t [6:44], Z[6:44], main="Filtro MM12 utilizando convolve(.)" )
>lines(t[6:44], X, col="red")
221
Filtro MM12 utilizando convolve(.)
1
Z[6:44]
0
-1
10 20 30 40
t[6:44]
Los filtros pueden ser aplicados en serie, por ejemplo la tasa media de crecimiento trimestral
(1 − L3 )(1 + L + L2 ) , sería la multiplicación matricial de
1 1 1
3 − 1 1
0 . 0 0 . 0 0 zo
3 3
0 1 3 13 . 0 0 0 −1 1 . 0 0 z1
0 0 1 . 0 0 0 0 −1 . 0 0 z3
x × ( y × z) = ( x × y) × z = 3 × × =
. . . . . . . . . . . . .
13 0 0 . 1 1 0 0 0 . − 1 1 z N −2
1
3 3
1 0 . 0 1 1 0 0 . 0 − 1 z N −1
3 3 3
− 1 0 0 −1 . 0 z
3 3 o
0 1 0 0 . 0 z1
. 3
. . . . 0 z 3
×
1 0 0 0 . 0 .
3
0 1 0 0 . 0 z N −2
3
0 0 1 0 . − 1 z N −1
3 3
222
siendo
− 1
0
0
y=
0
0
1
1
3
0
0
x=
.
1
3
1
3
O bien, DFT (x × y × z ) = DFT ( x × y ) × DFT ( z ) .
siendo
− 1
3
0
.
x=
13
0
0
Ejemplo 7.3
223
A continuación diseñamos un filtro de media movil de 3 términos, para obtene un filtro
multiplicativo en el que uno de sus múltiplos es el filtro z antes construido.
224
1.0
0.5
MVZ[1:39]
0.0
-0.5
-1.0
0 10 20 30 40
Time
Dada una serie temporal expresada en forma de serie de fourier, el modelo básico de tendencia
sería:
Tt = a ot cos(0 ⋅ t ) + bot sin(0 ⋅ t ) = aot
componente irregular, et .
[ ]
R
Yt = ∑ a jt cos(ω j ⋅ t ) + b jt sin(ω j ⋅ t ) + et
j =0
Vista así una serie temporal utilizar la teoría de filtros lineales para describir los componentes
de una serie temporal.
225
Ejemplo 7.4
π ⋅t π ⋅t
Generamos la serie temporal Yt = 2 + 0,25 cos + 0,50 cos + et donde et es una
3 12
distribución normal de números aleatorios con media cero y varianza 0,25 et → N (0;0,25) .
4,5 1
4 0,8
3,5 0,6
3 0,4
2,5 0,2
2 0
1,5 -0,2
1 -0,4
0,5 -0,6
0 -0,8
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Se aprecia que la serie temporal sigue el perfil del ciclo creado, si bien difiere de este en el
mayor nivel que introduce la tendencia (de valor constante igual a 2), y la mayor irregularidad
que le incorpora de la serie aleatoria. El ciclo como se aprecia es un ciclo largo de 24 datos
(periodo 24) (de máximo a máximo), que tiene lugar dos veces al cabo de los 50 datos, y un
ciclo corto o más frecuente ya que se repite unas 8 veces a los largo del conjunto de datos, y que
tiene lugar cada 6 datos (periodo 6).
Pretendemos ahora extraer las señales relevantes de la serie, en este caso serían los dos ciclos a
través de filtros lineales, si queremos representar el ciclo largo tenemos varias posibilidades de
filtros la media móvil de 12 términos que anulan las siguientes frecuencias
1 5 j
ω = 2π 12 , 2π 6 , 2π 4 , 2π 3 , ó una media móvil de 6 datos, a( L) = ∑ L que anularía las
6 j =0
226
6
−1
2
1 6 −1
G (ω ) = ∑ 2 6 cosϖ .
j =0 2
− j =
1 6 − 1 6 −1 6 −1
= cosϖ + cosϖ − 1 + cosϖ − 2 =
3 2 2 2
1 5 3 1
= cosϖ + cosϖ + cosϖ
3 2 2 2
1,2
0,8
0,6
0,4
0,2
0
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14
227
4,5
4
3,5
3
2,5
2
1,5
1
0,5
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
4,5
4
3,5
3
2,5
2
1,5
1
0,5
0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
El menor coste informativo de la media móvil de 6 términos la hace más deseable para extraer
en este caso el ciclo de periodo 24 que la media móvil de 12 datos.
anteriormente iguala a cero la frecuencia ω = 2π , es decir las que tienen lugar cada 3 datos
3
(periodo 3), que nosotros no tenemos y atenúa sin anularlas completamente las de menor
periodo, es decir el efecto de esta media móvil a nuestro conjunto de datos es anular las
frecuencias más altas, es decir las oscilaciones que más veces se dan, que en este caso las que
induce la serie aleatoria irregular y dejar pasar las de periodo superior a tres. El resultado
gráfico de utilizar esta media móvil es el siguiente:
228
4,5
4
3,5
3
2,5
2
1,5
1
0,5
0
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49
Como vemos ahora el filtro deja pasar la tendencia y los dos ciclos que forman la serie, el de 24
datos y el de 6 datos.
Todos los filtros que hemos utilizado tienen en la función de ganancia un uno en las muy bajas
frecuencias, esto quiere decir que dejan pasar los ciclos de muy largo plazo, esto es las
tendencias, y por el contrario atenúan cuando no anulan las mas altas frecuencias, por ello en su
salida las tres medias móviles ha suavizado las oscilaciones irregulares, que persisten en la serie
pero muy atenuadas.
es, G (ϖ ) = 2 sin 3 ω( 2) .
2,5
1,5
0,5
0
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14
229
En la representación gráfica vemos que el filtro anula las oscilaciones de baja frecuencia, es
decir, las tendencias, y anula únicamente oscilaciones las que tienen lugar cada tres datos,
dejando pasar las de mayor frecuencia. El efecto de este filtro sobre nuestro conjunto de datos
sería el siguiente:
0
1
15
22
29
36
43
50
-1
-2
-3
En la literatura de proceso de señales digitales, los filtros como la media movíl de orden 2
1 2
a ( L) = (1 + L ) se conocen como filtros de corte (notch filter), son aquellos que
2
contienen uno o más profundos cortes o muescas en su función de ganancia. Este en concreto
230
3 −1
−1
3 −1 3 −1 1
− 0 = cos(ϖ ) , ya que a 0 = y a 3−1 = 0 ,
2
1
G (ω ) = ∑ 2 2 cosϖ .
j =0 2
− j + 0 = cosϖ
2 2
2
1
y a2 =
2
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14
1 11 j
a( L) = ∑ L , son filtros de peine, en los que se introduce un cero en el período p
12 j =0
(frecuencia 2π/p).
1
El operador autoregresivo a ( L) = , equivale a una media móvil de ∞ términos; cuyo
(1 − L)
1
desarrollo sería : a ( L) = 1 + L + L2 + ...L∞ . La función de ganancia del filtro a ( L) = ,
(1 − L)
1
a( L) = , se desarrolla en el siguiente proceso de medias móviles
(1 + L2 )
231
meses. La ganancia del filtro es muy pequeña salvo en las proximidades del cero estacional, en
donde crece muy rápidamente, como puede verse en el Gráfico siguiente.
100
90
80
70
60
50
40
30
20
10
0
0 0,5 1 1,5 2 2,5 3 3,5
Los filtros pueden estar constituidos por un operador autoregresivo y una media media móvil,
(1 − L4 )
a( L) = , es un ejemplo de este tipo de filtros, y cuando lo desarrollamos, obtenemos
(1 − L)
el siguiente filtro lineal:
(1 − L4 )
a( L) = = (1 − L4 )(1 + L + L2 + ... + L∞ ) = (1 + L + L2 + ... + L∞ ) − ( L4 + L5 + L6 + ... + L∞ ) =
(1 − L)
= (1 + L + L2 + L3 )
4
−1
2
4 −1 3ϖ ϖ
Cuya función de ganancia es G (ω ) = ∑ 2 cosϖ .
j =0 2
− j = 2 cos
2
+ 2 cos , otra
2
4ϖ
sin
forma alternativa de obtener esta función de ganancia es G (ω ) = 2 , que se obtendría
ϖ
sin
2
232
4
3,5
3
2,5
2
1,5
1
0,5
0
-0,36 0,14 0,64 1,14 1,64 2,14 2,64 3,14
1
Si el operador autorregresivos es de la forma a ( L) = , el filtro lineal que lo desarrolla
(1 − aL)
es a ( L) = 1 + aL + a 2 L2 + ...a ∞ L∞ , si a < 1 ,la potencia a ∞ llegará un punto en que acercara a
cero y el filtro podrá desarrollarse en términos finitos, expresado en su forma más general un
1
filtro autoregresivo toma la forma de α ( L) = M −1
;de igual manera el operador de medias
∑α
j =0
j L j
N −1
móviles se expresa en la forma mas general como β ( L) = ∑β
j =0
j L j , y en consecuencia un filtro
∑β
j =0
j Lj
a( L) = M −1
.
∑α
j =0
j L j
Ejemplo 7.5.
1 − 0,8L
a( L) = et , su linearización sería
1 − 0,5L
233
( )
Yt = (1 − 0,8) + 0,5(1 − 0,8) L + 0,5 2 (1 − 0,8) L2 + 0,5 3 (1 − 0,8) L3 + ... ⋅ et =
= (0,2 + 0,1L + 0,05L2 + 0,0125L3 + 0,00078125L4 + 3,05 ⋅ 10 −6 L4 + ...).et
0,2
0
.
y= 0, 00078125
0,0125
0,05
0,1
234
0.35
0.30
0.25
P
0.20
0.15
El filtro diseñado atenúa las altas frecuencias y deja pasar las bajas frecuencias. Este tipo de
filtros se denominan de paso bajo.
Los filtros digitales se aplican usualmente en el dominio del tiempo convolucionando el dato
con los coeficientes del filtro, pero también pueden diseñarse en el dominio de las
frecuencias.
Existen varias estrategias para el diseño de filtros. En general se busca reproducir, de la manera
más precisa posible con un número predeterminado de coeficientes, la respuesta en frecuencia
(espectro) deseada del filtro. Una vez diseñado el espectro del filtro a través del cálculo de la
Transformada de Fourier Inversa se obtendrían los coeficientes. Dado que no es posible obtener
un filtro de longitud finita que se ajuste en forma exacta al espectro deseado, es en este punto
donde entran en juego diversas estrategias que buscan obtener un filtro lo más aproximado al
efecto que de el se desea. La longitud del filtro es, entonces, uno de los elementos más
importantes a tener en cuenta. Por razones prácticas, cuanto más corta es la respuesta impulsiva
del filtro, mejor, pero un filtro muy corto puede producir efectos indeseados en las frecuencias
cercanas a la que pretendemos atenuar, en tanto que un filtro muy largo, si bien se aproxima
235
más a la respuesta en frecuencias deseada, presenta como desventaja los desfases o su tiempo de
respuesta. El uso de ventanas apropiadas para truncar la respuesta impulsiva convenientemente
es una técnica muy usual. Otra técnica consiste en modificar iterativamente los coeficientes del
filtro obtenidos hasta satisfacer el espectro de frecuencia deseado. Y en el dominio de las
frecuencias existen métodos basados en digitalizar funciones racionales de la frecuencia (filtros
de Chebyshev, Butterworth, elípticos, etc.).
El uso de ventanas (“window carpentry”), surgió hace ya tres décadas y consiste en toda una
batería de métodos y ventanas especialmente diseñadas para obtener un filtro “ideal”. Cada
ventana tiene sus propias características en el sentido que producen filtros con determinadas
propiedades en la banda de paso, de rechazo y/o de transición. Entre las ventanas más conocidas
podemos mencionar: triangular (Bartlet), Hamming, Hanning, Parzen, Daniell, etc., siendo la de
Hamming una de las más utilizadas.
1 − e − i ϖN
( )
a e iϖ = 1 + e −iϖ + ... + e −iϖ ( N −2 ) + e −iϖN =
1 − e −iϖ
236
con lo que su respuesta en frecuencia resulta,
Nϖ
N −1 sin
( )
−iϖ
a e iϖ = e 2
2
ϖ
sin
2
Nϖ
sin
2 N −1
Su función de ganancia sería G (W ) = y su desfase −
ϖ 2
sin
2
Una ventana rectangular o boxcar, tiene el efecto de una media móvil, por ejemplo una media
ω = 2π 3 ω = 2π 6
móvil de 6 términos es igual a cero las frecuencia y y deja pasar la
oscilaciones o ciclo de frecuencia más baja y atenúa relativamene las de frecuencia más alta, y
2π 2π
las intermedias entre 3 y 6 .
La ventana de Hanning por ejemplo, para N=6 da lugar a los siguientes coeficientes :
1 2π ⋅ n
ϖ (n) = 1 − cos
2 N −1
ϖ (0) =
1
(1 − cos(0)) = 0
2
1 2π
ϖ (1) = 1 − cos = 0,5
2 5
1 4π
ϖ (2) = 1 − cos = 1,5
2 5
1 6π
ϖ (3) = 1 − cos = 2
2 5
1 8π
ϖ (4) = 1 − cos = 1,5
2 5
1 10π
ϖ (5) = 1 − cos = 0,5
2 6
1 12π
ϖ (6) = 1 − cos = 0
2 6
237
su expresión en el dominio e − iϖ es:
( )
a e iϖ = 0 + 0,5e −iϖ + 1,5e −2iϖ + 2e −3iw + 1,5e −4iϖ + 0,5e −4iϖ + 0e −5iϖ
Se trata de un filtro FIR simétrico impar (tipo I), que daría lugar a la siguiente respuesta en
frecuencia:
N −1
N −1 2 −1
( ) − iϖ
2a cos w. N − 1 − j + a
∑
a e iϖ = e 2
N −1
2
j
j =0 2
( )
a e iϖ = e −i 3ϖ (cos(2ϖ ) + 3 ⋅ cos(ϖ ) + 2)
Es decir tendría un desfase de -2 periodos y una función de ganancia de G (ϖ ) = (cos(2ϖ ) + 1)
N −1
y un desfase de − = −3
2
La representación de la función de ganancia es:
1,2
0,8
0,6
0,4
0,2
0
0 0,5 1 1,5 2 2,5 3 3,5
Se comprueba que el filtro atenúa considerablemente las altas frecuencias, las que superan los
2π
3.
El método de las ventanas se basa en truncar la respuesta impulsional infinita de un filtro ideal.
Como el producto en el dominio del tiempo equivale a una convolución en el dominio de la
frecuencia, podemos estudiar el efecto que este enventanado tiene sobre la respuesta frecuencial
del filtro:
238
La convolución de una ventana boxcar y una ventana de Hanning ambas con N=6, da lugar a
una función de ganancia que se obtendría multiplicando punto a punto las funciones de ganancia
calculadas para la media móvil de 6 términos y la ventana de Hanning (6):
( )(
a( L) = 1 + L2 + L3 + L4 + L5 + L6 0 + 0,5L + 1,5L2 + 2 L3 + 1,5L4 + 0,5L5 + 0 L6 )
239
Que una vez operado da lugar al siguiente filtro FIR tipo II:
(
a( L) = 0 + 0,5L + 2 L2 + 4 L3 + 5,5L4 + 6 L5 + 6 L6 + 5,5L7 + 4 L8 + 2 L9 + 0,5L10 + 0 L10 )
9 7 5 3 1
G ( w) = cos w + 4 ⋅ cos w + 8 ⋅ cos w + 11 ⋅ cos w + 12 ⋅ cos w
2 2 2 2 2
Ejemplo 7.6
π ⋅t π ⋅t e
Generamos la serie temporal Yt = sin + sin + et donde t es una distribución
3 12
normal de números aleatorios con media cero y varianza 0,25 et → N (0;0,25) . Esta serie
En la representación gráfica de la serie se puede comprobar los efectos de las ventanas boxcar21,
la ventana Hanning, y la convolución de ambas, en la convolución se puede apreciar como se ha
eliminado las pequeñas oscilaciones que presentaba la media móvil de 6 términos, quedando
prácticamente aisladas las oscilaciones de periodo 24:
21
Para reducir la amplitud de las ventanas hay que dividir por 6 la boxcar y la ventan Hanning, y
consecuentemente por 36 la convolución de las dos ventanas.
240
Los filtros de Butterworth, de Chebyshev (tipo I y tipo II) y de Jacobi (elípticos), son filtros RC
analógicos cuya respuesta en frecuencia es bien conocida y ajustable de acuerdo a la selección
apropiada de sus componentes. Su características es que los espectros de potencia de estos
filtros se pueden expresar como funciones racionales de ω, lo que permite, en principio, su
factorización.
No obstante diseñar filtros es una tarea compleja que requiere el uso de software matemático y
un buen conocimiento de la teoría de filtros digitales. En general requiere tres pasos:
• Establecer las especificaciones del filtro para unas determinadas prestaciones
(frecuencias de paso, atenuaciones, ganancias, etc…)
• Determinar la función de transferencia que cumpla dichas especificaciones
• Realizar la función de transferencia con el software estadístico utilizado
Ejemplo 7.7
El paquete Signal de R, ofrece diversas utilidades para el diseño de filtros, está disponible en
CRAN-R / http://cran.r-project.org/web/packages/signal/index.html), su manual se descarga en
: http://cran.r-project.org/web/packages/signal/signal.pdf
En primer lugar vamos a realizar una representación gráfica de las ventanas más usuales:
>n <- 51
>op <- par(mfrow = c(3,3))
>plot(bartlett(n), type = "l", ylim = c(0,1))
>plot(blackman(n), type = "l", ylim = c(0,1))
>plot(boxcar(n), type = "l", ylim = c(0,1))
>plot(flattopwin(n), type = "l", ylim = c(0,1))
>plot(gausswin(n, 5), type = "l", ylim = c(0,1))
>plot(hanning(n), type = "l", ylim = c(0,1))
>plot(hamming(n), type = "l", ylim = c(0,1))
>plot(triang(n), type = "l", ylim = c(0,1))
>par(op)
241
blackman(n)
boxcar(n)
bartlett(n)
0.0
0.0
0.0
0 20 40 0 20 40 0 20 40
gausswin(n, 5)
flattopwin(n)
hanning(n)
0.0
0.0
0.0
0 20 40 0 20 40 0 20 40
triang(n)
0.0
0.0
0 20 40 0 20 40
Index Index
Ahora, vamos a desarrolla un ejercicio similar al ejercicio 7.3 utilizando la técnica de ventanas:
242
Using Hanning(.) for filters
1
0
y
-1
-2
-20 -10 0 10 20
-1
-2
-20 -10 0 10 20
243
ANEXO I. SERIES DE FOURIER
SERIE DE FOURIER
Una serie de Fourier es una serie infinita que converge puntualmente a una función continua y
periódica.
∞
f (t ) = 1 a 0 + ∑ a n cos(n ⋅ ω 0 t ) + bn sin(n ⋅ ω o t )
2 n =1
2π
Donde ω 0 = se denomina frecuencia fundamental; a n y bn se denominan
T
COEFICIENTES DE FOURIER.
Los coeficientes de una serie de fourier pueden calcularse gracias a la ortogonalidad de las
funciones seno y coseno.
Una manera alternativa de presentar una la serie de Fourier es:
∞
f (t ) = C 0 + ∑ C n cos(nω 0 t − θ n )
n =1
Siendo;
a0 bn
Co = ; Cn = an2 + bn2 y θ n = arctan
2
an
Ya que cada par de términos:
a n cos(nω 0 t ) + bn sen(nω o t )
an bn
an2 + bn2 cos(nω0t ) + sen(nω0t )
a 2 + b2 an2 + bn2
n n
haciendo
an
2 = cos θ n
a
n n+ b 2
bn = senθ n
a2 + b2
n n
y
bn
θ n = arctan
a
n
244
la suma puede expresarse solo en función del coseno:
C n [cos θ n cos(nω 0 t ) + senθ n sen(nω 0 t )] = C n cos(nω 0 t − θ n )
ORTOGONALIDAD
Se dice que las funciones del conjunto { f k (t )} son ortogonales en el intervalo a < t < b si
Las funciones sen t y cos t son ortogonales en el intervalo − p < t < p ; ya que:
π π
sen 2t
∫ sent cos tdt =
−π
2 −π
=0
2sen(mω0T/ 2 ) 2sen(mπ )
= = =0
mω0 mω0
b) f n (t ) = 1 y . f m (t ) = sen(mω 0 t ) :
− cos (mω0t)
T/ 2 T/ 2
∫ 1 sen(mω0t)dt =
−T/ 2
mω0 −T/ 2
=
−1
= [ cos (mω0T/ 2 )- cos (mω0T/ 2 )] = 0
mω0
c) f n (t ) = cos(nω 0 t ) y f m (t ) = cos(mω 0 t ) :
T /2
0 para m ≠ n
∫ cos(mω t)cos(nω t)dt = T / 2
−T / 2
0 0
para m = n ≠ 0
245
cos A cos B = 1 [cos( A + B ) + cos( A + B)] y cos 2 θ = 1 (1 + cos 2θ ) .
2 2
d) f n (t ) = sen(nω 0 t ) y f m (t ) = sen(mω 0 t ) :
T/ 2
0 para m ≠ n
∫ sen(mω t)sen(nω t)dt = T/ 2
−T/ 2
0 0
para m = n ≠ 0
utilizando las identidades trigonométricas
T/2 a T/2:
T /2 T /2 ∞ T/2
∫ f (t ) cos(mω t )dt =
−T / 2
0
1
2 a0 ∫ cos (mω t)dt + ∑ a ∫ cos (nω t) cos (mω t)dt +
−T / 2
0
n =1
n
−T / 2
0 0
∞ T /2
∑ bn
n =1
∫ sen(nω t) cos (mω t)dt
0 0
−T / 2
T /2
am = 2
T ∫ f (t ) cos(mω t )dt
−T / 2
0 m = 1, 2, 3,...
T /2
bm = T2 ∫ f (t )sen(mω t )dt
−T / 2
0 m = 1, 2, 3,...
246
∞
f (t ) = 1 a 0 + ∑ a n cos(n ⋅ ω 0 t ) + bn sin(n ⋅ ω o t )
2 n =1
sustituyendo: sen(nω0t ) = 1
2i (einω0t − e −inω0t )
∞
f (t ) = 12 a0 + ∑ [an 12 (e inω0t + e −inω0t ) + bn 1
(e inω0t − e −inω0t )]
dado que 1 = −i n =1
2i
i
∞
f (t ) = 12 a0 + ∑ [ 12 (an − ibn )einω0t + 12 (an + ibn )e −inω0t ]
definiendo: n =1
bien:
T
cn = 1
T ∫ f ( t ) e − in ω 0 t dt
TRANSFORMADA DE FOURIER. 0
La Transformada de Fourier; F (ω ) ; se define para una función continua de variable real; f (t ) ;
mediante la siguiente formula:
+∞
− 2π iω t
F(ω ) = ∫ f(t)e dt
−∞
distintas frecuencias.
La Transformada de Fourier es una función compleja con una parte real y otra parte imaginaria;
es decir:
F (ω ) = R (ω ) + I (ω )
donde R (ω ) es la parte real y I (ω ) es la parte imaginaria.
F (ω ) = R 2 (ω ) + I 2 (ω )
247
y al cuadrado de dicha función F (ω ) se le denomina Espectro de potencias.
2
tema 1. Dado que se busca una representación de X t que se ajuste a T observaciones; ajustamos
los datos a un polígono trigonométrico que se asemeje a una serie de fourier; escogiendo ω i
como:
2π ⋅ i
ω i =
T
es decir:
( ) ( )
k
X t = 1 a o + ∑ a i cos i ⋅ 2π ⋅ t + bi sin i ⋅ 2π ⋅ t
2 i =1
T T
( )+ b sin (i ⋅ 2π ⋅ t T )
k
xt = ( X t − µˆ ) = ∑ a i cos i ⋅ 2π ⋅ t 22
i =1
T i
∑X t
2 T
22
nótese que 1 a 0 =
2
i =1
T
, lo que implica que a 0 = ∑ Xt
T i =1
248
irrelevante (caso deterministico) o que verifica las propiedades clásicas de la perturbación de los
modelos econométricos.
El periodograma o estimador del espectro se obtendría entonces a partir de la representación de
T (a 2p + b p2 )
I (ω i ) = frente a los p armónicos; en tanto que la contribución de la varianza por
4π
T 2T kT ( N − 1)T
t 0 = 0, t1 = , t2 = ,..., t k = ,..., t N −1 =
N N T N
Cabe aproximarla mediante una combinación g (t ) de funciones T-periódicas conocidas que
tome en dichos puntos el mismo valor que f. Este procedimiento se conoce como interpolación
trigonométrica.
2π
Las funciones T-periódicas que se utilizan son los armónicos complejos e jnwt con w = y
T
puesto que hay N puntos; si queremos que el problema tenga solución única debemos combinar
un total de N armónicos.
La función g (t ) utilizada en la aproximación; toma entonces la forma general:
( )
N −1
1 1
g (t ) =
N
β 0 + β1e jwt + β 2 e j 2 wt + ... + β N −1e j ( N −1) wt =
N
∑β
n =0
n e inwt
Entonces:
N −1 N −1 ink 2π N −1
1 1 1
yk =
N
∑ βη e jnwt =
n =o
k
N
∑ βη e
n=0
N
=
N
∑ βη w
n=0
nk
N ; k = 0,1,..., N − 1
Siendo wN = exp
j 2π la raíz primitiva N-ésima de la unidad.
N
En forma matricial se expresa:
249
y0 1 1 1 . 1 . 1 β 0
y 1 w w2 . wη . w N −1 β 1
1
y2 1 w 2 w4 . w 2η . w 2( N −1) β 2
1
. = N . . . . . . . .
yk 1 w k w2k . wηk . w ( N −1)k β k
, . . . . . . . ,
y 1 w −1
N 2 ( N −1) η ( N −1)
. w ( N −1)( N −1) β N −1
N −1 w . w
donde FN = w nk[ ] N −1
n ,k =0 la matriz de Fourier de orden N.
: β = DFT ( y ) .
Una forma de obtener la DFT es a través del algoritmo FFT (Fast Fourier Transform);
desarrollado por diseñado por J.W. Cooley y John Tukey en 1965.
Si la función que interpolamos es una función real de periodo T; g (t k ) = y k ;
donde k = 0,1,..., N − 1 ; que utiliza la forma general:
g (t ) = ∑n (a n cos(nwt ) + bn sin(nwt ) )
250
Ejemplo
Utilizamos los datos del ejemplo 2; serie X t ; sin tendencia; que se cargan en R:
>y <- c(0.323027827 ; -0.738124684; -0.281638647; 1.202761696;
2.604736789; 4.537192839; 2.548626219; 2.505164067; 3.786603757;
2.882018343; 2.369627491; 0.852706545; -0.824994893; -1.637716864; -
2.25061832; -4.212245866; -4.628168995; -4.884516748; -4.606265808; -
4.832662799, -5.024859396 , -5.264607805; -3.795776075; -
3.75917228; -3.827743607; -4.227666609; -2.146472166; -1.176118654;
1.299914689; 0.741084701; 2.494315284; 0.969390431; 1.591509703;
2.572570135; 4.566052768; 4.551800817; 4.093968956 ; 4.8307686;
4.506804092; 5.317472861; 3.922041704; 3.119257741; 1.637838373;
1.310811053; 1.30987963; 1.365242501; 1.065470411; 3.278613974;
1.550471324; 0.824032479; -1.747812061; -0.298707783; -1.581339071; -
2.24208859;-1.495846423; -1.044908103; -0.190374706; 0.380989772; -
1.01953942; -2.168259106; -1.511547698; -1.230496273; -2.216220919; -
2.507357658; -2.430312769; -1.93130783; -1.855687473; -2.8340453; -
1.020897877; -0.609700176; -0.617763633; 0.127473247; 0.900574754;
0.170835155; -0.849866595; 0.159510213; -1.147782448; -2.817090398; -
2.220483265; -1.701096798; 0.381269939; 1.697401014; 2 .869379435;
2.846112408; 2.707533939; 3.016404109; 2.841756183; 1.633645998; -
0.298897198; 0.367395225; 0.645278822; 1.092542147; 1.131070577; -
0.075107037; 0.979539535; 0.480475826; -0.551598408; -1.569180997; -
2.198930053; -2.85734981)
>CF = abs(fft(y)/sqrt(100))^2
>P = (4/100)*CF[1:51]
> f=(0:50)/16
y realizamos la representación gràfica del periodograma:
251
4
3
P
2
1
0
> spec.pgram(y)
252
Series: y
Raw Periodogram
1e+01
spectrum
1e-01
1e-03
frequency
bandwidth = 0.00289
2∑
2
n w p
P =1
100α%.
La manera habitual de contrastar la existencia de algún ciclo en el periodograma de una serie
temporal a través del estadístico es calculando:
253
max S 2
G=
2S 2
El ciclo es significativo si el valor G de esta relación es igual al valor crítico calculado según la
siguiente fórmula:
ln( p ) − ln( m )
Gc = 1 − e m −1
Siendo ln(p) el logaritmo neperiano del nivel de probabilidad elegido y m el número total de
datos de la serie (en series de más de 30 datos).
Una prueba para estudiar la dependencia serial (Durbin; 1969) en series de observaciones
estacionarias y1 ,..., yT se realiza sobre la grafica del periodograma acumulado:
j
pr
sj = ∑ m
r =1
∑p
r =1
r
calcula:
2 T 2πjt 2 T 2πjt 2 1
aj = ∑
T t =1
y i cos
T
; b j = ∑
T t =1
y i sin
T
; p j = a j + b j , j = 1,..., T ,
2
2
1 1 1 1
donde T = T para T y T − para el extremo de T; por simplicidad asumimos que el
2 2 2 2
extremo de T es T = 2m + 1 .
Y su representación gráfica de p j contra j presenta una alta apariencia de irregularidad en su
inspección visual. Por ello; una mejor manera de presentar la información de los p j ' s es
exceso de bajas frecuencias relativas frente a altas frecuencias; que equivaldría a la expectativa
de presencia de correlación serial positiva este enfoque conduce al estadístico:
j
c + = max s j −
j
m
254
Por el contrario un test contra excesos de variaciones de alta frecuencia el estadístico apropiado
es:
j
c − = max − s j
j
m
El estadístico que corresponde a las dos partes de la prueba sería:
c = max s j −
j
j
m
(
= max c + , c − )
Este estadístico esta estrechamente relacionado con el de Kolmogoroiv-Smirnov Dn+ , Dn− , Dn y
su forma modificada C n+ , C n− , C n considerado por Pyke (1959) y Brunk (1962). Por ejemplo;
Los valores críticos para estos estadísticos están dado en la Tabla nºI.1; y el procedimiento para
utilizar estos valores es como sigue. Si deseamos probar el test de un exceso de bajas
frecuencias frente a las altas frecuencias; entonces el valor obtenido en la tabla, c0 es el valor
la línea y = −co + j m .
255
Ejemplo
Partimos de una serie temporal generada a partir de un paseo aleatorio o random walk:
Yt = 0,5 + Yt −1 + u t .
256
temporal obtenida a partir de una tendencia cuadrática; T ciclos armónicos ( k ) y un residuo
2
aleatorio vt :
Yt = a + bt + ct 2 + ∑ (a p cos pω 0 t + b p sin pω o t ) + vt
k
de manera que
Yt − a − bt − ct 2 = X t = ∑ (a p cos pω 0 t + b p sin pω o t ) + vt
k
60
50
40
30
serie
tendencia
20
10
0
1 8 15 22 29 36 43 50 57 64 71 78 85 92 99
-10
257
La regresión minimo cuadrática entre ambas series y la serie libre de tendencia ( X t ); ofrece el
siguiente resultado:
(
X t = 1,9645989 cos 2π ⋅ t
100
)+ 0,1982775 sin (2π ⋅ t 100)+ v t
Este proceso repetido para los 50 periodos permite obtener los coeficientes con los que elaborar
el peridograma y obtener la contribución de cada armónico a la varianza de la serie:
258
Frecuencia Periodo
I (ω ) =
( T a 2p + bp2 ) (a 2
p + b p2 )
ap bp
4π
i
2
1 100;0 1;9645989 0;1982775 31;0269598 1;94948138
259
Frecuencia Periodo
I (ω ) =
( T a 2p + bp2 ) (a 2
p + b p2 )
ap bp
4π
i
2
39 2;6 -0;1624371 -0;1121361 0;3100362 0;01948015
Como vemos es el segundo armónico; el ciclo de periodo 50; el que más contribuye a la
varianza de la serie.
max S 2 11,07999
estadístico G = = = 0,37605
2S 2
2 × 18,0681
El ciclo es significativo para un nivel de probabilidad del 95% ya que el valor G de esta relación
ln( 0 , 05 ) − ln( 50 )
superior al valor crítico calculado Gc = 1 − e 49
= 0,1315 .
La representación gráfica del test sobre el periodograma acumulado:
260
1,4000000
1,2000000
1,0000000
0,8000000
0,6000000
0,4000000
0,2000000
0,0000000
0,02
0,08
0,14
0,2
0,26
0,32
0,38
0,44
0,5
0,56
0,62
0,68
0,74
0,8
0,86
0,92
0,98
-0,2000000
Contrastar la presencia de ciclos de baja frecuencia frente a los ciclos de alta frecuencia; al
cruzar la trayectoria de s j ; la banda superior de los valores críticos del test.
ENVENTANADO
Hasta ahora hemos supuesto que las frecuencias eran frecuencias de Fourier y por tanto
Estas frecuencias originan un problema que se denomina “leakage” o distorsión; que determina
que los pesos significativos del periodograma se repartan entre frecuencias contiguas.
Una de las maneras de solucionar el “leakage” consiste en aplicar transformar la serie original
multiplicándola por una expresión que se denominan “Data Windows” o “taper”; y obtener el
periodograma a partir de la serie transformada.
fˆ (ω ) = w ⋅ I
261
Donde w es la función de pesos o ventana espectral y I es el periodograma.
Dado de que lo que se trata es de promediar algunos valores contiguos del periodograma; podría
utilizarse una media móvil de amplitud n :
1 n −1
; t = 0 ± 1 ± 2 ± ... ±
wt = n 2
0; en otro caso
Han sido propuestas gran número de ventanas; las más utilizadas son:
Ventana de Tuckey
t
wt = 1 − 2a + 2a cos π ; t = 1,2,...., T
T
• Ventana de Parzen
t
2
t
3
T
1 − 6 + 6 , t = 1,2,...,
T T 2
wt = 3
t T
21 − , t = ,..., T
M 2
• “Boxcar”;
1
1 − cos
(
π t + 1 )
2 , t = 1,2,..., m
2 m
wt = 1, t = m + 1, m + 2,...T − m
1 (
2π t + 1
)
2 , t = T − m + 1,..., T
2 1 − cos T
donde m es arbitrario; si bien suele elegirse un valor de m m tal que 2m se sitúe entre 0;1 y
T
0;2.
262
E ( xt ) = E ( xt + k ); ∀k .
1 n
Si un proceso es estacionario en media; entonces µ̂ = ∑ xi es un estimador insesgado y
n i =1
consistente de E ( xt ) .
E (ai ) = E (bi ) = 0
σ 2 ; si i = j
E (ai a j ) = E (bi b j ) =
0; si i ≠ j
E (ai b j ) = 0 ∀i, j
23
La expresión aω cos(ω ⋅ t ) + bω sin(ω ⋅ t ) da lugar a una función periódica de periodo 2π
ω
24
La estacionariedad de este proceso aleatorio puede seguirse en Contreras, D y Escolano J (1984): EI
análisis espectral como instrumento para detectar la estacionalidad. ESTADISTICA ESPAÑOLA
Núm. 104, i 984, págs. 101 a 144 http://www.ine.es/revistas/estaespa/104_6.pdf
263
n
En donde σ i es la varianza del armónico i-esimo; de manera que en γ (0) = ∑σ
i =1
i
2
se muestra
que la varianza total del proceso es la suma de las varianzas de cada armónico.
TEOREMA DE PASERVAL
Sea f una función continua en el intervalo [− π , π ] de periodo 2π ; con desarrollo de Fourier
de f :
∞
f ( x) = ∑c e
x = −∞
n
inx
∞ π
∫ π f (x )
1
∑a =
2 2
dx
2π
n
−
n = −∞
2π
Particularizando a la serie función periódica f (t ) , con periodo T = :
ω0
∞
f (t ) = 1 a 0 + ∑ a n cos(n ⋅ ω 0 t ) + bn sin(n ⋅ ω o t )
2 n =1
∞
[ f (t )]2 = 1 ao2 + ∑ a n2 + bn2
1 −π
π ∫π 2 n =1
Las series temporales no son consideradas funciones continuas como tal; sino muestras de
señales continuas tomadas a una misma distancia temporal a partir de un valor inicial Yo y
1 q −1 2
σ2 = ∑
2 n=1
(
a n + bn2 + aT2 , q = T
2
)2
264
Un proceso bivariante z (t ) es un par formado por dos procesos univariantes; x(t ) y y (t ) ;
donde E [x(t )] = µ x (t ) y E [ y (t )] = µ y (t ) .
γ y (t ,τ ) = E {( y (t ) − µ y (t ) )( y (t + τ ) − µ y (t + τ ) )}
Se denomina función de cross-varianza o covarianza cruzada a:
γ xy (t ,τ ) = E {( x(t ) − µ x (t ) )( y (t + τ ) − µ y (t + τ ) )}
Hay que señalar que γ xy (t ,τ ) no es igual a γ yx (t ,τ ) ; pero existe una relación entre las dos
funciones; ya que
γ xy (t ,τ ) = γ yx (t + τ ,−τ )
Señalar; por último; que la covarianza entre x(t ) y y (t ) sería γ yx (t ,0) .
es decir γ xy (t ,τ ) = γ xy (τ ).
γ xy (0)
ρ xy (0) =
γ x (0)γ y (0)
1 T −k
T ∑ ( x(t ) − x )( y (t + k ) − y ) ; k = 0, 1, ... , T − 1
C xy (k ) = T − k t =1
1 ∑ ( x(t ) − x )( y (t + k ) − y ) ; k = −1, −2, ... ,−(T − 1)
T t =1
265
C xy (k )
rxy (k ) =
C x ( 0) ⋅ C y ( 0)
π π
y (t ) = ∫ cos ωt ⋅ dU y (ω ) + ∫ senωt ⋅ dV y (ω )
0 0
si ω ≠ ω '
[ ] [ ]
E dU x (ω ) ⋅ dU y (ω ) = E dV x (ω ) ⋅ dV y (ω ) = C (ω )dω
Dado que en general el cross-espectro es complejo; se define el cross-espectro (C) como la parte
real de cross-espectro y el espectro de cuadratura (Q) como la parte imaginaria; que además
coinciden con C (ω ) y q (ω ) :
f xy (ω ) = C (ω ) − iq (ω )
266
Entonces se deduce que:
∞
1
C (ω ) = ∑ γ xy (τ ) ⋅ cos ωτ
π τ =−∞
∞
1
q (ω ) = ∑ γ xy (τ ) ⋅ senωτ
π τ = −∞
Otra forma de presentar las funciones C (ω ) y q (ω ) ; sería la siguiente:
∞
1
C (ω ) =
2π τ
∑γ = −∞
xy (τ ) ⋅ cos ωτ
∞
1
C (ω ) =
2π τ
∑γ = −∞
xy (τ ) ⋅ cos ωτ ; − π ≤ ω ≤ π
α xy (ω ) = C 2 (ω ) + q 2 (ω )
C 2 (ω ) + q 2 (ω )
R(ω ) = .
f x (ω ) ⋅ f y (ω )
El cross-espectro representa la aportación a la covarianza entre x(t ) y y (t ) de sus diversos
componentes armónicos. Como su interpretación no es simple; se utilizan las funciones de
espectro de fase y coherencia; ya que el espectro de fase revela el desfase o retardo que en el
comportamiento cíclico sigue una serie respecto a la otra; y el análisis de la función de
coherencia permite identificar si la correlación que se da entre las dos series se debe a que
ambas siguen un comportamiento cíclico en determinados periodos; permitiendo identificar la
duración o periodo de los armónicos que dominan en ambas series a la vez y que producen una
alta correlación.
267
La construcción del cross-espectro cuando τ = 0 ; y γ xy (0) es la covarianza habitual; da lugar a
γ xy (0)
C (ω ) =
2π
q (ω ) = 0
Ya que el coseno de ωτ = 0 ; es uno; y su seno es cero.
Si E [x(t )] = µ x = 0 y E [ y (t )] = µ y = 0 ; es decir ambas series tienen un valor medio igual a
T
cero; la covarianza entre xt e y t ; sería γ xy (0) = ∑x y
t =1
t t ;y la parte real del cross-espectro se
TEOREMA DE PLANCHAREL
Sean A(x) y B (x) dos funciones continuas de periodo 2π cuyos desarrollos de Fourier son
∞
A( x) = ∑a e
x = −∞
n
inx
∞
B( x) = ∑b e
x = −∞
n
inx
∞ π
∫ π A(x )B(x )dx
1
∑a b
n = −∞
n n =
2π −
∞ π
∫ π A(x )
1
∑a =
2 2
dx
2π
n
−
n = −∞
De igual manera que la identidad de Parseval estudia la distribución de la varianza de una serie
desarrollada en sus armónicos, la de Plancharel estudia la covarianza entre dos series
desarrolladas en sus armónicos.
268
∑ (a cos pϖ 0 t + b p sin pω o t ) y otra definida como
k
Partiendo de una serie armónica xt = p
p =1
( )
k
yt = ∑ a *p cos pϖ 0 t + b *p sin pω o t , en donde k = T armónicos si el número de
p =1
2
( )
observaciones es par T o k = T − 1 si es impar, la expresión de la igualdad de Plancharel
2
sería:
T
1 −T 2
∫T
T 2
y t x t =
1 2 *
∑
2 n =1
(
a n a n + bn*bn )
El producto escalar de xt por y t
T k
(
∑ (a p cos pϖ 0 t + b p sin pϖ o t ) a p cos pϖ 0 t + b p sin pϖ o t )
T
∑ x t ⋅ y t = ∑
t =1 p =1
* *
t =1
T
T ∑ p p
(
2 a a +b b
*
p p
*
)
2 t =1 2
equivale a .
269
BIBLIOGRAFÍA
Akaike, H. (1974), “A new look at the statistical model identification”, IEEE Transactions on
Automatic Control AC-19, pp. 716–723.
Balestra, P. y Nerlove, M. (1966), “Pooling Cross Section And Time Series Data In The
Estimation Of Coefficients In A Structural Equation”, Econometrica 34.
Box, G.E.P., Jenkins, G.M. y Reinsel, G.C. (1994), Time Series Analysis - Forecasting and
Control, 3rd Edition, Prentice Hall.
Burns, A.F. y Mitchell, W.C. (1947), Measuring Business Cycles, New York: Columbia
University Press For The NBER.
Chateld, Cris (2004). The Analysis of Time Series: An Introduction (6th edn.), 2004. CRC Press
270
Chow, G.C. (1983), Econometrics, McGraw-Hill, New York.
Christ (1960). “Simultaneus Equations Estimation: Any Veredict Yet?”. Econometrica 28, pp.
835-845.
Contreras, D y Escolano J (1984): “EI análisis espectral como instrumento para detectar la
estacionalidad”. ESTADISTICA ESPAÑOLA Núm. 104, i 984, págs. 101 a 144 .
Dickey, D.A. y W.A. Fuller (1979), “Distribution of the Estimators for Autoregressive Time
Series with a Unit Root,” Journal of the American Statistical Association, 74, p. 427–431.
Durbin, J. y Koopman, S. J. (2001), Time Series Analysis by State Space Models (Oxford
Statistical Science Series, nº 24), Oxford University Press.
Durbin, J. y Watson, G. S. (1950), “Testing for Serial Correlation Least Squares Regressions”,
Biometrika, vol 37. pp. 409-428.
Frisch, R. (1933). Pitfalls In The Statistical Construction Of Demand and Supply Analysis,
Hans Buske Verlag. Leipzig.
Gallant, A. R.(1981) "On the Bias in Flexible Functional Forms and an Essentially Unbiased
Form." J. Econometrics 15(1981):211-45.
271
Gallant, A. R.(1984) "The Fourier Flexible Form." Amer. J. Agr. Econ. 66(1984):204-15
Granger, C.W.J.(1981), “Some properties of time series data and their use in econometric model
specification”, Journal of Econometrics 16, pp. 121-130.
Hannan, E.J. (1963), Regression for Time Series, in Rosenblatt, M. (ed.), Time Series Analysis,
New York, John Wiley.
Harvey, A.C. (1978), Linear Regression in the Frequency Domain, International Economic
Review, 19, 507-512.
Hausman, J.A. (1974), “Estimation and Inference in Nonlinear Structural Models”, Annals of
Economic and Social Measurement, con Berndt E., Hall R.E. y Hall, B.H. October 1974.
272
Hausman, J.A. (1974): “Full Information Instrumental Variables Estimations of Simultaneas
Equations Systems”, Annals of Economic and Social Measurement, Vol 3. nº 4. pp. 641-652.
Hausman, J.A. (1978), “Specification tests in econometrics”, Econometrica, 46, pp. 1251-71.
Hildreth, C. (1960). “Simultaneus Equations Estimation: Any Veredict Yet?”. Econometrica 28,
pp. 846-854.
Hyndman, R. (2014): Forecasting functions for time series and linear models. R-Package
Version 5.5, URL http://cran.r-project.org/web/packages/forecast/index.html
Koopmans, T.C., Rubin, H. y Leipnik, R.B. (1950). “Measuring The Equation System Of
Dinamic Economics”, en Statistical Inference In Dinamic Economic Models, Cowles
Commision Monografico nº 10. John Wiley. Nueva York.
273
Lucas, R.E. (1972), “Expectations And The Neutrality Of Money” Journal Of Economic Theory
4, pp. 103-124.
McFadden, D. (1976), “Quantal Choice Analysis: A Survey”, Annals Of Economic And Social
Measurement.
Melis F.(1991):La estimación del ritmo de variación de las series económicas. Estadística
Española Vol 22,Num. 126, pgs 7 a 56.
Mitchell, W. C. (1928), Business Cycles: The Problem In Its Setting. National Bureau Of
Economic Research.
Moore, H. L. (1914), Economic Cycles: Their Law And Causes. Macmillan Press. Nueva York.
Moore, H. L. (1917), Forecasting The Yield And The Price Of Cotton. Macmillan Press.
Muth, J.F. (1961), “Rational Expectations And The Theory Of Price Movements”,
Econometrica 29, pp. 315-335.
Parra F (2014): Seasonal Adjustment by Frequency Analysis. Package R Version 1.1. URL:
http://cran.r-project.org/web/packages/descomponer/index.html
274
Pindyck, R. S. y Rubinfield, D. L. (1976), Econometric Models and Economic Forecast,
McGraw-Hill.
Pfaff B (2008). “VAR, SVAR and SVEC Models: Implementation Within R Package vars."
Journal of Statistical Software, 27(4). URL http://www.jstatsoft.org/v27/i04/.
Pfaff B (2013).”Unit root and cointegration tests for time series data”. Package R.Version 1.2-8.
URL: http://cran.r-project.org/web/packages/urca/index.html
Ripley, B (2002): “Time Series in R 1.5.0”. R News. The Newsletter of the R Project. Volume
2/2, June 2002.
Sargent, T. (1973), “Rational Expectations, The Real Rate Of Interest And The Natural RateOf
Unemployment”, Brookings Papers On Economic Activity 2, pp. 429-472.
275
Sargent, T.J. (1984), “Vector autoregressions, expectations and advice”, American Economic
Review 74, pp.408-415
Sims, C.A. (1982), “Policy Analysis With Economic Models”, Brookings Papers On Economic
Activity 1, pp. 107-164.
276
White, H. (1980), “An Heteroskedastic-Consistent Regression with Independent Observation”,
Econometrica 48, pp. 817-838.
Working, E.J. (1927), “What Do Statistical Demand Curves Show?”, Quarterly Journal Of
Economics 41.
Wright, P.G. (1915), “Review Of Economic Cycles By Henry Moore”, Quarterly Journal Of
Economics 29.
Wright, P.G. (1928), “The Tariff On Animal And Vegetable Oils”, New York, The Mcmillan
277