Convergencia en Macroeconomía
Convergencia en Macroeconomía
Convergencia en Macroeconomía
A finales de los años 70 y en los años 80, los términos del debate cambiaron con el
surgimiento y prominencia de la escuela "Nueva Clásica" y la teoría del ciclo
económico real. En algunas formas, los Neo Clásicos podrían haber parecido
simplemente nuevos reclutas para la causa monetarista, defendiendo muchas de las
mismas tesis, aunque con armas más modernas. 1 Sin embargo, su posición
metodológica era bastante diferente. Tanto los autores del Nuevo Clásico como los
teóricos del ciclo económico real consideraron que la tarea central de la
macroeconomía era la construcción de modelos estructurales con fluctuaciones de
corto plazo, aunque diferían marcadamente de los modeladores keynesianos en su
concepción de los requisitos para un coherente modelo macroeconómico, insistiendo
en un modelo general intertemporal rigurosamente formulado de equilibrio estructural.
La división central entre los macroeconomistas dejó de ser en reación a si se debería
intentar modelar con precisión la dinámica de corto plazo y devino, en cambio, a la
cuestión de si era más importante insistir en la coherencia teórica en el planteo de sus
modelos, incluso si esto significara prescindir de la validación econométrica (la
posición de los economistas neoclásicos y de los teóricos del ciclo económico real), o
si se dwebería insistir en las pruebas econométricas, incluso si esto significara utilizar
especificaciones menos abarcadas por la teoría (la posición de los modeladores
macroeconométricos keynesianos).
En el contexto de esta historia, creo que ha habido una considerable convergencia de
opiniones entre los macroeconomistas durante los últimos 10 o 15 años. Mientras los
problemas de campo no han sido resueltos del todos, hace mucho que no existen
desacuerdos fundamentales entre los principales macroeconomistas sobre qué tipo de
preguntas uno podría intentar responder razonablemente, o qué tipo de análisis teóricos
o estudio empírico deben ser admitido como contribución al conocimiento. Hasta cierto
punto, esto se debe a que posiciones que fueron defendidas vigorosamente en el pasado
1. Así, James Tobin (1980) se refirió a la nueva escuela como "Monetarismo Mark II".
Alternativamente, desde una perspectiva más reciente, N. Gregory Mankiw (2006) se
refiere al monetarismo como "la primera ola de nuevos estilos clásicos".
han debido hacer concesiones frente a más argumentos y experiencias. En cierta
medida, también se debe a que los avances en el análisis macroeconómico han
permitido
ver que las alternativas entre las cuales las generaciones anteriores sintieron necesario
elegir no eran tan completamente incompatibles cuando se entendían más
profundamente. El fin de la lucha metodológica dentro de la macroeconomía se debe
en gran medida al desarrollo de una nueva síntesis de Marvin Goodfriend y Robert G.
King (1997), llamada "la Nueva Síntesis Neoclásica” que incorpora elementos
importantes de cada uno de las tradiciones aparentemente irreconciliables de
pensamiento macroeconómico.
A veces, a los observadores externos les parece que los macroeconomistas están
profundamente divididos sobre cuestiones de metodología empírica. Sigue habiendo,
y probablemente siempre habrá, acalorados desacuerdos sobre el grado en que las
afirmaciones empíricas individuales son convincentes. Se utilizan diversos métodos
empíricos, tanto para la caracterización de datos como para la estimación de relaciones
estructurales, y los investigadores difieren en su gusto por los métodos específicos, a
menudo dependiendo de su voluntad de emplear métodos que impliquen supuestos a
priori más específicos. Pero la existencia de tales debates no debería ocultar el amplio
acuerdo sobre cuestiones más básicas de método. Por una parte, los "calibracionistas"
y practicantes de la estimación bayesiana de los modelos DSGE están de acuerdo en la
En tercer lugar, ahora existe un amplio consenso en que es importante modelar las
expectativas como endogéticas, lo que que es crucial en el análisis político para tener
en cuenta forma en que las expectativas deberían ser diferentes en el caso de que se
adopte una política alternativa. Este fue, por supuesto, el punto de la célebre crítica de
Lucas (1976) de los métodos tradicionales de evaluación econométrica de políticas. En
relación con este tema, ahora es rutinario en las interpretaciones positivas de los datos
macroeconómicos y en análisis normativos de posibles políticas económicas para
asumir expectativas racionales por parte de los tomadores de decisiones económicas
de acuerdo con la metodología introducida por la literatura neo clásica de los años 70.
Cuarto, en la actualidad se acepta ampliamente que las perturbaciones reales son una
fuente importante de las fluctuaciones económicas. La hipótesis de que las
fluctuaciones empresariales pueden atribuirse en gran medida a variaciones aleatorias
exógenas en la política monetaria tiene pocos o ningún adherente.
Si bien estudios como los de Julio J. Rotemberg y Woodford (1997) o Christiano,
Eichenbaum y Evans (2005) estiman los efectos de las perturbaciones exógenas
en la política monetaria en vistas de evaluar la capacidad de los modelos estructurales
para tener en cuenta sobre estos efectos. Ello se debe a la utilidad de esta prueba
empírica particular como una forma de discriminar entre modelos alternativos y no
debido a ninguna aseveración de que tales perturbaciones son una fuente primaria de
variabilidad agregada. De hecho, Altig et al. (2005) concluyen que los shocks de
política monetaria (identificados por su VAR)
representan sólo el 14 por ciento de la variación de las fluctuaciones agregadas en la
frecuencias del ciclo económico. Smets y Wouters (2007) encuentran que los shocks
en la política monetaria representan menos del 10 por ciento de la descomposición de
la variación del error de pronóstico para la producción agregada en cualquier horizonte.
Por "perturbaciones reales" no me refiero únicamente a los "shocks tecnológicos"
enfatizados por la teoría del ciclo económico real de los años 80. Los modernos odelos
empíricos DSGE, como el de Smets y Wouters, incluyen una variedad de tipos de
perturbaciones en la tecnología, preferencias y políticas gubernamentales (incluidos
los shocks fiscales), y parte de la variabilidad en las series temporales agregadas es
atribuido a cada uno de estos tipos de shocks. Los shocks tecnológicos de un tipo u
otro suelen estar entre los más importantes
disturbios. 3
En términos más generales, la visión keynesiana tradicional de los ciclos económicos,
según cuales fluctuaciones son causadas por una variedad de tipos de perturbaciones
reales que afectan a la actividad económica únicamente a través de sus efectos sobre la
demanda agregada, mientras que la oferta evoluciona como una tendencia suave, no ha
sido más confirmada por los modelos modernos bajo la visión monetarista pura. Si bien
los modelos empíricos DSGE como el de Smets y Wouters (2007) permite hablar
significativamente de desviaciones a corto plazo en el nivel de "equilibrio" o "natural"
de actividad real, esa "tasa natural de producción" no es una tendencia en absoluto
fluida y las perturbaciones que provocan salidas temporales del tipo natural,
normalmente también desplazan el tipo natural.
3. Altig et al. (2005) considera dos tipos de shocks tecnológicos, un shock "neutral" y
un shock específico de la inversión y concluye que juntos representan el 28 % en la
variación de la producción agregada a la frecuencia del ciclo empresarial. En el modelo
DSGE estimado de Smets y Wouters (2007), los dos shocks correspondientes
representan aproximadamente la mitad de la variación del error de pronóstico del PIB
en un horizonte de 10 trimestres.
Al mismo tiempo, la afirmación de que las perturbaciones puramente monetarias no
son la principal fuente de las fluctuaciones empresariales, no implica que la política
monetaria sea irrelevante para explicar tales fluctuaciones. Modelos empíricos DSGE
con salarios fijos,precios fijos, "información fija" o alguna combinación de estas
fricciones, generalmente implican que los efectos de equilibrio de las perturbaciones
reales dependen sustancialmente de las características de la política monetaria
sistemática, es decir, de la naturaleza de la retroalimentación consistente de las
condiciones agregadas a la política del Banco Central. De ahí, el carácter de la política
monetaria es histórico y sigue desempeñando un papel importante en la explicación de
las tendencias observadas de los patrones de ciclo, y sigue habiendo un grado
importante de alcance, al menos en principio, para mejorar la estabilización mediante
el diseño de una política monetaria adecuada.
Si bien todavía no hay acuerdo sobre el grado en que la mayor estabilidad de la
Estados Unidos y otras economías en las últimas décadas se puede atribuirse a la
conducción de la política monetaria, la hipótesis de que la política monetaria ha
conducente hacia la estabilidad, según razones argumentadas por Taylor, entre otros,
es ciertamente coherente con la visión general de las fluctuaciones empresariales que
presenta los modelos empíricos DSGE de generación.
. Para revisiones de esta literatura, ver, entre otros, Jordi Galí, Mark Gertler y J.
4
. Véase Woodford (2008) para un análisis más detallado del papel de los agregados
5
Por ejemplo, Mankiw afirma que los modelos utilizados para el análisis cuantitativo de
políticas en instituciones políticas como la Reserva Federal "son descendientes directos
de los primeros esfuerzos modelados por Klein, Modigliani y Eckstein. Los clásicos y
los nuevos keynesianos han tenido una influencia mínima en la construcción de estos
modelos" (Mankiw 2006, 42). Pero esta es una imagen engañosa de la situación actual.
Es cierto que los esfuerzos de modelización de muchas instituciones políticas pueden
considerarse razonablemente como un desarrollo evolutivo dentro del sistema
macroeconométrico como programa modelado por los keynesianos de posguerra. Así,
si era esperable, con los primeros Neo Clásicos, que la adopción de las nuevas
herramientas requeriría empezar desde cero, se podría concluir que las nuevas
herramientas no fueron puesta en práctica. Pero, de hecho, si lo fueron, sólo que no con
consecuencias tan radicales como las que habían tenido una vez previstas.
El principal modelo de política actual de la Reserva Federal, el modelo FRB/US, se
desarrolló mediados de la década de 1990, antes del reciente renacimiento de la
investigación sobre modelos empíricos DSGE, pero incorporó muchas ideas de la
literatura de investigación de los años 1970 y 1980. Como señalan Flint Brayton et al.
(1997), implicó apartarse marcadamente de la estrategia anterior de modelos de la Junta
de la Reserva Federal para prestar mucha más atención a
modelar la evolución endógena de las expectativas y permitió simular modelos que se
llevarán a cabo bajo un supuesto de expectativas consistentes con el modelo (o
racionales), entre otras posibilidades. Los modeladores también prestaron mucha más
atención a asegurar que el modelo implicara una dinámica de largo plazo consistente
con un modelo equilibrado. Por ejemplo, que la dinámica tanto de la deuda pública
como de la deuda externa cumple condiciones de transversalidad. Finalmente, se
modificaron las dinámicas de ajuste no como una simple añadidura de rezagos
arbitrarios a las relaciones estructurales, o incluso, una dinámica de "ajuste parcial",
pero sobre la base de problemas de optimización para los tomadores de decisiones que
incorporaron explícitos (aunque flexiblemente parametrizados) costos de ajuste.
En la década posterior, a medida que la literatura académica iba poniendo más atención
al desarrollo de modelos que fueran teóricamente consistentes y empíricamente
probados, la velocidad con la que esas ideas de la literatura de investigación se
incorporan a los modes pragmáticos de orientación en las instituciones políticas, fue
acelerado, con un enfoque central en la focalización de pronósticos. Ejemplos de los
proyectos recientes más ambiciosos en su teoría incluyen el Modelo de Economía
Global del Fondo Monetario Internacional (Tamim Bayoumi et al. 2004), el RAMSES
del Riksbank Sueco (Malin Adolfson et al. 2007), el Nuevo Modelo de Área Amplia
del Banco Central Europeo (Kai Christoffel, Guenter Coenen y Chris Warne 2007) y
el Modelo Económico Noruego
(NEMO) en desarrollo por el Norges Bank (Leif Brubakk et al. 2006). Todos estos
son modeloscoherentes DSGE que reflejan el consenso metodológico actual que ya fue
discutido anteriormente y comparado con los datos obtenidos mediante calibración o
estimación bayesiana. 6 Y también son todos modelos desarrollados por instituciones
políticas para su uso práctico de análisis político. 7
6
. RAMSES y el Nuevo Modelo de Área Amplia son modelos estimados. Los equipos
responsables de GEM y NEMO han indicado su intención de estimar sus modelos
utilizando también métodos bayesianos, aunque solo versiones calibradas de los
modelo que actualmente se utilizan.
7 . También hay muchos otros proyectos de modelización metodológicamente
Por supuesto, aún queda mucho por lo que los macroeconomistas deben ser humildes
sobr ello, como insta Mankiw. El reducido nivel de disensión dentro del campo no
significa que tengamos una comprensión adecuada de los problemas que aborda. Uno
puede todavía mantener esperanzas de que se produzcan muchos más avances y de se
dé una competencia entre los enfoques e hipótesis rivales, lo que será casi
inevitablemente como parte de un proceso a través del cual el progreso puede ocurrir.