Convergencia en Macroeconomía

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 15

Convergencia en Macroeconomía:

Elementos de una nueva síntesis

Por MICHAEL WOODFORD*

Si bien a menudo se piensa que la macroeconomía es un campo profundamente


dividido, con menos núcleo compartido y, en consecuencia, menos programas
acumulativos que otras áreas de la economía, de hecho, hay menos fundamentales
desacuerdos entre los macroeconomistas ahora que en las pasadas décadas. Esto se
debe a importantes avances en la resolución de problemas aparentemente intratables
en los debates. En este artículo reviso algunos de esos debates y esbozo elementos
importantes de la nueva síntesis en la teoría macroeconomía. Analizo en qué medida
los nuevos desarrollos en la teoría y en los métodos de investigación ya están afectando
al análisis macroeconomía en las instituciones políticas.

¿Se ha dado una convergencia de puntos de vista en macroeconomía? Por supuesto,


pero sigue existiendo un amplio espectro de opiniones sobre muchas cuestiones y, tal
vez incluso lo más llamativa es la dispersión de opiniones sobre cuáles son los temas
más relevantes en la actualidad. Los temas para futuras investigaciones son
probablemente más amplios que nunca. Sin embargo, creo que hay menos desacuerdo
entre los macroeconomistas sobre cuestiones fundamentales que en el pasado.
Por ejemplo, en las décadas del 60, 70 y 1980, los macroeconomistas estaban divididos
por controversias que se relacionaban no sólo con juicios sobre la probable importancia
cuantitativa de mecanismos económicos particulares, o el tipo de políticas que podrían
defender los académicos, sino a cuestiones básicas de método (¿qué tipos de modelos
podría razonablemente emplearse en el análisis macroeconómico? ¿Qué tipo de trabajo
empírico podría probar algo sobre el mundo? ¿Y qué tipo de preguntas podrían uno
poder responder?).
En los años 1960 y principios de los 1970, la principal división era entre los
neokeynesianos y los de la escuela monetarista. No se trataba simplemente de una
disputa sobre si la "curva IS" o la "curva LM" eran más elásticas al tipo de interés; o si
la política monetaria o la política fiscal era más potente para fines de gestión de la
demanda agregada, ya que ello se retrataba en los libros de texto de pregrado. No
obstante, las dos escuelas tenían diferentes concepciones de la economía y, como
consecuencia, frecuentemente argumentaron unos en contra de otros. Los keynesianos
intentaron estimar modelos econométricos estructurales que podrían utilizarse para
predecir los efectos a corto plazo de políticas gubernamentales alternativas. En esta
empresa, no exigieron que las relaciones que constituían sus modelos sean interpretable,
salvo de manera relativamente vaga, en términos de cualquier teoría económica, pero
más bien defendieron la relevancia empírica de los modelos sobre la base de su ajuste
con series de tiempo agregadas. Los monetaristas se mostraron escépticos ante todo
este proyecto. Ellos negaron que se pudiera esperar modelar de manera confiable los
procesos de ajuste de corto plazo y, en cambio, enfatizaron las predicciones más sólidas
de la teoría económica sobre resultados de largo plazo. Dudaban de la utilidad de los
modelos econométricos estructurales y prefirieron basar sus análisis positivos y
normativos en gráficos que muestran el co-movimiento de series temporales agregadas
y en la narrativa de la evolución económica. Se burlaron de la aspiración de "afinar" el
ciclo económico utilizando modelos cuantitativos.

A finales de los años 70 y en los años 80, los términos del debate cambiaron con el
surgimiento y prominencia de la escuela "Nueva Clásica" y la teoría del ciclo
económico real. En algunas formas, los Neo Clásicos podrían haber parecido
simplemente nuevos reclutas para la causa monetarista, defendiendo muchas de las
mismas tesis, aunque con armas más modernas. 1 Sin embargo, su posición
metodológica era bastante diferente. Tanto los autores del Nuevo Clásico como los
teóricos del ciclo económico real consideraron que la tarea central de la
macroeconomía era la construcción de modelos estructurales con fluctuaciones de
corto plazo, aunque diferían marcadamente de los modeladores keynesianos en su
concepción de los requisitos para un coherente modelo macroeconómico, insistiendo
en un modelo general intertemporal rigurosamente formulado de equilibrio estructural.
La división central entre los macroeconomistas dejó de ser en reación a si se debería
intentar modelar con precisión la dinámica de corto plazo y devino, en cambio, a la
cuestión de si era más importante insistir en la coherencia teórica en el planteo de sus
modelos, incluso si esto significara prescindir de la validación econométrica (la
posición de los economistas neoclásicos y de los teóricos del ciclo económico real), o
si se dwebería insistir en las pruebas econométricas, incluso si esto significara utilizar
especificaciones menos abarcadas por la teoría (la posición de los modeladores
macroeconométricos keynesianos).
En el contexto de esta historia, creo que ha habido una considerable convergencia de
opiniones entre los macroeconomistas durante los últimos 10 o 15 años. Mientras los
problemas de campo no han sido resueltos del todos, hace mucho que no existen
desacuerdos fundamentales entre los principales macroeconomistas sobre qué tipo de
preguntas uno podría intentar responder razonablemente, o qué tipo de análisis teóricos
o estudio empírico deben ser admitido como contribución al conocimiento. Hasta cierto
punto, esto se debe a que posiciones que fueron defendidas vigorosamente en el pasado

1. Así, James Tobin (1980) se refirió a la nueva escuela como "Monetarismo Mark II".
Alternativamente, desde una perspectiva más reciente, N. Gregory Mankiw (2006) se
refiere al monetarismo como "la primera ola de nuevos estilos clásicos".
han debido hacer concesiones frente a más argumentos y experiencias. En cierta
medida, también se debe a que los avances en el análisis macroeconómico han
permitido
ver que las alternativas entre las cuales las generaciones anteriores sintieron necesario
elegir no eran tan completamente incompatibles cuando se entendían más
profundamente. El fin de la lucha metodológica dentro de la macroeconomía se debe
en gran medida al desarrollo de una nueva síntesis de Marvin Goodfriend y Robert G.
King (1997), llamada "la Nueva Síntesis Neoclásica” que incorpora elementos
importantes de cada uno de las tradiciones aparentemente irreconciliables de
pensamiento macroeconómico.

I. Elementos de la nueva síntesis


¿Qué piensan los macroeconomistas, al menos aquellos que se ocupan de comprender
los determinantes del ingreso nacional, la inflación y los efectos de la política
monetaria y política fiscal, ¿en general están de acuerdo en ello? A continuación
enumero brevemente algunos ejemplos importantes sobre cuestiones que antes eran
polémicas y sobre las que ahora existe un acuerdo bastante amplio.

En primer lugar, ahora existe un amplio consenso en que el análisis macroeconómico


debe emplear modelos con fundamentos intertemporales coherentes de equilibrio
general. Esto hace posible analizar tanto las fluctuaciones de corto plazo como el
crecimiento de largo plazo dentro de un solo
marco consistente. Por supuesto, los diferentes elementos del modelo serán más
importantes al abordar diferentes cuestiones, de modo que las complicaciones
frecuentemente abstractas serán diferentes en el caso de cuestiones de corto y largo
plazo. Pero ahora se acepta que uno debe saber cómo representar su modelo de
crecimiento y el modelo de ciclo económico de cada uno son, en principio, consistentes
entre sí en aquellas ocasiones que sea necesario realizar dichas conexiones. De manera
similar, los factores microeconómicos y de análisis macroeconómico hace mucho se
considera que no implica diferencias fundamentales de principios, de modo que sea
posible conciliar las propias opiniones sobre el hogar o comportamiento de la empresa,
o la propia visión del funcionamiento de los mercados individuales, con la propia
modelo de economía agregada, cuando sea necesario hacerlo.

En este sentido, la postura metodológica de la escuela Nueva Clásica y la de los teóricos


del ciclo económico real se han convertido en la corriente principal. Pero esto no
significa que el objetivo keynesiano de modelar estructuralmente la dinámica agregada
de corto plazo ha sido abandonada. En cambio, ahora se comprende cómo se puede
construir y analizar modelos dinámicos de equilibrio general que incorporan una
variedad de tipos de fricciones de ajuste que permiten que estos modelos proporcionen
representaciones bastante realistas de ambos a corto y largo plazo de las perturbaciones
económicas. Al respecto, estos modelos siguen siendo descendientes directos de los
modelos macroeconométricos keynesianos de principios de la posguerra, aunque una
parte importante de su ADN proviene también de los modelos de crecimiento
neoclásicos. A la luz de este desarrollo, la conclusión de Robert E. Lucas, Jr. y Thomas
J. Sargent (1978,69) que no sólo los modelos macroeconométricos keynesianos de la
época carecían de "un sólido fundamento teórico o base econométrico", sino también
que "no hay esperanzas de que se puedan realizar modificaciones menores o incluso
mayores de estos modelos que puedan conducir hacia una mejora significativa" quizás
debe considerarse prematuro.
También debo dejar en claro que cuando digo que ahora se acepta que las
modificaciones macroeconómicas deberían ser modelos de equilibrio general, no me
refiero únicamente al caso especial de modelos de equilibrio competitivo perfecto con
salarios y precios totalmente flexibles. Los modelos de equilibrio general estocástico
dinámico (DSGE) que ahora se utilizan para analizar los efectos a corto plazo de las
políticas alternativas, a menudo implican una competencia imperfecta en ambos
sectores de los mercados laborales y mercados de productos, salarios y precios que
permanecen fijos durante intervalos de tiempo, en lugar de ajustarse instantáneamente
para reflejar las condiciones actuales del mercado, y la provisión para recursos no
utilizados como resultado de las friciones de búsqueda y comparación. La insistencia
de los monetaristas, los neo clásicos y los teóricos del inicio del ciclo económico real,
sobre la relevancia empírica de los modelos de equilibrio competitivo perfecto, una
fuente de mucha controversia en las últimas décadas, no es lo que ahora se acepta
generalmente.
En cambio, lo importante es tener modelos de equilibrio general, en el sentido amplio,
y la exigencia de que todas las ecuaciones del modelo se deriven de fundamentos
mutuamente consistentes, y que el comportamiento especificado de cada unidad
económica tenga un sentido en el entorno creado por el comportamiento de los demás.
Hubo un tiempo en que los modelos de equilibrio competitivo de las compañías
walrasianas fueron el único tipo de modelos con estas características que se entendían
bien, pero hace rato ya no es así.

En segundo lugar, también existe un amplio consenso en que es deseable basar el


análisis cuantitativo de las políticas sobre modelos estructurales validados
econométricamente. Un objetivo principal de la teoría de análisis en macroeconomía
es determinar el proceso de generación de datos que implica un modelo estructural u
otro para permitir considerar en qué medida las predicciones del modelo coinciden con
las propiedades de las series temporales agregadas. Métodos para la estimación
econométrica de modelos estructurales y para la simulación estocástica de tales
modelos bajo políticas hipotéticas, son una parte crucial de las herramientas de la
macroeconomía moderna. En este sentido, el programa de investigación
macroeconométrica de los keynesianos de posguerra siguen vivos y coleando, gracias
a la considerable nueva vitalidad de los avences de la tecnología desde los años 1970.

La modelización macroeconométrica moderna, ejemplificada por el trabajo de


Lawrence J. Christiano, Martin Eichenbaum y Charles L. Evans (2005); David Altig et
al. (2005); y Frank Smets y Raf Wouters (2003, 2007), representa un retorno a la
ambiciones de los modeladores keynesianos de posguerra en al menos dos aspectos.
Primero el énfasis en el uso de modelos estructurales estimados para el análisis de
políticas contrasta con la preferencia de muchos monetaristas por sacar inferencias
sobre políticas contrafactuales a partir de relaciones empíricas de forma reducida, como
correlaciones simples entre crecimiento del dinero y otras variables. En segundo lugar,
la búsqueda por desarrollar modelos que pretenden proporcionar una descripción
cuantitativa completa del proceso estocástico conjunto, mediante los cuales evoluciona
un conjunto de variables agregadas cuyos parámetros pueden luego estimarse mediante
comparación directa con la serie temporal relevante, ello contrasta con el énfasis de la
"teoría del ciclo económico de equilibrio" de primera generación en modelos
estilizados que estaban destinados a proporcionar información sobre los mecanismos
básicos sin pretensión de un realismo cuantitativo. En la actualidad existe un consenso
generalizado de que las contribuciones útiles a la teoría macroeconomía debería ser lo
que King (1995) llama "teoría cuantitativa".
Sin embargo, la macroeconomía empírica moderna difiere del modelo
macroeconométrico clásico de posguerra en aspectos más profundos que la mera
introducción de nuevas aproximaciones para su estimación. En particular, se presta
mucha más atención a los motivos para tratar un modelo econométrico como
"estructural" a efectos del ejercicio de una evaluación de política. En el pasado, la
especificación de las relaciones estructurales era a menudo basada sólo vagamente en
la teoría económica. La forma específica de las relaciones se suponía que fueron
dictadas por el criterio de bondad de "ajuste", pero, en la práctica, una simple
conveniencia computacional jugó un papel importante en determinar qué tipos de
opciones uno intentaría "ajustar" a los datos. (Por ejemplo, uno asumiría puramente
relaciones causales retrospectivas entre un conjunto de variables que resultaron ser
parte del conjunto de datos debido a la conveniencia de estimar los coeficientes de las
relaciones que se suponía que eran de esa forma.) Ahora, en cambio, las
especificaciones que pretenden representar las relaciones estructurales se derivan de
problemas de decisión explícitos de los hogares o empresas. Se permiten retrasos en el
ajuste, pero se supone que son limitaciones que has sido tomadas en cuenta por agentes
optimizadores en lugar de modificaciones arbitrarias de la regla de decisión óptima.
Los métodos relativamente ateóricos, como la estimación de la autorrevisión irrestricta,
modelos regresivos o vectoriales autorregresivos, siguen siendo importantes en la
investigación macroeconomía empírica, y han adquirido mayor importancia desde los
años 80. Pero ahora se hace una más clara distinción entre el trabajo que apunta
únicamente a la caracterización de datos bajo supuestos a priori, y un trabajo que
intenta representar relaciones estructurales. La caracterización pura de datos es útil
como forma de establecer hechos que se debe esperar que los modelos estructurales
expliquen, pero no es un sustituto para un modelo estructural. En cambio, los dos tipos
de trabajo empírico son complementarios,como dos partes distintas de un único
programa de investigación empírica que busca desarrollar modelos cuantitativos
validados empíricamente que pueden utilizarse sensatamente en situaciones
contrafactuales de análisis de políticas.
Los modelos macroeconómicos modernos también se apartan de la literatura de
principios de posguerra en adoptar un enfoque más ecléctico para la estimación de los
parámetros del modelo y la prueba de predicciones del modelo. Una razón es que el
estilo moderno del modelo estructural, con sus fundamentos conductuales más
profundos, no es simplemente una predicción sobre las propiedades estadísticas de un
tipo particular de datos. En cambio, simultáneamente hace afirmaciones sobre muchas
cosas, tanto el comportamiento individual como el comportamiento de los agregados y
las dinámicas de corto plazo y los promedios de largo plazo, de modo que muchos tipos
diferentes de datos son relevantes, en principio, para modelar la parametrización y
juzgar la relevancia empírica del modelo.
Como resultado, muchos enfoques diferentes del análisis empírico proporcionan
perspectivas complementarias sobre el realismo cuantitativo de un modelo dado. 2

A veces, a los observadores externos les parece que los macroeconomistas están
profundamente divididos sobre cuestiones de metodología empírica. Sigue habiendo,
y probablemente siempre habrá, acalorados desacuerdos sobre el grado en que las
afirmaciones empíricas individuales son convincentes. Se utilizan diversos métodos
empíricos, tanto para la caracterización de datos como para la estimación de relaciones
estructurales, y los investigadores difieren en su gusto por los métodos específicos, a
menudo dependiendo de su voluntad de emplear métodos que impliquen supuestos a
priori más específicos. Pero la existencia de tales debates no debería ocultar el amplio
acuerdo sobre cuestiones más básicas de método. Por una parte, los "calibracionistas"
y practicantes de la estimación bayesiana de los modelos DSGE están de acuerdo en la

2. V. V. Chari y Patrick J. Kehoe (2007) se refieren a un "enfoque de gran tamaño para


el análisis de datos" que "nos permite buscar pistas sobre las magnitudes cuantitativas
de varios mecanismos en una amplia variedad de fuentes utilizando un amplio variedad
de métodos."
importancia de hacer "teoría cuantitativa". Por otro lado, aceptan la importancia de la
distinción entre la caracterización pura de datos y la validación de modelos
estructurales, y ambos tienen una comprensión similar de la forma de modelo que
puede considerarse apropiadamente como estructural.

En tercer lugar, ahora existe un amplio consenso en que es importante modelar las
expectativas como endogéticas, lo que que es crucial en el análisis político para tener
en cuenta forma en que las expectativas deberían ser diferentes en el caso de que se
adopte una política alternativa. Este fue, por supuesto, el punto de la célebre crítica de
Lucas (1976) de los métodos tradicionales de evaluación econométrica de políticas. En
relación con este tema, ahora es rutinario en las interpretaciones positivas de los datos
macroeconómicos y en análisis normativos de posibles políticas económicas para
asumir expectativas racionales por parte de los tomadores de decisiones económicas
de acuerdo con la metodología introducida por la literatura neo clásica de los años 70.

Aceptados los preceptos metodológicos de la "revolución de las expectativas


racionales", no implica sin embargo, la aceptación de la opinión de que la política de
estabilización es necesariamente ineficaz, como lo demuestran los primeros
comentarios sobre las implicaciones de ese desarrollo a menudo asumidos. En los
modelos DSGE modernos con salarios y/o precios rígidos, el hecho de que las
decisiones sobre fijación de salarios y precios se tomen sobre la base a expectativas
racionales tiene consecuencias importantes para la naturaleza del equilibrio entre
inflación y actividad real, y en la forma de pensar sobre los efectos de la política. No
se puede esperar una respuesta simple sobre los efectos de una determinada acción
política, independientemente de si la acción está anticipada o no,asimismo se espera
que el cambio en la política sea persistente o no, y de lo que el autor de la política
anuncia sobre sus intenciones políticas. Sin embargo, estos modelos normalmente
implican que las políticas sistemáticas alternativas deberían conducir a patrones de
evolución muy diferentes de actividad real, y que debería ser bastante posible, si se
dispone suficientemente de datos en tiempo real, para diseñar reglas de
retroalimentación para políticas que logren un mayor grado de estabilización que otras
políticas menos "activistas". Como lo muestran John B. Taylor (1979) y una gran
literatura posterior, técnicas de control óptimas (adecuadamente adaptadas para
abordar
con relaciones estructurales prospectivas) se puede utilizar para diseñar la
estabilización política ideal dadas a tal modelo.

Cuarto, en la actualidad se acepta ampliamente que las perturbaciones reales son una
fuente importante de las fluctuaciones económicas. La hipótesis de que las
fluctuaciones empresariales pueden atribuirse en gran medida a variaciones aleatorias
exógenas en la política monetaria tiene pocos o ningún adherente.
Si bien estudios como los de Julio J. Rotemberg y Woodford (1997) o Christiano,
Eichenbaum y Evans (2005) estiman los efectos de las perturbaciones exógenas
en la política monetaria en vistas de evaluar la capacidad de los modelos estructurales
para tener en cuenta sobre estos efectos. Ello se debe a la utilidad de esta prueba
empírica particular como una forma de discriminar entre modelos alternativos y no
debido a ninguna aseveración de que tales perturbaciones son una fuente primaria de
variabilidad agregada. De hecho, Altig et al. (2005) concluyen que los shocks de
política monetaria (identificados por su VAR)
representan sólo el 14 por ciento de la variación de las fluctuaciones agregadas en la
frecuencias del ciclo económico. Smets y Wouters (2007) encuentran que los shocks
en la política monetaria representan menos del 10 por ciento de la descomposición de
la variación del error de pronóstico para la producción agregada en cualquier horizonte.
Por "perturbaciones reales" no me refiero únicamente a los "shocks tecnológicos"
enfatizados por la teoría del ciclo económico real de los años 80. Los modernos odelos
empíricos DSGE, como el de Smets y Wouters, incluyen una variedad de tipos de
perturbaciones en la tecnología, preferencias y políticas gubernamentales (incluidos
los shocks fiscales), y parte de la variabilidad en las series temporales agregadas es
atribuido a cada uno de estos tipos de shocks. Los shocks tecnológicos de un tipo u
otro suelen estar entre los más importantes
disturbios. 3
En términos más generales, la visión keynesiana tradicional de los ciclos económicos,
según cuales fluctuaciones son causadas por una variedad de tipos de perturbaciones
reales que afectan a la actividad económica únicamente a través de sus efectos sobre la
demanda agregada, mientras que la oferta evoluciona como una tendencia suave, no ha
sido más confirmada por los modelos modernos bajo la visión monetarista pura. Si bien
los modelos empíricos DSGE como el de Smets y Wouters (2007) permite hablar
significativamente de desviaciones a corto plazo en el nivel de "equilibrio" o "natural"
de actividad real, esa "tasa natural de producción" no es una tendencia en absoluto
fluida y las perturbaciones que provocan salidas temporales del tipo natural,
normalmente también desplazan el tipo natural.

3. Altig et al. (2005) considera dos tipos de shocks tecnológicos, un shock "neutral" y
un shock específico de la inversión y concluye que juntos representan el 28 % en la
variación de la producción agregada a la frecuencia del ciclo empresarial. En el modelo
DSGE estimado de Smets y Wouters (2007), los dos shocks correspondientes
representan aproximadamente la mitad de la variación del error de pronóstico del PIB
en un horizonte de 10 trimestres.
Al mismo tiempo, la afirmación de que las perturbaciones puramente monetarias no
son la principal fuente de las fluctuaciones empresariales, no implica que la política
monetaria sea irrelevante para explicar tales fluctuaciones. Modelos empíricos DSGE
con salarios fijos,precios fijos, "información fija" o alguna combinación de estas
fricciones, generalmente implican que los efectos de equilibrio de las perturbaciones
reales dependen sustancialmente de las características de la política monetaria
sistemática, es decir, de la naturaleza de la retroalimentación consistente de las
condiciones agregadas a la política del Banco Central. De ahí, el carácter de la política
monetaria es histórico y sigue desempeñando un papel importante en la explicación de
las tendencias observadas de los patrones de ciclo, y sigue habiendo un grado
importante de alcance, al menos en principio, para mejorar la estabilización mediante
el diseño de una política monetaria adecuada.
Si bien todavía no hay acuerdo sobre el grado en que la mayor estabilidad de la
Estados Unidos y otras economías en las últimas décadas se puede atribuirse a la
conducción de la política monetaria, la hipótesis de que la política monetaria ha
conducente hacia la estabilidad, según razones argumentadas por Taylor, entre otros,
es ciertamente coherente con la visión general de las fluctuaciones empresariales que
presenta los modelos empíricos DSGE de generación.

En quinto lugar, en la actualidad se acepta ampliamente que la política monetaria es


eficaz, especialmente como medio de control de la inflación. El hecho de que los
bancos centrales pueden controlar la inflación si quieren (y se les permite hacerlo) ya
no se puede debatir después del éxito mundial de políticas desinflacionarias en los años
80 y 90. También es ampliamente aceptado encargar a los bancos centrales la
responsabilidad de mantener la tasa de inflación dentro de límites razonables.
En este sentido, la escuela monetarista ha ganado un importante debate con los
Keynesianos de posguerra. Pero esto no significa que las variaciones en la actividad
real, en la capacidad utilización, y en otros determinantes de los costos de suministro
todavía no se consideran causas inmediatas importantes de los cambios en el nivel
general de precios. La curva de Phillips supervive en los modelos empíricos DSGE
antiguos actuales, y una reciente y extensa lietatura ha documentado el grado de
evolución del costo marginal y puede explicar las variaciones en la tasa de inflación. 4
Pero ahora se entiende que ni la plausibilidad teórica ni el éxito empírico de tales
modelos implica que la inflación está determinada por factores sobre los cuales la
política monetaria tiene poco influencia. Una curva de Phillips no sólo es en sí misma
incompleta como modelo de inflación (ya que es simplemente una relación entre

. Para revisiones de esta literatura, ver, entre otros, Jordi Galí, Mark Gertler y J.
4

David López-Salido (2005), Argia M. Sbordone (2005), Eichenbaum y Jonas D. M.


Fisher (2007).
variables endógenas), pero la estructura general del modelo de equilibrio implica que
el comportamiento de los hogares y las empresas por sí solo puede, como mucho,
determinar la estructura de los precios relativos más que el nivel absoluto de (monetario)
precios, por lo que debe ser la política gubernamental la que proporcione el "ancla
nominal" si es que debe existir.
Tampoco aceptar que la política monetaria sea el determinante último del nivel
generalde precios significa que es necesario entender que los precios están
determinados por la cantidad de dinero, y aún menos que el control de la inflación
requiera un seguimiento cuidadoso de medidas de oferta monetaria. La política
monetaria no necesita identificarse con el control de la oferta monetaria. Y en la
mayoría de los bancos centrales con compromisos explícitos hacia una meta de
inflación, los agregados monetarios juegan poco o ningún papel en la deliberación de
políticas. Muchos modelos empíricos DSGE, como el modelo de Smets-Wouters, no
hacen referencia al dinero, aunque incluyen una ecuación que describe la política
monetaria e implica que la especificación de esa ecuación es muy importante para la
dinámica de variables tanto nominales como reales.5

II. Desacuerdos restantes

Si bien el estudio de las fluctuaciones empresariales ya no está impulsado por el tipo


de desacuerdos sobre los fundamentos del análisis macroeconómico que caracterizaron
las décadas después de la Segunda Guerra Mundial, subsisten diferencias importantes
en la orientación metodológica entre los macroeconomistas. Probablemente las
divisiones más obvias se refieren a la importancia concedida, por diferentes
investigadores, al trabajo que aspira a la "ciencia pura" en relación con el trabajo
destinado a abordar problemas aplicados. Esto lleva a diferentes evaluaciones del grado
de progreso logrado recientemente en este campo, que podría sugerir a los
observadores externos que los fundamentos del tema siguen siendo centralemente
impugnados, aunque, como he argumentado anteriormente, en realidad no existen
aproximaciones alternativas para la resolución de cuestiones macroeconómicas hace
mucho.
Se escuchan expresiones de escepticismo sobre el grado de progreso en la
macroeconomía de ambos lados de este debate, de aquellos que se quejan de que la
macroeconomía no se preocupa lo suficiente por el rigor científico y de quienes se
quejan de que este campo se ha ocupado exclusivamente de ello. Algunos protestan
porque la generación actual de modelos empíricos DSGE, mencionados anteriormente
como ilustraciones de la nueva síntesis en metodología, no han sido validados con

. Véase Woodford (2008) para un análisis más detallado del papel de los agregados
5

monetarios en los actuales DSGE. Modelos para el análisis de la política monetaria.


métodos suficientemente rigurosos para ser utilizados en el análisis de políticas (por
ejemplo, Chari, Kehoe y Ellen R. McGrattan, 2008). Quienes proponen este punto de
vista normalmente no afirman que algún otro modelo disponible sería más confiable
para tal fin. En cambio, argumentan que los académicos con integridad intelectual no
tengan por qué comentar sobre cuestiones políticas.
Para que no haya confusión sobre este punto, debo aclarar que al afirmar la existencia
de convergencias en metodología, no quiero decir que todas las teorías importantes han
resuelto cuestiones teóricas y empíricas en macroeconomía. Hay todavía poca certeza
sobre cuál es la mejor manera de especificar un modelo empíricamente adecuado de
agregar fluctuaciones. Mientras que esfuerzos como los de Christiano, Eichenbaum y
Evans (2005) o Smets y Wouters (2003, 2007) son alentadores, sería una tontería
afirmar que estos modelos representan una verdad establecida. El trabajo en este
sentido es suficientemente nuevo, uno no puede sorprenderse si, dentro de una década,
los mejores modelos disponibles para uso en el análisis de políticas difieren de estos
en importantes (aunque todavía imprevisibles) aspectos.
Esto no significa que el uso de tales modelos como base para contrafactuales políticas
de simulación implican afirmaciones dudosas sobre la validez empírica de los modelos.
Las decisiones políticas deben tomarse constantemente a pesar de la incertidumbre de
sus formuladores sobre los efectos precisos de las opciones alternativas. Incluso si se
restringen los objetivos de la política (digamos, a una preocupación puramente por la
estabilización de la inflación), se deben tomar decisiones difíciles sobre cómo emplear
los instrumentos de política disponibles al servicio de ese objetivo. Sólo se puede basar
el asesoramiento político en modelos provisionales, a menos que se esté dispuesto a
permitir que se adopten políticas sobre bases aún más mal informadas. Por supuesto,
una precaución honesta será dispuesta sobre los lugares donde hay motivos obvios para
la incertidumbre sobre las conclusiones provisionales obtenidas de los datos
disponibles con modelos y decisiones políticas prudentes. Buscará ser robusto ante
posibles errores, resultante de la confianza en un modelo defectuoso. Preguntas sobre
la solidez de las conclusiones de los análisis de políticas deberán ser, y son, abordadas
dentro del marco actual del paradigma dominante para el análisis macroeconómico.
Andrew Levin et al. (2005) proporciona un buen ejemplo.

Tampoco es convincente sugerir que se pueda obtener un mejor asesoramiento en


materia de políticas más confiable dedicando los esfuerzos de investigación actuales a
la clarificación de los "primeros principios" de la teoría macroeconómica, con la
expectativa de que el progreso en la comprensión y elaboración de la teoría, debería
eventualmente eliminar la incertidumbre sobre las políticas. Si bien la investigación
dirigida puramente a la clarificación teórica puede ser valiosa, hay pocas razones para
esperar que las cuestiones aclaradas sean las que importen para la mejora de las
políticas, a menos que los investigadores aborden directamente cuestiones de política
pública en su trabajo, o al menos abordar las cuestiones planteadas por la literatura que
analiza cuestiones de política.
En su artículo, Mankiw (2006, 44) critica el estado actual de la macroeconomía
desde la perspectiva opuesta a la que acabamos de comentar. En opinión de Mankiw,
desde el década del 70, se ha puesto demasiado énfasis en el desarrollo de la
macroeconomía como una ciencia con fundamentos conceptuales claros y muy poco
sobre macroeconomía como una rama de la ingeniería, un conjunto de conocimientos
sobre cómo resolver problemas. Como resultado, sostiene que los desarrollos
conceptuales de las últimas décadas han "tenido poco impacto en los
macroeconomistas prácticos que están a cargo de la complicada tarea de
política monetaria y fiscal real". A este respecto, afirma todas las diferentes corrientes
de pensamiento recientes entre los macroeconomistas académicos han
fallado igualmente.

Por ejemplo, Mankiw afirma que los modelos utilizados para el análisis cuantitativo de
políticas en instituciones políticas como la Reserva Federal "son descendientes directos
de los primeros esfuerzos modelados por Klein, Modigliani y Eckstein. Los clásicos y
los nuevos keynesianos han tenido una influencia mínima en la construcción de estos
modelos" (Mankiw 2006, 42). Pero esta es una imagen engañosa de la situación actual.
Es cierto que los esfuerzos de modelización de muchas instituciones políticas pueden
considerarse razonablemente como un desarrollo evolutivo dentro del sistema
macroeconométrico como programa modelado por los keynesianos de posguerra. Así,
si era esperable, con los primeros Neo Clásicos, que la adopción de las nuevas
herramientas requeriría empezar desde cero, se podría concluir que las nuevas
herramientas no fueron puesta en práctica. Pero, de hecho, si lo fueron, sólo que no con
consecuencias tan radicales como las que habían tenido una vez previstas.
El principal modelo de política actual de la Reserva Federal, el modelo FRB/US, se
desarrolló mediados de la década de 1990, antes del reciente renacimiento de la
investigación sobre modelos empíricos DSGE, pero incorporó muchas ideas de la
literatura de investigación de los años 1970 y 1980. Como señalan Flint Brayton et al.
(1997), implicó apartarse marcadamente de la estrategia anterior de modelos de la Junta
de la Reserva Federal para prestar mucha más atención a
modelar la evolución endógena de las expectativas y permitió simular modelos que se
llevarán a cabo bajo un supuesto de expectativas consistentes con el modelo (o
racionales), entre otras posibilidades. Los modeladores también prestaron mucha más
atención a asegurar que el modelo implicara una dinámica de largo plazo consistente
con un modelo equilibrado. Por ejemplo, que la dinámica tanto de la deuda pública
como de la deuda externa cumple condiciones de transversalidad. Finalmente, se
modificaron las dinámicas de ajuste no como una simple añadidura de rezagos
arbitrarios a las relaciones estructurales, o incluso, una dinámica de "ajuste parcial",
pero sobre la base de problemas de optimización para los tomadores de decisiones que
incorporaron explícitos (aunque flexiblemente parametrizados) costos de ajuste.

Casi al mismo tiempo, se introdujeron nuevos modelos macroeconómicos en otros


bancos centrales, como el modelo de proyección trimestral del Banco de Canadá
(Donald Coletti et al. 1996) y el Forecasting and Projection del Banco de la Reserva de
Nueva Zelanda System (Richard Black et al. 1997), que eran igualmente modernos en
su énfasis sobre expectativas endógenas y dinámicas de largo plazo consistentes con
un modelo de equilibrio. No se trataba de meros proyectos de investigación, sino de
modelos utilizados para deliberar sobre políticas prácticas bajo el enfoque de "objetivo
de pronóstico" para la política monetaria empleado por ambos bancos centrales a partir
de los inicios de los 90.

En la década posterior, a medida que la literatura académica iba poniendo más atención
al desarrollo de modelos que fueran teóricamente consistentes y empíricamente
probados, la velocidad con la que esas ideas de la literatura de investigación se
incorporan a los modes pragmáticos de orientación en las instituciones políticas, fue
acelerado, con un enfoque central en la focalización de pronósticos. Ejemplos de los
proyectos recientes más ambiciosos en su teoría incluyen el Modelo de Economía
Global del Fondo Monetario Internacional (Tamim Bayoumi et al. 2004), el RAMSES
del Riksbank Sueco (Malin Adolfson et al. 2007), el Nuevo Modelo de Área Amplia
del Banco Central Europeo (Kai Christoffel, Guenter Coenen y Chris Warne 2007) y
el Modelo Económico Noruego
(NEMO) en desarrollo por el Norges Bank (Leif Brubakk et al. 2006). Todos estos
son modeloscoherentes DSGE que reflejan el consenso metodológico actual que ya fue
discutido anteriormente y comparado con los datos obtenidos mediante calibración o
estimación bayesiana. 6 Y también son todos modelos desarrollados por instituciones
políticas para su uso práctico de análisis político. 7

6
. RAMSES y el Nuevo Modelo de Área Amplia son modelos estimados. Los equipos
responsables de GEM y NEMO han indicado su intención de estimar sus modelos
utilizando también métodos bayesianos, aunque solo versiones calibradas de los
modelo que actualmente se utilizan.
7 . También hay muchos otros proyectos de modelización metodológicamente

ambiciosos en marcha llevados adelante por personal de investigación de instituciones


políticas, incluido el Sistema de la Reserva Federal. Aquí he mencionado solo modelos
que ya se están utilizando, o que claramente han sido desarrollados para ser utilizados,
en el análisis de políticas por parte de la institución responsable para desarrollar el
modelo.
Mankiw también afirma que los banqueros centrales no encuentran utilidad para los
desarrollos modernos en macroeconomía en su pensamiento sobre la economía y las
decisiones que encaran. Como prueba, cita las memorias del ex gobernador de la
Reserva Federal, Larry Meyer, diciendo que "el análisis de Meyer de las fluctuaciones
económicas y la política monetaria es inteligente y matizado, pero no muestra rastros
de la teoría macroeconomía moderna. Seguramente le parecería más familiar a alguien
que haya formado en la síntesis neoclásica-keynesiana que prevaleció alrededor de
1970 y ha ignorado la literatura académica desde entonces" (Mankiw 2006, 40). Esto,
para mí, no suena como el gobernador de la Reserva Federal, Larry Meyer, aunque si
como los profesores de Harvard, él probablemente adopta una manera más sencilla
cuando se dirige al público en general que cuando se dirige a sus compañeros. La
interpretación de Mankiw también supone, una vez más, que aceptar la existencia de
cualquier tramo de la literatura académica desde 1970 requeriría el repudio de las
formas de pensamiento anteriores a 1970. Esto no es así. 8
En cualquier caso, resulta difícil entender cómo alguien podría decir esto de los
miembros actuales del Comité Federal de Mercado Abierto. Los discursos de Ben S.
Bernanke y otros gobernadores actuales y presidentes del Banco de la Reserva Federal
a menudo están entrelazados con notas al pie en la literatura de investigación reciente.
Cuando la Reserva Federal introdujo hace poco una nueva
política en la discusión sobre las previsiones cuantitativas de los miembros del FOMC
como parte de las actas publicadas por el Comité, el Gobernador Frederic S. Mishkin
explicó al público sobre el cambio de política en un discurso titulado "Estrategia de
Comunicación Mejorada de la Reserva Federal y Ciencia de la Política Monetaria"
(Mishkin 2007).
Esto me sugiere una "desconexión" entre la ciencia de la macroeconomía y que algún
aspecto de su ingeniería no es tan bueno como afirma Mankiw. 9

Por supuesto, aún queda mucho por lo que los macroeconomistas deben ser humildes
sobr ello, como insta Mankiw. El reducido nivel de disensión dentro del campo no
significa que tengamos una comprensión adecuada de los problemas que aborda. Uno
puede todavía mantener esperanzas de que se produzcan muchos más avances y de se
dé una competencia entre los enfoques e hipótesis rivales, lo que será casi
inevitablemente como parte de un proceso a través del cual el progreso puede ocurrir.

8. En cuanto a cuáles aspectos de la sabiduría convencional de alrededor de 1970 han


sido repudiados por la práctica de bancos centrales y el papel de la literatura académica
en este desarrollo, véase Goodfriend (2007). En la caracterizaciónde Goodfriend "la
historia es el esfuerzo mutuo entre la teoría y la práctica" (Goodfriend 2007,57).
9. Para más comentarios sobre el argumento de Mankiw, véase David Warsh (2006).
Pero en el momento actual las perspectivas son inusualmente brillantes para un
progreso con consecuencias duraderas, debido a la mayor posibilidad de diálogo
productivo entre teoría y trabajo empírico, por un lado, y entre teoría y práctica por el
otro.

También podría gustarte