DEPP2020
DEPP2020
DEPP2020
MÓDULO III
Parte 1
DIPLOMADO ● EVALUACIÓN DE POLÍTICAS Y PROGRAMAS PÚBLICOS
2
Contenido
LECCIÓN 17
Programa Anual de Evaluación y
coordinación del proceso evaluativo
Hasta el momento se han publicado catorce ediciones del PAE, siendo la primera
del 30 de abril de 2007 y la última el 28 de abril del presente año. A lo largo del tiempo, el
contenido del PAE ha ido cambiando con el fin de afinar los procesos de coordinación entre
las distintas instancias involucradas y porque cada vez son más las evaluaciones que se
llevan a cabo durante los ciclos fiscales. Por ejemplo, en el PAE 2019 se contaba con 9
secciones mientras que para el PAE 2020 se cuenta con 11 secciones tal como se presenta
en la Figura 17.2.
En las Consideraciones Generales se presentan los objetivos del PAE, el glosario
de los principales términos que se utilizan en el documento y se definen a las instancias
coordinadoras y sus funciones. Los tres objetivos generales son determinar las acciones de
evaluación y monitoreo y los tipos de evaluación que se aplicarán; promover la vinculación
del cronograma de ejecución de las evaluaciones con el calendario de actividades de la
programación y presupuestación; y articular los resultados de las acciones de monitoreo y
evaluación para el cumplimiento del PAE.
La sección Diagnóstico de Programas se publica por primera vez en el PAE 2020
y tiene como objetivo el establecer las características que los diagnósticos de los Progra-
mas de nueva creación y los Programas con cambios sustanciales deben tener. Cabe men-
cionar que se consideran cambios sustanciales las modificaciones de los programas presu-
puestarios en el Fin o Propósito de su MIR, en la definición del programa público que busca
Después de este ejercicio, se debe buscar qué tipo de evaluación es la que más me con-
viene de acuerdo con lo revisado en el Módulo II de este Diplomado y con lo establecido en
los Lineamientos. En el siguiente ejemplo se aborda un caso hipotético de un programa de
prevención de la delincuencia que busca determinar el tipo de evaluación que requiere para
caracterizar un problema que los responsables del programa ya tienen identificado.
Ejemplo
Caso hipotético de un programa de prevención de la delincuencia
Una vez revisada la estructura general de PAE se cuenta con las herramientas ne-
cesarias para comprender el proceso de definición y contratación de las evaluaciones,
mismo que se describe en la Lección 18.
LECCIÓN 18
El proceso de contratación de una
evaluación
Tal como se revisó en el Módulo II de este mismo Diplomado, existen diferentes tipos de
evaluaciones que poseen un modelo de Términos de Referencia (TdR) preestablecido que
sirve como guía para contratar evaluaciones. En ocasiones dichos TdR pueden adaptarse
para agregar más temas a investigar o para explorar metodologías adicionales; todo de-
penderá de las necesidades de evaluación que requiera el programa o acción. La intención
de unos TdR prestablecidos son primordialmente tres:
1) Definir una metodología adecuada para obtener los resultados esperados.
2) Estandarizar la forma de presentar los hallazgos lo que permite establecer com-
paraciones de desempeño entre los programas y entre periodos. Esto es muy útil
para observar la evolución de los programas.
3) Que sirvan de guía para realizar el estudio de mercado así como para la contrata-
ción de un servicio de consultoría igual o similar.
En caso de que una dependencia o entidad lleve a cabo una evaluación que se
encuentre en el PAE y a ésta le aplique un modelo de TdR definido, se podrán proponer
adiciones que fortalezcan los resultados y utilidad del ejercicio evaluativo, para lo cual de-
berá solicitar el visto bueno de la instancia de coordinación que corresponda. Para conocer
la estructura de un modelo de TdR, en la Figura 18.1 se resume el contenido del modelo de
TdR de una evaluación en materia de diseño correspondiente a un programa no social.
En las tres primeras partes del modelo de TdR tienen como objetivo el orientar a los
responsables de los Programas para que especifiquen cuáles son los motivos para llevar a
cabo la evaluación en materia de Diseño y para que se especifique la metodología que se
ocupará para realizar la evaluación. En la cuarta parte del modelo se presentan las seccio-
nes que necesariamente deberá tener para cumplir con los requisitos mínimos indispensa-
bles de una evaluación de esta materia. Las últimas tres partes corresponden a las dispo-
siciones generales sobre la entrega de la evaluación, el cronograma de trabajo que se de-
finirá y formatos necesarios para la concretar el proyecto.
Fuente: elaboración propia con base en el modelo de TdR de evaluaciones en materia de diseño de programas
no sociales.
Uno de los elementos para asegurar la calidad de las evaluaciones es el seguimiento que
le otorgue, en especial, el área de evaluación del desempeño de la dependencia o entidad
a la cual está adscrita el Pp. Si bien el seguimiento de los responsables del Programa es
importante, son los del área de evaluación los que tienen mayor experiencia en esta materia.
A pesar de que algunos de los actores involucrados en una evaluación se han mencionado
desde el Módulo II de este Diplomado, en la Figura 18.2 se presentan aquellos cuya pre-
sencia es imprescindible.
Los gerentes o tomadores de decisiones de alto nivel son personas que ocupan
diversos puestos como la Dirección General del programa, los encargados del presupuesto,
de tecnologías de la información, de comunicación social o de las áreas correspondientes
dependiendo del tipo de evaluación que se trate. Con respecto a la dirección de evaluación
del desempeño, es importante que ésta sea independiente de la operación del programa.
Muchas veces corresponde a la Dirección General de Programación, Organización y Pre-
supuesto (DGPOP). Finalmente, cabe mencionar que los revisores son actores opcionales
y pueden ser representantes de organismos financieros internacionales tales como el
Banco Mundial, el Programa de las Naciones Unidas para el Desarrollo (PNUD), el Fondo
Monetario Internacional (FMI), entre otros.
El seguimiento del proceso de evaluación debe darse desde el comienzo, es decir,
después de haber asignado el contrato de la evaluación. Sin embargo, esto dependerá en
gran medida de lo que se haya estipulado en los TdR, el tipo de evaluación y del tiempo
con el que se cuente. Los principales factores a los cuales se les debe dar seguimiento se
describen en la Figura 18.3.
Figura 18.3 Factores del Proceso de evaluación a los que se les da seguimiento
Primera reunión
La intención de esta primera reunión es que todas las partes conozcan qué hace cada
uno de ellos, así como el alcance de la evaluación. En ésta se hace la presentación de los
actores involucrados señalando cuál es el rol que desempeñan dentro de la evaluación. El
equipo evaluador debe presentar los objetivos de la evaluación, la forma como los abordará
y de preferencia que se presente el cronograma de actividades. Por su parte los responsa-
bles del Programa o de la “acción evaluada” exponen a los evaluadores el Fin y Propósito
considerados en la MIR; la población potencial, objetivo y atendida; y los apoyos otorgados
en los casos en los que aplique. Para los programas no sociales o que no entreguen apoyos
a la población objetivo se recomienda presentar el área de enfoque atendida y los productos
entregados entendidos como los bienes o servicios que conforman los Componentes de su
MIR. Se puede invitar a la instancia coordinadora, aunque su participación no es necesaria
en esta etapa.
Segunda reunión:
Tercera reunión:
Cuarta reunión:
Se ha observado que cuando el propio equipo evaluador difunde los hallazgos y reco-
mendaciones a todo el personal del Programa o acción evaluado, el uso de la evaluación
aumenta y por ende los cambios que se esperan lograr. Por lo que, las áreas encargadas
de la evaluación, deben calcular bien los tiempos de ejecución y revisión para que sea
posible que los propios evaluadores expliquen en qué consistió la evaluación, qué evidencia
encontraron y cómo sugieren mejorar las cosas.
El éxito de una evaluación puede determinarse en la medida en que sus resultados sean
utilizados por los diversos interesados en los programas y políticas públicas evaluadas.
Para ello, el Informe Final de una Evaluación resulta fundamental. Éste ayuda a comprender
el contexto metodológico y operativo en que se realizó el ejercicio, da certeza respecto de
la validez de los hallazgos, así como sobre la pertinencia de las recomendaciones efectua-
das. En la Figura 18.4 se presentan los elementos que deben estar presente en los Informes
de Evaluación realizados en el marco del SED federal. Es importante no olvidar que los
elementos específicos para cada tipo de evaluación se encuentran en los TdR correspon-
dientes.
En la introducción se presentan los motivos por los cuales se llevó a cabo la eva-
luación que, como se revisó previamente, generalmente son tres:
1) Motivos de índole normativo, por ejemplo, porque así lo establece el PAE del
año correspondiente.
2) Por la inquietud de la UR para responder determinadas preguntas de investiga-
ción para mejorar algún componente del Pp.
3) Derivado de un acuerdo llevado a cabo con un organismo internacional de finan-
ciamiento.
En la introducción también se describe la estructura de la evaluación con el fin de
otorgar un panorama del alcance y los elementos que conforman el informe.
En el índice se enlistan todos los capítulos y anexos que conforman la evaluación,
esto para ubicar fácilmente en qué página se encuentran. Dependiendo del tipo de evalua-
ción y de la cantidad de gráficos y diagramas que contenga, se sugiere incorporar un índice
de tablas y gráficas. De igual forma, si la evaluación maneja una gran cantidad de siglas y
acrónimos, lo más conveniente es describirlos desde el principio.
En los antecedentes se busca dotar de un contexto de la evaluación al público en
general. Cabe recordar que las evaluaciones deben ser públicas, por lo tanto, se requiere
ofrecer los elementos mínimos para que cualquier lector entienda el ambiente en el que
se desenvuelve el Programa evaluado. Por ejemplo se debe mencionar la dependencia o
entidad a la que está adscrita la UR que lo opera, cuándo se creó, si proviene de alguna
fusión de programas, cuáles fueron los motivos para realizarlo y en qué marco normativo
se ubica la operación.
Como objetivo general se debe describir la razón de ser de la evaluación, así como
su alcance. También es importante expresar la acción a llevar a cabo, por lo tanto, debe
iniciar con un verbo, después se debe señalar el fenómeno a analizar delimitando hasta
dónde llegará. Con respecto a los objetivos específicos, se debe enunciar los puntos par-
ticulares que se buscan diseccionar en una evaluación, es decir, identificar lo que se desea
lograr para probar cada hipótesis de investigación. Es importante no confundir los objetivos
particulares con las tareas a seguir, por ejemplo, crear una base de datos, la cual es una
labor necesaria para cualquier investigación. De igual forma que en el objetivo general, se
requiere iniciar con una acción o verbo.
presentar el detalle de ciertos análisis evitando la saturación de un informe con tablas, mo-
delos matemáticos o diagramas que fueron estudiados para llegar a las conclusiones.
También dentro de los anexos, se debe incluir la base de datos, con la información
de campo o de gabinete generadas para el análisis, así como los algoritmos de análisis (do
file o syntax) con los cuales se puede llegar a los mismos resultados que presenta el equipo
evaluador. Para mayor información se puede consultar el numeral 28 Lineamientos (2007).
Entre los anexos que se deben entregar junto con el Informe Final, destaca el Anexo
Cuatro que corresponde al Formato de Aspectos Relevantes de la Evaluación. Este es un
formato mandatado en el PAE del año correspondiente, en el numeral 28 de los Lineamien-
tos y en el artículo 110 de la Ley Federal de Presupuesto y Responsabilidad Hacendaria
(LFPRH). La idea de este Formato es comunicar de forma ejecutiva los principales hallaz-
gos y conclusiones y presentar los datos más importantes del programa evaluado, el costo
de la evaluación, el proceso de contratación, el nombre del coordinador y del equipo de
evaluación. Se recomienda que el Formato no abarque más de dos cuartillas para que fun-
cione como una ficha ejecutiva.
Acompañando al Informe Final los evaluadores deben entregar un Resumen Eje-
cutivo en el cual se sinteticen los puntos más relevantes de la evaluación. Este documento
será una herramienta muy útil para la difusión del trabajo llevado a cabo. En la Figura 18.6
se presentan los principales puntos que el Resumen Ejecutivo deberá tener.
Figura 18.6 Principales elementos del Resumen Ejecutivo
Con respecto a su extensión se recomienda que no sea mayor a tres cuartillas y que
se haga uso de distintos recursos de edición editorial como texto resaltado en negritas,
viñetas y diferentes márgenes con la intención de que la lectura sea ágil. El propósito de
este formato es captar la atención del lector, de manera que encuentre interesante el con-
tenido y, por lo tanto, se motive a continuar la lectura del informe detallado. Es indispensable
que el resumen ejecutivo sea totalmente congruente con la estructura y contenido del in-
forme.
corroborar la robustez técnica. Todas las dependencias federales tienen un área responsa-
ble de las evaluaciones de desempeño, las cuales son ideales para llevar a cabo este tra-
bajo. Además, existen unidades técnicas especializadas en evaluación en las instancias
coordinadora encargadas de implementar el Sistema de Evaluación del Desempeño (SED).
También es relevante que los operadores clave y tomadores de decisiones corres-
pondientes a los programas participen y se involucren en el proceso de evaluación. Adi-
cionalmente, se espera que todo el equipo evaluador participe activamente en todo el pro-
ceso evitando que solamente el consultor principal asista a las reuniones. Al ser equipos
interdisciplinarios, es importante que cada elemento del equipo evaluador esté presente en
todas las reuniones para que pueda resolver dudas y atender solicitudes de cambio corres-
pondientes a los campos de conocimiento de los cuales son expertos.
La información presentada debe ser confiable y respetuosa de la protección de
datos personales. En el caso de las metodologías cuantitativas tratar de presentar los datos
de forma agregada cuidando la información sensible con la cual se pueda caracterizar a
una persona en específico. En el caso de las metodologías cualitativas es necesario prote-
ger la identidad de los informantes para evitar que sea identificable. Por ejemplo, si se rea-
liza una entrevista o encuesta a una madre joven menor de 15 años en un poblado rural de
200 habitantes, la probabilidad de que sea identificada es alta. Por esta razón es importante
proteger su identidad e información personal sin alterar las bases de datos o documentos
de análisis. El proceso de evaluación debe desarrollarse en estricta observancia de la Ley
Federal de Transparencia y Acceso a la Información Pública Gubernamental (LFTAIPG)
para los programas federales y a la Ley General de Transparencia y Acceso a la Información
Pública (LGTAIP) y la normatividad local aplicable para entidades federativas, municipios y
Demarcaciones Territoriales de la Ciudad de México.
La principal herramienta de retroalimentación y seguimiento son las reuniones y
las revisiones de productos intermedios y finales. El propósito de esto es aclarar dudas o
realizar precisiones buscando siempre el entendimiento respetuoso y objetivo entre todos
los involucrados.
El perfil académico de los evaluadores debe ser consistente con la temática a
evaluar. Es necesario que el coordinador del equipo de evaluación sea un miembro activo
en la investigación, por lo regular es la persona con los conocimientos más aptos para emitir
las recomendaciones de política pública debido a su experiencia, además porque ese perfil
es el que cuenta tiene el mayor peso para contratar la consultoría. En consecuencia, se
debe exponer de manera específica en los Términos de Referencia la formación académica
necesaria y los años de experiencia comprobables.
Es deber de las dependencias o entidades realizar el estudio de mercado o de fac-
tibilidad para corroborar que la contratación de la evaluación se realizará con los recursos
adecuados, es decir, bajo las mejores condiciones disponibles en cuanto a precio, calidad,
financiamiento, oportunidad y demás circunstancias pertinentes a fin de administrar los re-
cursos con eficiencia, eficacia, economía, transparencia, honradez e imparcialidad.
Los Informes de Evaluación deben ser aptos para todo público por lo que siempre
se debe buscar que los evaluadores utilicen un lenguaje ciudadano al momento de redactar
los documentos de la evaluación, evitando en la medida de lo posible el uso de tecnicismos
y aseveraciones sin argumentos. Un buen Informe de Evaluación es capaz de ser entendido
tanto por un estudiante de bachillerato como por un experto en el tema. Esto hará que se
incremente las probabilidades de uso y que se contribuya a un cambio real en la política
pública.
Es de suma importancia que si una persona toma un extracto de cualquier parte del
Informe este sea consistente con el inicio o el final del documento de investigación. En
algunas ocasiones el Resumen Ejecutivo, dista mucho del cuerpo de la Evaluación o de las
conclusiones, esto se debe evitar para asegurar la calidad de la información. Finalmente,
es indispensable que exista capacitación constante con el objetivo de fortalecer el capital
humano en las dependencias o entidades así como para fomentar el desarrollo de un mer-
cado competitivo de evaluadores, se debe impartir talleres y seminarios en materia de eva-
luación y monitoreo.
LECCIÓN 19
Aspectos Susceptibles de Mejora
Tal como se revisó en la Lección anterior, una vez que ya se cuenta con el Informe Final de
Evaluación, los responsables del Programa deben comunicar mediante Oficio a su instancia
coordinadora que el proceso ha concluido. Adicionalmente, los responsables del Programa
o el área de evaluación del desempeño de la dependencia en la que se encuentra adscrito
deberán entregarle a la SHCP-UED el Informe Final de todas las evaluaciones realizadas,
incluso cuando éstas no hayan sido hechas bajo la coordinación del CONEVAL. Esto por-
que la UED funge como dependencia concentradora de la información generada en el
marco del SED y como tal incorpora los resultados de las evaluaciones a la estrategia de
información del PbR.
La entrega de esta información se debe llevar a cabo de acuerdo con los Artículos
85, 107, 110 y 111 de la Ley Federal de Presupuesto y Responsabilidad Hacendaria
(LFPRH) en donde se establece que todas las evaluaciones concluidas en conjunto con
el Anexo Cuatro se deberán de reportar en el Informe Trimestral que se le remite al Con-
greso de la Unión. El Anexo Cuatro es muy importante ya que en él se incluye el costo de
la evaluación, y esta información debe ser transparentada. Los informes de las evaluacio-
nes que coordina el CONEVAL también deberán presentarse ante la Comisión de Desarro-
llo Social de la Cámara de Senadores. Lo anterior, no excluye qué ciertos programas o
entidades deban reportar a otras instancias del Gobierno Federal, Estatal o Municipal, se-
gún aplique la normatividad. Por ejemplo, algunos programas deben entregar los Informes
Finales de manera adicional a la Auditoría Superior de la Federación (ASF), otros al Secre-
tario Ejecutivo al que pertenezcan, como es el caso de los programas que deben reportar
al Sistema Nacional de Protección de Niñas, Niños y Adolescentes (SIPINNA), por citar, un
caso.
Con el fin de que las recomendaciones y hallazgos de las evaluaciones del desem-
peño se atiendan, el SED generó el Mecanismo para el seguimiento de los aspectos sus-
ceptibles de mejora derivados de informes y evaluaciones a los Programas presupuestarios
de la Administración Pública Federal (Mecanismo). Éste tiene como objetivo que los res-
ponsables del diseño y operación de los Pp utilicen los hallazgos más relevantes de las
evaluaciones para identificar sus Aspectos Susceptibles de Mejora (ASM), como elementos
guía para la incorporación de modificaciones graduales para el mejoramiento de los progra-
mas (CONEVAL, 2018). Es hasta que los hallazgos y recomendaciones se convierten en
ASM que se puede considerar como concluido el proceso de evaluación.
Los ASM se pueden entender como los hallazgos, debilidades, oportunidades y
amenazas identificadas en la evaluación externa, las cuales deben ser atendidas para la
mejora de los programas con base en las recomendaciones y sugerencias señaladas por
el evaluador externo a fin de contribuir en la optimización del desempeño de los Pp y de las
políticas públicas. Con el objetivo de establecer un proceso para dar seguimiento a los ASM
y articular los resultados de las evaluaciones externas a los Pp en el marco del SED, la
SHCP-UED, la Secretaría de la Función Pública1 y el CONEVAL publicaron en octubre de
2008 la primera versión del Mecanismo, el cual se ha actualizado en dos ocasiones, siendo
la última en marzo de 2011 aún vigente.
1 Es importante señalar que originalmente la Secretaría de la Función Pública (SFP) se consideraba una ins-
tancia coordinadora por lo que participo en la elaboración del mecanismo 2011. Fue hasta 2015 que con base
en el Decreto por el que se reforman y adicionan diversas disposiciones de la Ley General de Contabilidad
Gubernamental y de la Ley Federal de Presupuesto y Responsabilidad Hacendaria publicado en el Diario Oficial
de la Federación el 30 de diciembre de 2015, se establece en el artículo Sexto Transitorio del mismo, que los
trámites que se hayan iniciado ante la SFP en materia del Sistema de Evaluación del Desempeño serán con-
cluidos por la SHCP, por lo que en este Informe se consideran exclusivamente a la SHCP y al CONEVAL como
instancias coordinadoras del seguimiento a los ASM.
Revisión de la Evaluación
Para la formalización de las recomendaciones y hallazgos que serán atendidos, las depen-
dencias y entidades elaboran un documento de posición institucional o documento de opi-
nión que es aquel mediante el cual la dependencia y/o entidad refleja la opinión fundada y
motivada respecto de los hallazgos y recomendaciones derivadas de las evaluaciones ex-
ternas. El documento deberá contener los elementos descritos en la Figura 19.2.
Figura 19.2 Elementos que debe tener el documento de posición institucional de los ASM2
2El Fundamento como elemento de la posición institucional es un apartado instituido desde la UED pero que
no está contemplado en el mecanismo.
Para clasificar y definir adecuadamente los ASM a continuación se describen las principales
acciones que se deben llevar a cabo. Primeramente, se deben identificar en los hallazgos
y recomendaciones entregados por el evaluador al menos uno de los criterios descritos en
la Figura 19.3. Lo deseable es que cuenten con los cuatro, pero en términos prácticos, uno
es suficiente.
Figura 19.3 Criterios para la conformación de los ASM
La información que se debe suscribir y los avances de los aspectos a mejorar están defini-
dos en el Mecanismo, así como registro en el SSAS, el cual es administrado por CONEVAL.
A pesar de que el CONEVAL es coordinador solo de los programas sociales, los programas
no sociales coordinados por la SHCP – UED también hacen uso de este mismo Sistema.
Una vez que se carga el documento de opinión en el SSAS y se completa el formulario con
la caracterización de los ASM se generan los documentos para su seguimiento.
Tal como se explicó previamente, el seguimiento a la atención de los ASM se lleva a cabo
dependiendo del tipo de actores involucrados y de eso dependerá la emisión de documen-
tos de seguimiento tal como se describe en la Figura 19.7.
Figura 19.7 Emisión de documentos de seguimiento de ASM
Si bien cada evaluación es diferente dependiendo del tipo de Programa e incluso del eva-
luador que la lleva a cabo, es posible identificar prácticas frecuentes en los ASM que derivan
de cada uno de los tipos de evaluación. En este caso, de la Figura 19.8 a la 19.11 se revi-
sarán algunos ejemplos de ASM que derivan de las evaluaciones de diseño, procesos, con-
sistencia y resultados y de impacto, las cuales corresponden a los tipos de evaluaciones
revisadas en las Lecciones 12 a 15 de este Diplomado.
Figura 19.8 Tipos de ASM que derivan de las evaluaciones en materia de diseño
Figura 19.10 Tipos de ASM que derivan de las evaluaciones de consistencia y resultados
Por esta razón es indispensable que las Unidades Responsables asuman como ASM los
hallazgos y recomendaciones emitidas en las evaluaciones y que les den seguimiento hasta
el final de su implementación. En el momento en el que el último ASM es atendido y repor-
tado por el medio correspondiente, entonces podremos asegurar que el proceso de evalua-
ción concluyó exitosamente.
LECCIÓN 20
Seguimiento de la información de
desempeño
pueda medir de manera aproximada la eficiencia del gasto. La principal limitación es que
las asignaciones presupuestarias y sus modificaciones no se encuentran dentro del ámbito
de control directo del programa, por lo que la valoración de esta dimensión subestimaba o
sobrevaloraba a los Pp por factores que en realidad son externos a ellos.
La segunda área de mejora es relevante porque tres de las cinco dimensiones del
MSD son más susceptibles de medir el desempeño de los Pp con enfoque de desarrollo
social, por lo que existía un porcentaje considerable de Pp dentro del universo de análisis
del MSD, que contaban con información disponible únicamente con dos de las cinco dimen-
siones utilizadas para valorar el desempeño. Debido a esto, la estandarización en las valo-
raciones del MSD generaba resultados un tanto imprecisos, que podían llegar a valorar
injustamente a programas no sociales. Derivado de lo anterior, existía la posibilidad de que
los Pp de carácter social y aquellos que contaban con tres o más dimensiones para valorar
su desempeño, tuvieran resultados inferiores en el MSD que aquellos que contaban única-
mente con dos variables, lo cual no reflejaba necesariamente su verdadero nivel de desem-
peño, sino las diferencias entre sus naturalezas.
Con la finalidad de solventar estas limitantes y de contar con resultados de segui-
miento que no estén sesgados por las particularidades de cada programa, se construyó el
Índice de Seguimiento al Desempeño (ISeD) a partir de una metodología que cuenta con
más dimensiones y variables de análisis aplicables a un universo más amplio de Pp. En el
Cuadro 20.2 se presentan las variables consideradas para el ISeD y a continuación se re-
visarán cada una de las Dimensiones que lo conforman.
Cuadro 20.2 Dimensiones y variables consideradas en el ISeD 2019 – 2024
De esta manera, a pesar de que no todos los Pp cuentan con la totalidad de los
elementos a valorar en el ISeD, si se amplió la base común de dimensiones que aplican a
todos los Pp, lo que permite identificar con mayor claridad el estatus en su diseño, segui-
miento y resultados y, con ello, ofrecer una medición más objetiva y precisa de su desem-
peño que, además, sirva como insumo para su mejora continua. En la Figura 20.1 se resu-
men las principales características del nuevo instrumento de medición.
LECCIÓN 21
Situación de la implementación del
PbR en gobiernos locales