Evaluacion Proyectos

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 28

CAPITULO 2

PARADIGMAS Y MODELOS DE EVALUACIÓN

Un modelo es la esencia de la experiencia profesional de quien hace el


modelo. Esta esencia se conforma dentro del marco dado por el punto de
vista particular que tiene el autor del modelo sobre "cómo funciona el
mundo". Puesto que entre los académicos y entre quienes ejercen la práctica
de la evaluación existen diferencias en la manera de ver el mundo y en sus
experiencias profesionales, se han propuesto muchos modelos distintos de
evaluación, entre ellos el modelo CIPP, el modelo de discrepancias, el
modelo transaccional, el modelo libre de metas, el modelo investigativo,
la evaluación como iluminación, el modelo de la crítica por los expertos,
el modelo de la defensa y el modelo participativo, no siendo ésta en modo
alguno una lista completa de todos los modelos disponibles en la literatura.
Todos estos diversos modelos (enfoques o estrategias) pueden dividirse
en dos grupos en términos de los paradigmas que los gobiernan, esto es,
sus posicionesfilosóficasy las ideologías que los crearon. Estos dos
paradigmas se han denominado: paradigma racionalista y paradigma
naturalista. Sin embargo, entre los dos grupos principales de modelos de
evaluación hay bastante superposición en términos de paradigmas.

E n el Capítulo 1 (Evaluación - Definiciones, Contexto, Objetivos y


Funciones) distinguimos entre la evaluación de sentido c o m ú n y la
evaluación profesional. L a evaluación profesional puede realizarse con
distintos niveles de comprensión y de sofisticación. Sin embargo, el uso
del diseño experimental y de técnicas estadísticas sumamente sofisticadas
no garantiza que la evaluación sea buena. Puede parecer irónico que mientras
m á s sistemáticos y formulistas sean los métodos y el diseño, mayor es la
posibilidad de que en las evaluaciones estos sean usados sin pensar en sus
implicaciones.
Para hacer evaluaciones que contribuyan a una mayor comprensión
por parte de los evaluadores que la realizan y los que toman las decisiones
que la utilizan, hay que conocer la teoría de la evaluación. Entonces, el
desarrollo teórico m i s m o debe mirarse en perspectiva, a través de la
Paradigmas y Modelos de Evaluación 27

comprensión de la historia el desarrollo teórico de este campo. El presente


capítulo busca proporcionar al lector una historia-teoría del campo de la
evaluación. Los diversos modelos de evaluación propuestos durante los
últimos treinta años o más se analizan tanto en sus contextos teóricos (es
decir, paradigmáticos) c o m o en sus contextos históricos.
L a "Nota al Lector" al comienzo de este libro advierte al estudiante
que se inicia en el campo de la evaluación que postergue la lectura de este
capítulo, algo recargado conceptualmente. Quienes deseen leerlo ahora
deben mantener la idea general de que hallarán que los diversos modelos
de evaluación se inclinan bien al lado del paradigma positivista o del que
hemos denominado paradigma naturalista. Desde luego, con frecuencia
habrá superposiciones conceptuales yrepeticionesde la historia.
El lector deberá mirar estos modelos c o m o hitos en el camino del
desarrollo teórico del campo de la evaluación.
Algunos revelarán los comienzos de ideas que han llegado a ser parte
de la sabiduría convencional. Otros mostrarán claramente c ó m o se apuntalan
en los métodos y las técnicas que ahora son de uso frecuente. A u n otros
pueden sembrar en nuestras mentes las semillas de la duda acerca de cosas
que todos dábamos c o m o ciertas.
Al tratar de usar estos modelos no tenemos que buscar utilizar uno de
ellos en forma pura y completa. Pueden ensayarse mezclas de estos modelos.
Efectivamente, la mayoría de los usos de los modelos puede consistir en
tomar prestado su "lenguaje" de presentación. Repetimos: los paradigmas
y modelos son el objeto de discusión de este capítulo. Sin embargo, para
que esta discusión tenga sentido, debemos primero comprender los términos
"paradigma" y "modelo".

¿ Q u é es un paradigma?

Comencemos con la palabra "paradigma". Los significados que da el


diccionario son pretenciosos. El paradigma se define c o m o una lista
ordenada, un cuadro de clases, un patrón o una fórmula que define el
m o d o general en que deben colocarse los casos específicos de un cierto
orden. E n términos formales, se ha definido un paradigma c o m o un sistema
axiomático con un determinado conjunto de supuestos acerca de los
fenómenos sobre los cuales se pretende indagar.
Kuhn 1 , en su estudio sobre las revoluciones científicas, definió de
28 Paradigmas y Modelos de Evaluación

manera pintoresca un paradigma c o m o la ideología creativa de los


científicos, desde la cual ellos trabajan y la que les proporciona una posición
lógica y metodológica particular que les permite producir conocimiento
científico o socio-científico.
Así, los paradigmas de evaluación son las ideologías creativas de los
evaluadores. Estos paradigmas determinan el pensamiento y el
comportamiento metodológico de los evaluadores: lo que ellos piensan
sobre la naturaleza de la realidad; y c ó m o piensan que puede llegarse a
establecer "afirmaciones fundamentadas", esto es, declaraciones dignas de
crédito acerca de la realidad social que nos rodea. H a y dos paradigmas
básicos de evaluación (e investigación) que analizaremos: el paradigma
racionalista y el naturalista.

¿ Q u é es un modelo?

Definiremos ahora modelo. Formalmente un modelo es un conjunto de


información, datos o principios agrupados de manera verbal o gráfica (a
veces en forma matemática) para representar o describir alguna cosa, idea,
condición o fenómeno. E n un lenguaje menos formal, un modelo es la
esencia del aprendizaje y el pensamiento de un especialista, presentado
clara y brevemente. Los modelos son la progenie de los paradigmas. Es
importante recordar esta relación de padre a hijo entre los paradigmas y
los modelos. Así, los modelos de evaluación pueden ser presentaciones
verbales, en cuadros o gráficas, de los principios que han aprendido los
evaluadores. Son la esencia de sus experiencias por separado, desarrolladas
en el marco de determinados paradigmas. E n otras palabras, son un conjunto
de supuestos, un conjunto de valores, un conjunto de preferencias y un
conjunto de procedimientos presentados c o m o una unidad.
Finalmente, los evaluadores pueden hablar a veces de enfoques y de
estrategias de evaluación. Estos no son más que métodos para comenzar o
desarrollar un estudio evaluativo. Presumiblemente, cuando un enfoque o
una estrategia utilizada y sometida a prueba sucesivamente llega a
estandarizarse y formalizarse, adquiere el status de modelo de evaluación.2
Dos Paradigmas Básicos de Evaluación 29

S E C C I Ó N A : Dos Paradigmas Básicos de Evaluación

H a y dos paradigmas básicos de evaluación en la alfabetización, la


capacitación y el desarrollo.

1. Evaluación Racionalista (ER) y


2. Evaluación Naturalista (EN)

Esta clasificación no es completamente satisfactoria. El rótulo de


evaluación racionalista, E R , se ha utilizado c o m o sustituto de enfoques
positivistas lógicos de la evaluación, aun cuando somos plenamente
conscientes de que no comprende el conjunto total de supuestos del
positivismo lógico. Y tampoco nos ayuda este rótulo a comprender que
ahora se utilizan diferentes versiones del positivismo, ni que esté surgiendo
una versión re-acondicionada del positivismo lógico. Por otro lado, el
rótulo de evaluación naturalista, E N , tampoco es m u y satisfactorio. Sólo
porque la E N se ofrece c o m o alternativa a la evaluación racionalista, no
debe concluirse que la naturalista es irracional. E N se emplea aquí c o m o
un término incluyente para un enfoque que es a la vez constructivo y
colaborativo. Estos dos términos se explicarán m á s adelante. Aquí basta
decir que ambos paradigmas - E R y E N - son "científicos" aunque se
diferencien en los supuestos que asumen sobre " c ó m o funciona el m u n d o "
y "qué y c ó m o podemos aprender acerca del m u n d o " .

El paradigma racionalista

Al paradigma racionalista también se le conoce c o m o paradigma del


positivismo lógico. A s u m e que la realidad existe "afuera" y cualquiera
puede verla o experimentarla a través de los sentidos. E n otras palabras,
enfatiza lo explícito -lo que puede afirmarse directamente y con certidumbre.
Seguir este paradigma es tener una actitud "positiva" acerca de las
afirmaciones que se hacen con respecto a la realidad, y depender de ser
"lógicos" al derivar subsiguientes afirmaciones verdaderas sobre la realidad.
Sus tres características esenciales son: el reduccionismo -que las partes
pueden separarse del todo para estudiarlas sin que haya cambios;
repetibilidad -que lo que alguien ha descubierto puede repetirlo otro; y
refutación -que lo que se afirma debe poder confirmarse o refutarse. L a
gran esperanza de quienes siguen este paradigma es, desde luego, generar
30 Dos Paradigmas Básicos de Evaluación

afirmaciones a manera de leyes, umversalmente generalizables.


A veces se le llama paradigma clásico porque ha sido usado por
m u c h o tiempo, sigue reglas estrictas y se considera -aunque esto n o sea
necesariamente correcto- c o m o estándar y autorizado.
El paradigma racionalista sigue los métodos de las ciencias exactas
algunas veces llamadas restringidas, c o m o la física, la química y la
ingeniería. Su ideal metodológico es usar muestras al azar y el experimento
controlado. Bajo ciertas condiciones pueden ser aceptados los diseños
cuasi-experimentales3. El paradigma racionalista d e m a n d a una clara
definición de los objetivos de evaluación y de las variables, un plan de
muestreo, una instrumentación estructurada que genera datos cuantitativos,
técnicas estadísticas para el análisis de los datos y generalización de los
resultados.

El paradigma naturalista

El paradigma naturalista asume que la realidad no existe afuera para que


cada quien la vea y la experimente de la m i s m a manera, sino que el
m u n d o se encuentra (como realidad objetiva) y se elabora (esto es, cada
individuo lo construye socialmente). E n efecto, la parte m á s importante de
nuestra realidad es construida socialmente. El evaluador o el investigador
busca encontrar los significados que las personas llevan en sí. El paradigma
naturalista sugiere que el comportamiento h u m a n o sea estudiado tal c o m o
ocurre naturalmente, en ambientes naturales y dentro de su contexto total.
E n otras palabras, el paradigma naturalista es de naturaleza holista por su
orientación, y busca estudiar la realidad c o m o un todo, sin dividirla
artificialmente en partes y segmentos para ajustaría a la conveniencia del
evaluador.
A veces se hace referencia a este paradigma c o m o cualitativo y
fenomenológico. Esto quiere decir que a diferencia del evaluador
racionalista, el naturalista busca primero descubrir los fenómenos y luego
ir en busca de métodos y modelos. El evaluador naturalista va en busca de
comprender la situación específica que puede iluminar después otras
situaciones similares. El evaluador naturalista no pretende obtener leyes
generalizadas, sino ideas perspicaces que puedan transferirse de un contexto
a otro.
E n la indagación naturalista, los métodos empleados son los del
antropólogo y el etnógrafo. El evaluador o investigador m i s m o constituye
Dos Paradigmas Básicos de Evaluación 31

parte del fenómeno que estudia - n o puede considerarse aislado


objetivamente "fuera de" la realidad que estudia. El diseño de E N va
surgiendo; aparece según el evaluador emprende diferentes pasos y sigue
distintos procedimientos para recolectar datos significativos. Las muestras
son propositivas m á s que aleatorias. Los instrumentos son siempre
inestructurados y generan datos cualitativos. Se busca la aplicabilidad y
adecuación de los resultados m á s que su generalización.

El paradigma racionalista versus el paradigma naturalista

N o es posible incluir en el ámbito de esta monografía un análisis m á s


completo de estos dos paradigmas. E n el cuadro de las págs. 3 2 y 33
hemos resumido las diferencias entre estos dos paradigmas de evaluación
a fin de que el lector pueda examinarlas cuidadosamente.
Ahora se sugiere que muchos de los puntos fuertes que se atribuyen al
paradigma racionalista son meras suposiciones: algunas de éstas n o tienen
defensa conceptualmente, otras no pueden sustentarse en la práctica. Por
ejemplo, con frecuencia es difícil seleccionar criterios apropiados para
juzgar el mérito o el valor de los programas; y los evaluadores que usan el
paradigma racionalista ocasionalmente terminan eligiendo criterios
restringidos que se acomoden a sus planes experimentales. Las situaciones
experimentales son en esencia incontrolables, a pesar de que se proclame
lo contrario. Es casi imposible la selección aleatoria de las muestras. Los
grupos que se estudian frecuentemente se eligen a sí mismos y son
sistemáticamente diferentes unos de otros.
Es imposible estandarizar los tratamientos experimentales en diferentes
lugares. Nunca se está seguro sobre qué es lo que se está comparando.
H a y limitaciones en cuanto a la información que puede producirse al
emplear este paradigma. Su utilización no produce información sobre el
proceso ni sobre los efectos netos de intervenciones distintas. Realmente,
se genera m u c h a información que no es útil y está "muerta de antemano".
Existen, desde luego, muchas dificultades administrativas en la
utilización del paradigma racionalista de evaluación. Las necesidades del
programa y las de la evaluación racionalista frecuentemente van hacia
direcciones diferentes. L a elección entre grupos que recibirán o no recibirán
tratamiento -y recursos para el desarrollo- no es un asunto fácil de decidir.
32 Dos Paradigmas Básicos de Evaluación

DIFERENCIAS ENTRE LOS DOS PARADIGMAS BÁSICOS


DE EVALUACIÓN

El Paradigma Racionalista El Paradigma Naturalista

Raíces filosóficas
Positivista Fenomenológico
Reduccionista Holista
Libre de valores Cargado de valores

Orientación teórica
Somete a prueba la teoría existente Usa teorías bien fundamentadas
Relaciones causales Relaciones plausibles
Conformación mutua y simultánea
Diseño
Experimental o cuasi-experimental El diseño surge (o se desenvuelve)
para asegurar objetividad y validez asegurando resonancia sin separar a
quien conoce de lo que se conoce

L a situación de la evaluación/
Investigación
E n el laboratorio o controlada Ecológica, en el contexto natural

Muestreo
Aleatorio Propositivo, de élite, especializado
T a m a ñ o predeterminado El tamaño se determina en la marcha,
se completa cuando la información
disponible es completa

Orientación metodológica
Orientación hacia los objetivos Libre de objetivos
Cuantitativa Cualitativa
Cargada de descripciones

Instrumentos
Estructurados, frecuentemente N o estructurados, con frecuencia que
intervencionistas no perturban la situación natural
Se busca que sean estandarizados e El evaluador o investigador mismo se
independientes de sesgos del convierte en una herramienta de
evaluador recolección de datos.

Preferencia por datos exactos Todo conocimiento es aceptable


Dos Paradigmas Básicos de Evaluación 33

DIFERENCIAS ENTRE LOS DOS PARADIGMAS BÁSICOS


DE EVALUACIÓN

El Paradigma Racionalista El Paradigma Naturalista

Análisis de los datos


Típicamente estadísticos Temáticos
Análisis de contenido de entrevistas,
documentos y observaciones

Informe
Estadístico-analítico Descriptivo, interpretativo
Típicamente un estudio de caso

Naturaleza de las declaraciones de


Verdad Intuiciones acerca de covariaciones
Leyes generalizadas naturales de los acontecimientos
Ideas perspicaces, analogías

Resultados convergentes conducentes Resultados divergentes


a hacer predicciones
Realidad tangible única Realidades múltiples o una
construcción negociada de la realidad
en su contexto

Puntos fuertes
Proporciona buenas estimaciones de Es responsivo, adaptable, el énfasis
las diferencias, variaciones y es holista y humaniza la actividad
correlaciones cuando las variables, evaluadora
realmente, pueden ser definidas
apropiadamente y pueden
establecerse controles razonables

Puntos débiles
El buscar acomodar las preguntas de El evaluador puede perderse en las
evaluación a los métodos y modos de complejidades de la vida real, puede
análisis aceptables puede llevar a carecer de habilidades interpersonales
escoger preguntas triviales y y perceptibilidad individual, por lo
artificiales y obtener resultados cual puede terminar haciendo
triviales e inútiles. afirmaciones poco significativas,
basadas en meras impresiones
34 Dos Paradigmas Básicos de Evaluación

Las cuestiones sobre confiabilidad y validez

C o n demasiada frecuencia las discusiones sobre la evaluación racionalista


(ER) y la naturalista ( E N ) dan lugar a discusiones sobre su validez y
confiabilidad. ¿Son objetivos los datos recogidos? ¿Son válidos? ¿Son
confiables? Ahora se acepta ampliamente que hacer estas preguntas con
estas palabras es juzgar la E N contra los estándares de la E R . Desde un
punto de vista práctico esto n o es justo, y desde el nivel conceptual es
absurdo.
Lincoln y Guba 4 , en su libro m á s reciente, han analizado los diversos
aspectos del rigor tal c o m o se aplican a los dos paradigmas básicos de la
evaluación. Ellos plantean que tanto el racionalista c o m o el naturalista
pueden ser científicos yrigurososen sus propios términos. Ellos sugieren
que los términos apropiados para juzgar qué tan buena y confiable es la
E N son diferentes de los que se usan para la E R , c o m o se muestra en el
siguiente cuadro:

TÉRMINOS RACIONALISTAS Y NATURALISTAS


APROPIADOS P A R A DISTINTOS ASPECTOS D E L RIGOR

Aspecto Término Racionalista Término Naturalista

Valor de verdad Validez interna Credibilidad

Aplicabilidad Validez externa/

generalización Adecuación

Consistencia Confiabilidad Verificabilidad

Neutralidad Objetividad Confirmabilidad


Dos Paradigmas Básicos de Evaluación 35

¿Quéparadigma deben elegir los evaluadores de programas de desarrollo,


educación y capacitación?

El paradigmaracionalistaha logrado grandes victorias en las ciencias


exactas. H a producido investigaciones que han borrado enfermedades de
la faz de la tierra y ha puesto al hombre en la luna.
Tanto éxito obtuvo este paradigma que los científicos sociales
(sociólogos, psicólogos, economistas, educadores y aun antropólogos)
quisieron imitar el paradigma "científico" delfísicoy el químico. Usaron
el paradigma racionalista c o m o venganza. ¡Les hizo sentir realmente
científicos! Por muchos años aprendieron el método racionalista y lo
enseñaron en la mayoría de los departamentos de ciencias sociales de las
universidades.
Durante los últimos veinte años se ha llegado a caer en la cuenta de
que el paradigma racionalista ha llevado a los científicos sociales a sentirse
bien pero n o necesariamente a obtener buenos resultados. H e m o s
descubierto que demasiadas veces la vida social no encaja en el modelo
experimental. Al tratar de controlar las variables, segmentamos el
comportamiento h u m a n o de una manera que no es natural y realmente
cambiamos la naturaleza misma del comportamiento humano que se estudia.
L a agregación de puntajes y el tratamiento estadístico de los datos puede
parecer elegante e impresionar favorablemente, pero los resultados han
sido triviales y engañosos. E n el comportamiento h u m a n o el contexto es
importante. N o tenemos que estudiar el comportamiento solamente, sino
el comportamiento en-contexto.
L a mayoría de las veces el paradigma naturalista resulta m á s apropiado
para el estudio del comportamiento humano. Después de haber sido
rechazado c o m o subjetivo y cualitativo, está siendo cada vez m á s aceptado.
Según su metodología se vaya clarificando y se avance en las técnicas de
análisis de los datos, el paradigma naturalista de evaluación encontrará un
lugar adecuado en la metodología de la evaluación.
¿Deberá siempre utilizar el evaluador el paradigma naturalista para la
evaluación del impacto amplio de los programas de desarrollo, alfabetización
de adultos y capacitación para el desarrollo? L a respuesta es: si no siempre,
casi siempre. El consejo que ha dado Lee J. Cronbach parece ser útil.
Cronbach5 señala que en el m u n d o de la educación y el cambio social uno
se encuentra con dos contextos diferentes: el contexto del control, en el cual
el evaluador puede controlar la situación social para ajustaría a las
36 Dos Paradigmas Básicos de Evaluación

necesidades de la evaluación (por ejemplo: el estudio de los movimientos


de los ojos al mirar un afiche instructivo de tamaño grande); y el contexto de
la acomodación en el cual el evaluador no puede controlar la situación
social para ajustarse a las necesidades de la evaluación sino acomodarse él
m i s m o a las realidades existentes (por ejemplo: el estudio de la frustración
y la agresión entre los niños en un parque de juegos). E n los contextos que
se pueden controlar, que tal vez no sean muchos, es correcto usar el
paradigma racionalista. E n los contextos de acomodación, sin embargo,
tendría m á s sentido el paradigma naturalista porque, por definición, este
paradigma no busca perturbar las realidades c o m o naturalmente existen.

S E C C I Ó N B : Modelos de Evaluación

Sobre el trasfondo de estos dos paradigmas generales, los especialistas han


propuesto muchos modelos diferentes de evaluación. Pero ¿por qué hay
tantos modelos de evaluación? ¿ N o hay una sola forma correcta de hacer
la evaluación?
Antes, en este capítulo definimos un modelo c o m o lo esencial del
aprendizaje y el conocimiento de un especialista, establecido de manera
clara y parsimoniosa para comunicarlo entre los profesionales y los que
ejercen la práctica. H a y muchos modelos de evaluación diferentes debido
a que los distintos especialistas han pasado por experiencias diferentes al
aprender y hacer la evaluación y al reflexionar sobre sus experiencias han
utilizado diferentes puntos de vista y valores.
Los modelos de evaluación también difieren porque han surgido en
diferentes situaciones en que se desenvuelven los programas: dentro de la
educación formal o dentro de situaciones de educación extra-escolar y no
formal; y en situaciones de salud mental en un país industrializado o
dentro de la educación para la vida familiar en el contexto de un país en
desarrollo.
Finalmente, y lo m á s importante es que los modelos de evaluación son
diferentes porque los especialistas han introducido consideraciones de valor
adicional en su elección inicial de los paradigmas. Algunos modelos de
evaluación enfatizan una visión más sinóptica de la evaluación, sugiriendo
que no sólo evaluemos el comportamiento de los llamados beneficiarios
sino también el nuestro. Algunos modelos de evaluación sugieren que se
emplee la imaginación en las evaluaciones de m o d o que no dependamos
Modelos de Evaluación 37

sólo de fríos cálculos. También los hay que sugieren que las consecuencias
no previstas de las acciones de los programas pueden ser tan importantes
c o m o las que se esperaban y se anticiparon. Por lo tanto, el modelo de
evaluación debe poder acomodar tanto las consecuencias anticipadas c o m o
las que no se esperaban. Algunos proponen que la evaluación sea realizada
c o m o una defensa y confrontación. Otros sugieren la evaluación
participativa, en la cual tanto los fines c o m o los medios son determinados
participativamente por todos los implicados -organizadores, profesionales
y beneficiarios.
Se puede observar claramente que los valores dirigen el desarrollo de
los modelos de evaluación durante los últimos veinte años: (1) hay una
utilización exclusiva o complementaria de las estrategias naturalistas; y (2)
existe un movimiento hacia la inclusión de los beneficiarios de los
programas en el diseño y la ejecución de las evaluaciones. Las palabras
claves son holista y participativa.
A continuación se analizarán algunos de los modelos de evaluación a
los que se hace frecuente referencia en la literatura. Las discusiones serán
breves. E n este libro incluimos esta discusión por dos razones: una educativa
y otra política. El agente de desarrollo o de la alfabetización debe tener
alguna idea de qué modelos de evaluación existen y cuáles son sus
características. Esto es para su fomación. Pero también hay una razón de
tipo político. U n agente alfabetizador también debe poder justificar su
elección de uno o varios modelos; y debe poder sustentarla frente a un
especialista externo. ¡No debemos permitir que los técnicos y especialistas
nos intimiden con el uso de nombres y frases poco familiares!
Se discutirán los siguientes modelos brevemente:

1. El modelo orientado por objetivos de Tyler


2. El modelo de experimentación social
3. El modelo CIPP y la cuadrícula E I P O L
4. Las dos caras de la evaluación
5. L a evaluación responsiva
6. El modelo de evaluación discrepante
7. L a evaluación transaccional
8. L a evaluación libre de metas
9. Los enfoques investigativos
10. L a evaluación iluminativa
11. L a evaluación por expertos
38 Modelos de Evaluación

12. El modelo de la evaluación c o m o defensa


13. El modelo de evaluación participatíva, y
14. El modelo de evaluación c o m o estrategia para la situación
específica (3-S).

1. Evaluación orientada por los objetivos


Este modelo se asocia al nombre de Ralph Tyler y es tal vez el m á s
antiguo de los modelos de evaluación disponibles.
L a evaluación que se realiza bajo este m o d e l o busca hacer
comparaciones entre los "resultados esperados" y los "resultados reales".
E n otras palabras, los niños o adultos participantes en un programa o
proyecto se examinan para ver si se han logrado los objetivos referidos a la
adquisición de formas particulares de pensar, sentir y actuar. E n términos
prácticos, la evaluación se equipara con las pruebas.
H a y puntos importantes en este enfoque, que se centra en los resultados,
un concepto que se entiende con facilidad. N o hay necesidad de definir
grupos experimentales y de control, con lo que generalmente se desorganiza
la rutina diaria en las escuelas y en las comunidades y cuya puesta en
marcha puede ser costosa. Las mediciones reflejan objetivos claramente
establecidos, por lo cual la confiabilidad no es una gran preocupación.
Mientras que las pruebas inicialmente son referidas a criterios, pueden
adquirir funciones con referencia a normas si se hacen comparaciones
entre diferentes situaciones consistentemente.
Sin embargo, este modelo tiene serias desventajas. L a información
generada por las pruebas es demasiado estrecha para constituir una base
sólida y amplia para juzgar el mérito o valor del programa total. L a
información generada por el modelo es terminal. D a pie a que su utilización
directa para mejorar el programa sea m u y poca.

2. El modelo de experimentación social


Este es un modelo que busca experimentar con grupos sociales ya existentes.
L a sociedad se convierte en laboratorio.
E n la modalidad experimental clásica, el evaluador que usa este modelo
elige dos grupos, uno que recibe el tratamiento experimental y otro que no
lo recibe. L o s conceptos metodológicos esenciales son: distribución
aleatoria, control, tratamiento y comparación.
Los proponentes del modelo han sugerido también los que se conocen
c o m o diseños cuasi-experimentales, los cuales se supone que se ajustan
Modelos de Evaluación 39

mejor a las realidades del m u n d o real. Sin embargo, recientemente sus


mismos proponentes han planteado serias dudas con respecto a los diseños
cuasi-experimentales.

3. El modelo Contexto-Insumos-Procesos-Producto (CIPP) y la red EIPOL6


El modelo CIPP se asocia con frecuencia con el nombre de Daniel L .
Stufflebeam, quien lo ha usado en distintos estudios evaluatívos.
D e acuerdo con este modelo, el único propósito de la evaluación es
producir información útil para las decisiones. Empleando la metáfora del
sistema y sus cuatro parámetros (contexto, insumos, procesos, productos),
el modelo habla de cuatro tipos de evaluación para proporcionar información
referida a cuatro tipos de decisiones:

1. Evaluación de contexto - para proporcionar información sobre la


situación y poder tomar decisiones de planificación.
2. Evaluación de los insumos - para tomar decisiones de
programación c o m o diseño de proyectos alternativos y decisiones
sobre personal.
3. Evaluación de los procesos - para tomar decisiones relacionadas
con la metodología y la ejecución, y
4. Evaluación de los productos - para evaluar el impacto y tomar
decisiones sobre reciclaje.

El modelo CIPP, cuando se propuso por primera vez, combinaba el


vocabulario de sistemas con la investigación formal, con su énfasis en la
clarificación de las necesidades de decisión en la evaluación, la observación
estructurada y la tradición de aplicar pruebas de rendimiento en las escuelas.
El modelo adoptó los criterios de validez interna y externa, confiabilidad,
objetividad, pertinencia, importancia, alcance, credibilidad, oportunidad,
permeabilidad y eficiencia de la información evaluativa producida. Se le
ha criticado por mostrar poca preocupación por los valores. Algunas
versiones recientes del modelo han tratado de superar algunas de estas
críticas.
E n la cuadrícula EIPOL, Ravindra H . Dave 7 dividió el "resultado" del
lenguaje de sistemas (llamado el "producto" en el modelo CIPP) en dos
partes: (i) los resultados del aprendizaje y otros resultados "intermediarios"
del programa y (ii) los efectos a largo plazo del programa en los dominios
educativo y socio-económico. Así, los cuatro parámetros del sistema
40 Modelos de Evaluación

(contexto, insumos, procesos, productos) se convierten en cinco dimensiones


o fases de la evaluación, que son: la de la situación ambiental, la de los
insumos, la de los procesos, la de los resultados inmediatos y la de los
efectos a largo plazo. Combinando estas dimensiones con las cuatro fases
principales del ciclo de un proyecto (pre-planificación, ejecución
asimilación) se genera la llamada Cuadrícula E I P O L .

4. El modelo de las dos caras de la evaluación


Este modelo se asocia al nombre de Robert E . Stake. Se llama así porque
Stake habla de dos semblantes o caras de la evaluación: la descripción y el
juicio.
Este modelo se relaciona directamente con la evaluación de los efectos
en términos de los objetivos establecidos e implica completar dos matrices
de datos c o m o sigue:

Matriz Descriptiva Matriz de juicio


Intenciones Observaciones Estándares Juicio

Antecedentes x x x x
(Insumos)
Transacciones x x x x
(Procesos)
Resultados x x x x

L a tarea del evaluador es encontrar datos para todas las celdillas en la


tabla para comparar las observaciones con las condiciones y juzgarlas en
términos de los estándares convenidos entre los organizadores del programa
y los evaluadores. Se debe anotar que en el vocabulario de sistemas los
antecedentes son insumos y las transacciones son procesos. E n su puesta
en marcha, el modelo ha usado muestras aleatorias estratificadas para
recoger información especial en combinación con el método de estudio de
casos.
Este modelo ha llamado la atención de los evaluadores respecto a la
necesidad de definir estándares sobre los cuales puedan hacerse juicios,
aunque el modelo m i s m o no ha resuelto el problema de la especificación
de los estándares.
Modelos de Evaluación 41

5. La evaluación responsiva
C o n posterioridad, Stake se ha desplazado hacia el concepto de Evaluación
Responsiva, un modelo de evaluación que se acerca m á s a las evaluaciones
transaccional y naturalista. N o es pre-ordenada (esto es, no está previamente
definida por el evaluador, c o m o especialista) sino que responde a las
necesidadesrealesde las audiencias querequierenla información. N o se
focaliza en las intenciones del programa sino en las actividades reales. Su
perspectiva es múltiple y utiliza las comunicaciones que naturalmente
ocurren entre todos los implicados. N o sólo busca recoger información
sino captar el espíritu y el misterio del fenómeno en estudio. Por lo tanto
es informal yreiterativay enfatiza las descripciones fuertes. C o m o puede
observarse es un enfoque m u y humanista de la evaluación.

6. El modelo de la discrepancia
Este modelo fue propuesto por M a l c o m Provus, quien definió la evaluación
c o m o el arte de describir una discrepancia entre lo esperado y lo ejecutado
en un programa.
Los principios básicos del modelo son: los estándares, la ejecución y
la discrepancia. L a tarea es comparar la ejecución con los estándares para
determinar la discrepancia y así poder juzgar el valor o la adecuación de
un objeto. El modelo sugiere también que busquemos las discrepancias en
términos de cinco aspectos diferentes de un programa:

1. el diseño del programa


2. su instalación
3. el proceso de ejecución
4. el producto, y
5. el costo

Superficialmente el modelo parece algo racionalista, pero no lo es. E n


realidad, humaniza la evaluación y la hace responsiva por la manera c o m o
aplica los conceptos de estándares, ejecución y discrepancia. Por ejemplo,
el evaluador ni establece estándares ni juzga las comparaciones entre
estándares y ejecución, sino que solamente recoge los datos sobre la
ejecución e indica las discrepancias. E s el cliente quien debe fijar los
estándares aunque el evaluador le ayude a esclarecer la estructura del
diseño del programa y, así, a establecer estándares apropiados. El cliente
deberá señalar qué tipo de información le será más útil para tomar decisiones
42 Modelos de Evaluación

y debe hacer los juicios sobre las discrepancias.


Mientras que reconoce la utilidad del método experimental en algunos
casos, el modelo muestra preferencias por los métodos descriptivos de la
historia y la antropología y el método de estudio de casos de la sociología
y la psiquiatría. Por su énfasis relativo en métodos naturalistas, sugiere que
los evaluadores trabajen en equipos de m o d o que puedan confrontar las
percepciones individuales y cuestionar los estándares que se aplican para
describir las discrepancias.
El modelo pretende suministrar permanente información a los que
toman las decisiones sobre la ejecución de un programa en marcha. También
pretende proporcionar información que tiene una relación directa de uno-
a-uno con las decisiones que realmente se toman. N o obstante, los recursos
requeridos para aplicar efectivamente este modelo son considerables en
términos de personal, tiempo y dinero.

7. La evaluación transactional
El modelo transaccional de evaluación tiene sus raíces en la psicología
transaccional, la cual considera la percepción y el conocimiento c o m o
procesos de transacción. Estas transacciones ocurren entre individuos
concretos en situaciones concretas; y el evaluador, c o m o observador, es
siempre parte del conjunto de transacciones. El modelo se asocia al nombre
de Robert M . Rippey, quien ha desafiado a los educadores y capacitadores
para que se concentren en los procesos educativos -el programa, la clase y
la escuela- m á s que en las calificaciones obtenidas por los estudiantes.
Se centra en rendir cuentas sobre las responsabilidades -se pide a los
agentes de cambio que se estudien a sí mismos, sus roles, los sistemas en
los cuales desempeñan esos roles y los sistemas m á s amplios que constituyen
el entorno de los sistemas en que se producen los cambios. Las metodologías
recomendadas son informales. E n palabras del m i s m o Rippey8:

U n a comparación con evaluaciones sumativas y formativas tradicionales muestra que el


objetivo de la evaluación es diferente: el sujeto de la evaluación es el sistema, no el
cliente o los servicios que el sistema ofrece. Las variables se relacionan con los aspectos
sociales, psicológicos y comunicativos del sistema más que con los objetivos manifiestos.
L a información se devuelve en forma continua al sistema. El evaluador m i s m o es una
parte m á s del sistema en funcionamiento. Las consideraciones convencionales de
confiabilidad, validez y objetividad no son tan importantes c o m o las de oportunidad,
pertinencia y los efectos observables de generar información evaluativa. E n primer
lugar, la evaluación intenta transformar la energía conflictiva del cambio en actividad
Modelos de Evaluación 43

productiva para clarificar los papeles de las personas involucradas en los cambios que
produce el programa, no para generar nuevos conocimientos o para atribuir causalidad.

Deben hacerse notar los supuestos que se utilizan en el modelo


transaccional de evaluación con respecto al paradigma básico y las
posiciones de valor adicionales introducidas en el modelo. Es, en efecto,
un modelo con una carga grande de valores. Enfatiza en la información
sobre relaciones y nos exhorta a ser sensibles a las consecuencias no
esperadas. También implica que la evaluación sea realizada colectivamente
por los protagonistas y diseñadores de un programa de cambio y por los
representantes de aquellos a quienes probablemente éste afecte.

8. La evaluación libre de metas


L a idea de una evaluación libre de metas fue introducida por Michael
Scriven. El señaló que con nuestro énfasis sobre las metas establecidas,
nuestra búsqueda se había centrado completamente en los efectos esperados
-efectos que queríamos crear bajo las metas aceptadas del programa. Este
enfoque llegó a ser tan excluyente que con frecuencia desarrollamos una
visión c o m o por entre un túnel: buscar la evidencia de los efectos esperados
y no ver nada m á s .
El sugirió que debíamos buscar los efectos reales del programa, los
que realmente hubieran ocurrido, ya fuera que hubiesen sido intencionales
o no. Pensaba que esto podría hacerse si concebíamos una evaluación libre
de metas, independiente de los objetivos establecidos para el programa.
Entonces podrían combinarse los resultados de la evaluación centrada en
objetivos y la evaluación libre de metas. El uso de una evaluación libre de
metas no debe sugerir una evaluación en el así llamado "estilo responsivo".
E n efecto, Scriven es m u y entusiasta de la evaluación sumativa y se
interesa por las comparaciones que los consumidores puedan utilizar.
También sugiere que hagamos m á s evaluación del personal (esto es, de los
maestros, trabajadores de campo, etc.) y que las personas rindan cuentas
de sus responsabilidades.

9. Enfoques investigativos a la evaluación


Jack D . Douglas9 ha analizado los métodos de los investigadores o los
detectives para mostrar c ó m o las estrategias investigativas podrían usarse
para exponer la verdad acerca de las personas en situaciones sociales.
El modelo investigativo no supone la existencia de un m u n d o de
44 Modelos de Evaluación

cooperación, apertura y veracidad, sino de información errada, evasivas,


mentiras y enfrentamientos. Por eso, sugiere estrategias para captar una
situación de evaluación, infiltrarse, construir relaciones amistosas y de
confianza y usarlas en un proceso continuo de prueba y control.
El modelo modus operandi sugerido por Michael Scriven es también
un método investigativo para estudiar relaciones de causa-efecto a través
del examen secuencial. Este método reconstruye los procedimientos del
historiador, el detective, el antropólogo y el ingeniero que apunta hacia los
problemas. Este modelo se propone c o m o sustituto de los enfoques
experimentales y cuasi-experimentales cuando las situaciones de c a m p o
impiden su utilización. E n esencia, el método implica generar cadenas
hipotéticas de eventos causa-efecto y eliminar aquellos que haya sido
imposible que sucedieran. Este es, desde luego, el método característico
del detective.

10. La evaluación iluminativa


Este modelo evolucionó c o m o un claro rechazo al modelo de evaluación
"agrícola-botánico" enraizado en el paradigma científico. Se afirmaba que
los grupos y comunidades no podían asignarse al azar a tratamientos c o m o
se hacía con las fincas y los terrenos agrícolas, y que a los seres humanos
no se podía administrar tratamientos similares al de sembrar semillas en
un terreno. E n todo caso, los datos cuantitativos generados por el modelo
agrícola-botánico sólo proporcionaban descripciones parciales del fenómeno.
Parlett y Hamilton10 construyeron este modelo iluminativo sobre la base
de dos consideraciones importantes:

1. Los sistemas de instrucción, una vez adoptados, se convierten en


sistemas vivos. Los sistemas vivos no se ajustan a las descripciones
que se presentan en los catálogos. Ocurren modificaciones
importantes en los programas entre c o m o se dibujan en el taller a
c o m o se ponen en práctica realmente.
2. Los programas de capacitación y desarrollo n o pueden separarse
del ambiente de aprendizaje en el cual se realizan. Los actores en
este ambiente y las estructuras del medio se constituyen en partes
del sistema de instrucción.

A u n q u e retienen el uso de los métodos de muestreo y los cuestionarios


y pruebas estructuradas, Parlett y Hamilton atrajeron nuestra atención hacia
Modelos de Evaluación 45

los métodos naturalistas centrados en la descripción y la interpretación.


Las tres etapas en el proceso de evaluación sugieren incluir: (a) la
observación de la situación educativa; (b) la selección de temas mediante
un enfoque progresivo y una indagación intensiva; y (c) el análisis y la
explicación.

11. La evaluación por expertos


El modelo de evaluación por expertos propuesto por Elliot W . Eisner11
rompe claramente con el paradigma científico y rescata la tradición estética
de las artes. Eisner dice que la enseñanza es un arte, y la escolarización u n
artefacto cultural. Entonces, ¿por qué no hacer evaluación al estilo de los
entendidos? El afirma que, en efecto, sólo un experto que ha pasado toda
una vida en el c a m p o puede proporcionar evaluaciones mediante el uso
sistemático de la sensibilidad perceptiva, la organización de la experiencia
previa y la refinación de ideas perspicaces o intuiciones que señan
imposibles de obtener de otra forma.
Eisner sugiere dos conceptos interrelacionados: (1) la experiencia en la
educación (2) la crítica educativa para desempeñar las tareas de la evaluación
educativa. L a experiencia constituye el medio a través del cual pueda
reorganizarse la forma del contexto y sus configuraciones interiores de
m o d o que puedan tomarse decisiones inteligentes acerca del contexto. L a
crítica educativa es el arte de la revelación a través de la descripción, la
interpretación y la evaluación.
L a metodología que combina la experiencia y la crítica no es de
manera alguna simple o romántica, y ciertamente, puede ser sistemática y
rigurosa. Los críticos de la educación pueden aprender a buscar las
cualidades permeables de la educación en las clases y en situaciones de
capacitación; y pueden aprender a buscar los significados de indicios ocultos.
Las cuestiones de confiabilidad y validez pueden manejarse por la
corroboración estructural (validación mutua de una parte de los datos por
el resto, siendo sustentada la totalidad por las partes que la constituyen); y
por la adecuación referencial (la existencia de una relación entre lo que
dice el crítico educativo y el objeto de su crítica). También es posible
hacer generalizaciones en el sentido de que la crítica en educación llevará
a procesos m á s refinados de percepción en situaciones sucesivas; y suscitará
nuevas anticipaciones en la mente del evaluador.
Los informes de críticas educativas se asemejan algo a los estudios de
caso, pero los estudios de caso en forma de críticas educativas son diferentes
46 Modelos de Evaluación

en el sentido de que la crítica m i s m a es una forma de arte. C o m o


descubrimiento crítico, un informe educativo crítico crea una imagen vivida,
que comunica a los lectores una comprensión de las realidades educativas.

12. El modelo de la evaluación como defensa


Este modelo es también llamado modelo de evaluación entre adversarios o
modelo judicial. C o m o lo sugieren estas denominaciones el modelo utiliza
procedimientos casi judiciales para conducir la evaluación. Es característico
que se permita a dos grupos de personas, unos a favor y otros en contra de
un programa, defender posiciones opuestas ante u n jurado educativo
respecto a los asuntos que van surgiendo y son seleccionados para el
juicio. Se establecen las reglas y procedimientos probatorios y se permite
el interrogatorio para comprobar lo declarado anteriormente. E s un juicio
educativo con participación de un jurado.
Los proponentes del modelo citan varias ventajas del m i s m o : permite
a los evaluadores desarrollar y utilizar procedimientos explícitos para generar
y evaluar las estrategias de programas alternativos; proporciona un registro
de las decisiones para luego establecer responsabilidades; no sólo acomoda
los datos sino también las percepciones, opiniones, sesgos y especulaciones,
y puede implicar en el juicio a una gran variedad de interesados.
Por otra parte, hay quienes han encontrado serias fallas en el modelo,
pues dicotomiza las posiciones en "pro" y en "contra" del programa. E n la
vida real, desde luego, no hay sólo dos sino muchos aspectos que considerar
sobre un m i s m o asunto. El modelo convierte la evaluación en un evento
competitivo. C o m o se decide de qué lado estarán los grupos tirando al aire
una moneda, con frecuencia los "abogados" no se asignan bien y ocurre
que n o hay convicción sobre las posiciones que defienden. Las habilidades
de los jueces y los jurados son m u y variables.
Debido a los muchos aspectos negativos del modelo y los altos costos
que implica organizar el juicio, el formato que presenta "un caso en la
corte" se ha transformado en "audiencias aclaratorias". Se han eliminado
los jurados, aunque todavía es usual emplear una especie de panel. Se
puede llamar a testigos expertos que sirvan para sustentar posiciones en
pro o en contra. Puede haber interrogatorios para comprobar declaraciones.
Así se aclaran muchas cuestiones pero las decisiones sobre preferencias y
modificaciones se deja que las hagan quienes escuchan a las partes.
Modelos de Evaluación 47

13. El modelo de evaluaciónparticipativa


Frecuentemente se asocia el nombre de Paulo Freiré, el educador brasilero
y autor de La Pedagogía del Oprimido ( N e w York: Herder and Herder,
1972) con la evaluación y la investigación participativas. E n esta área los
evaluadores diseminados por todo el m u n d o hanrealizadogran cantidad
de trabajos durante los últimos diez años. Se han establecido redes de
investigación participativa y se han llevado a cabo estudios evaluativos
cuyos resultados han sido publicados.
L a investigación o la evaluación participativa no es u n esfuerzo
científico de los profesionales sino un recuento existencial profundo de
una experiencia en que toman parte todos los interesados conjuntamente,
en colaboración. Los educandos se convierten en evaluadores y estos en
estudiantes. Se decide en forma participativa acerca de las metas, los fines,
los estándares y las herramientas de la evaluación. Cada participante
contribuye con datos personales y recoge parte de los datos que deben
obtenerse. Se emprende en forma colectiva el análisis de los datos. L o s
juicios también se emiten colectivamente.
E n su discurso en el Instituto de Educación de Adultos de la Universidad
de Dar es Salaam, en 1972, Paulo Freiré presentó los posibles pasos para
una metodología participativa:

1. El equipo de evaluación (o investigación) debe familiarizarse con


investigaciones y evaluacionesrealizadaspreviamente, sin importar
los métodos utilizados en las mismas.
2. El equipo debe delimitar geográficamente el área de acción, aunque
desde el punto de vista cultural no hay fronteras.
3. El equipo debe identificar las instituciones oficiales y
organizaciones populares existentes en el área seleccionada y
hablar con sus dirigentes.
4. El equipo debe decir honestamente a los líderes que ellos han
venido a proponer la posibilidad de que todos los miembros de esa
comunidad participen en las discusiones y trabajen conjuntamente.
5. Si los líderes aceptan, el equipo de evaluación debe celebrar
reuniones no sólo con los líderes de las distintas instituciones
sino también con otras personas que de alguna manera estén
relacionadas con esas instituciones.
6. El equipo deberá discutir con la comunidad lo que se requiere
para las reuniones, en las cuales pueden encontrarse unas treinta
48 Modelos de Evaluación

personas a diario o semanalmente para las discusiones. Estas


reuniones pueden involucrar a casi todos los habitantes de la
comunidad y prolongarse durante varias semanas. L o importante
es obtener la percepción que tiene la comunidad c o m o una
totalidad.
7. E n esta etapa sociólogos, psicólogos, educadores y lingüistas
deberán incorporarse al equipo de investigación o evaluación y
visitar a cada grupo. Deberían registrarse las discusiones efectuadas
en cada reunión. D e b e instarse a que la gente hable si guardan
silencio, de lo contrario, el papel del equipo debe ser sólo de
asesoría. U n o de los miembros de la comunidad debe presidir
estas reuniones.
8. Puede discutirse sobre muchos temas diversos c o m o la justicia, la
educación, el gobierno, la industria; pero todos referidos a las
personas en el contexto de realidades concretas.
9. Cuando, los grupos m á s pequeños creen haber agotado los tópicos
seleccionados para las discusiones, cada grupo debe escribir sus
conclusiones y presentarlas en sesión plenaria. L o s relatores en
dichas sesiones deben ser miembros de la comunidad, no los
especialistas del equipo. Los trabajadores deben convertirse en
intelectuales. D e b e haber una discusión colectiva de cada uno de
los informes de los grupos.
10. El equipo de evaluación debe hacer ahora un estudio crítico de
las conversaciones d e la gente. Este estudio debe ser
interdisciplinario. Deben determinarse los diversos niveles en que
la gente percibe la realidad y resolverse todas sus implicaciones.
Esto no deben hacerlo los científicos sociales por su cuenta sino
con los miembros de la comunidad.
11. Junto con la gente de la comunidad, el equipo de evaluación debe
ahora hacer un borrador de una propuesta para emprender las
acciones subsiguientes. El programa no debe resolverse para la
comunidad sino con ella.

C o n lo anterior debe quedar claro que la evaluación participativa no


puede distinguirse del diagnóstico de necesidades o la concientización de
la comunidad. También se diluye la distinción entre evaluación e instrucción.
L a evaluación participativa proporciona a los participantes mayores
oportunidades de elevar su nivel de conciencia y consolidar su sentido de
Modelos de Evaluación 49

poder y auto-valoración.
C o m o se señaló anteriormente, el Consejo Internacional para la
Educación de Adultos ha trabajado m u c h o en la evaluación participativa y
ha establecido una red de evaluación participativa a escala mundial. Sin
embargo, no parece que haya habido desviaciones significativas de tipo
metodológico. Los métodos han mantenido m á s o menos el espíritu de la
lista de pasos propuestos por Paulo Freiré y presentados aquí12.

14. El modelo de evaluación (3-S) " - como estrategia para la situación


específica
Antes de presentar nuestro modelo de evaluación 3-S, recordemos a los
lectores que es inútil buscar el modelo de evaluación o una forma correcta
de evaluar la alfabetización, la capacitación o el desarrollo. C o m o nos ha
advertido Cronbach, un modelo puede ajustarse al "contexto del control" y
otro al "contexto de la acomodación". U n agente alfabetizador puede estar
usando m á s de uno de los modelos presentados aquí, en el contexto de un
solo estudio evaluative
Otro punto importante que debe recordarse es que los modelos no se
utilizan c o m o fórmulas. Los modelos son para pensar. Raras veces le darán
un conjunto de procedimientos cuyos pasos no puedan cambiarse. Si así lo
hacen probablemente conducirán a cometer errores.
El modelo 3-S, el cual analizaremos a continuación, es un conjunto
vacío que nos permite seleccionar el modelo apropiado o la combinación
adecuada de modelos y enfoques que se vaya a usar en un programa o
estudio evaluative L a esencia de su concepción es la siguiente: no comience
con un modelo de evaluación, sino con un problema. Analice el problema
e identifique sub-problemas, piense acerca de c ó m o el problema o sus
partes pueden desenvolverse con el transcurso del tiempo; y, finalmente,
piense en el medio en el cual se desarrollará la evaluación. Las diferentes
partes del problema de evaluación probablemente requerirán la utilización
de distintos modelos y enfoques. Podrá ser necesario hacer una encuesta y
un estudio de caso en profundidad. Podrán requerirse pruebas de rendimiento
de los educandos y análisis de contenido de documentos.
Las exigencias de tiempo pueden demandar tomar el pulso al programa
mediante apreciaciones rápidas aun cuando, idealmente, hubiese sido mejor
hacer una evaluación m á s sistemática. Finalmente, el evaluador puede
encontrarse en una situación en la cual no tenga calculadoras ni colegas
que puedan ayudarle con el análisis de grandes cantidades de datos
50 Modelos de Evaluación

numéricos, donde no haya fotocopiadoras o mimeógrafos, o no se tenga


papel para duplicar los instrumentos necesarios. Este modelo nos ayuda a
pensar sobre las estrategias que habrá que seleccionar en situaciones
especiales de la vida real, sobre c ó m o hacer una "segunda mejor selección"
cuando la mejor no es posible.
E n otra publicación14 hemos enunciado los siguientes pasos en la puesta
en práctica del modelo 3-S:

1. Articular las relaciones de fines y medios en el programa de


cambio que se va a evaluar.
2. Generar perfiles de necesidades de información y asuntos
relacionados con la evaluación.
3. Desarrollar una agenda de evaluación específica para la situación
4. Elegir metodologías y técnicas realistas apropiadas

El modelo 3-S ha influido en los enfoques de la planificación y la


gestión de la evaluación que se presentan en este libro.

Cosas para hacer o para pensar

1. ¿Cuál de los dos paradigmas básicos analizados en este capítulo tiene


m á s posibilidad de generar la información m á s útil en su programa de
desarrollo, de alfabetización o de capacitación para el desarrollo? ¿ O
tendrá usted que usar una mezcla ambos?

2. ¿Cuál o cuáles de los modelos descritos en este capítulo considera


usted personalmente que le podría ser más útil actualmente? ¿Qué más
le gustaría saber sobre este modelo para poder utilizarlo?

3. ¿ H a podido usted encontrar algún estudio evaluativo terminado que se


ajuste del todo a alguno de los modelos descritos en este capítulo?
Modelos de Evaluación 51

Notas

1. Kuhn, T . S . The structure of scientific revolutions. Chicago: University


of Chicago Press, 1962.

2. E n nuestra discusión en este capítulo el término "teoría" no ha sido


definido ni explicado. Esto es así porque la literatura sobre evaluación
habla con frecuencia de modelos de evaluación y pocas veces de la
teoría de la evaluación. Brevemente digamos que, en términos del
status conceptual, la teoría cae entre el paradigma y el modelo. E n su
mejor sentido, la teoría es un conjunto de leyes y generalizaciones
empíricas conectadas deductivamente. U n modelo es frecuentemente
un diagrama esquemático que conecta la teoría con la práctica.

3. Aquí puede hacerse referencia al trabajo de Donald T . Campbell y


Julian C . Stanley, Experimental and quasi-experimental designs for
researchers. Chicago: Rand McNally, 1966.

4. Lincoln, Yvonna S. y Guba, Egon G . Naturalistic inquiry. Beverly Hills,


C A : Sage, 1985.

5. Cronbach, Lee J. et. al. Towards reform of program evaluation. San


Francisco: Jossey-Bass, 1980.

6. Por la iniciales en inglés de las dimensiones de la evaluación que


considera la situación ambiental (E), los insumos (I), los procesos (P),
los resultados inmediatos (O) y los efectos a largo plazo (L).

7. Dave, Ranvindra H . " A built-in System of Evaluation for Reform


Projects and Programmes in Education". International Review of
Education, Vol. 26 N 2 4, pp. 475-482,1980.

8. Rippey, Robert M . , ed. Studies in transactional evaluation. Berkeley,


C A : McCutchan, 1973, pp. 3-4.

9. Douglas, Jack D . Investigative social research. Beverly Hills, C A : Sage,


1976.
52 Modelos de Evaluación

10. Pariert, M . y Hamilton, D . "Evaluation as illumination: A new approach


to the study of innovatory programs". Occasional Paper, N Q 9.
Edinburgh: Center for Research in the Educational Sciences, University
of Edinburgh, 1972. Ver también Richards, Howard, The Evaluation of
Cultural Action. An Evaluative Study of the Parents and Children
Program (PPH). Londres: Macmillan, en asociación con el International
Development Research Centre, 1985.

11. Eisner, Elliot W . Educational Imagination: The design and evaluation


of school programs. N e w York, N Y : Macmillan, 1979.

12. "Participatory research: Development and issues". A special issue of


Convergence, Vol. X I V , N 9 3,1981.

13. D e las iniciales de las palabras en inglés Situation, Specific y Strategy.

14. Bhola, H . S . Evaluating functional literacy. Amersham, Bucks, U . K . :


Hulton Educational Publications Ltda., 1979. Páginas 25-33.

También podría gustarte