Correa. Metodología
Correa. Metodología
Correa. Metodología
Cuarta unidad
Se denomina diseño, en el sentido en que avizora o planea lo que se debe hacer, y es una
metodología puesto que establece un modelo, un camino y una manera de proceder.
Las decisiones que se deben tomar sobre el diseño no son de orden mecánico, es necesario
tomarlas pensando fundamentalmente en la coherencia interna del proyecto. Esta certeza
debe estar acompañada de la conciencia de que existen unos factores del contexto
evaluativo que, en un momento dado, pueden favorecer u obstaculizar la toma de decisiones
por parte del evaluador.
Para una mejor comprensión de los diseños de evaluación se debe describir el proceso
de la evaluación y ubicar en él los diseños o metodologías de evaluación. Si bien cada
enfoque de evaluación propone una metodología específica, estamos abogando por un
método ecléctico. En este sentido, nos sumamos a lo expresado por Stuffebeam y
Shinkfield (1995:25).
133
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
El evaluador puede encontrar dos posibles situaciones: una que el programa esté
formalmente definido o en su defecto lo que existen son una serie de actividades que es
necesario entrar a formalizar.
134
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
Para el caso de la evaluación es más común hablar de programas o proyectos, pues son
las unidades, que, por su relativa autonomía y limitada extensión, permiten la aplicación
de estas metodologías de evaluación descritos en este módulo. Se asume que la evaluación
de los planes se logra mediante la evaluación de los programas, proyectos y actividades
que los conforman.
El programa es un acto intencionado o deliberado que debe tener una coherencia interna
o sea una lógica de relaciones entre sus componentes. El programa establece el deber
ser y simula el orden de los acontecimientos.
Cuando se habla de coherencia interna del programa, se quiere decir que la naturaleza
del programa armoniza con las necesidades o problema diagnosticado que se quiere
resolver, que los objetivos sean viables, que las metas sean medibles, que los recursos
sean suficientes y adecuados a las estrategias elegidas y que la metodología de
intervención propuesta corresponda y garantice el cumplimiento de los objetivos de cambio
formulados.
135
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
El programa debe dar cuenta de todos los ingredientes o insumos que entran en juego
para alterar la situación diagnosticada como problema, de ahí la importancia de la
elaboración técnica del programa, lo que facilita el proceso de evaluación.
• ¿El qué? ¿Cuáles son los objetivos o metas del programa? ¿Qué se pretende
lograr con el programa? ¿Cuál es la situación que se quiere alcanzar? Es la utopía,
el ideal, el deber ser. Ese deber ser se expresa mediante objetivos y la fijación de
metas. A su vez, estas metas son las variables dependientes o de resultado que
se buscan medir con la evaluación.
136
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
• ¿El quién? Son los beneficiarios, participantes, usuarios o clientes externos del
programa. Se refiere a la cobertura poblacional que tiene el programa. Esta cobertura
puede corresponder a la cobertura espacial; ejemplo, un programa educativo que
tiene como cobertura una región geográfica. La cobertura también puede ser una
cobertura de usuarios; ejemplo, un programa de atención a discapacitados físicos
tiene una cobertura, no en términos geográficos, sino en términos de las personas
que tienen una determinada demanda que necesitan satisfacer o una característica
que las hace susceptibles de ser agrupadas en una categoría.
• ¿El con qué? Cuáles son los recursos humanos, materiales, físicos, equipos y
económicos que se requieren para el logro de los objetivos del programa. En otros
términos, son los insumos requeridos para desatar los procesos que han de producir
unos resultados o impactos.
• ¿El con quiénes? Son las personas, profesionales, funcionarios que intervienen en
la implementación del programa. Debe tenerse en cuenta el perfil, la cantidad y la
calidad del talento humano.
137
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
• La historia de la organización.
• Los clientes internos. Perfil del talento humano vinculado, responsable de los
programas.
138
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
• La imagen corporativa hacia el exterior, o sea la opinión que el público tiene de las
ejecutorias de la organización.
• Experiencias de evaluación.
De otra parte existen una serie de características de las instituciones que pueden incidir
positiva o negativamente en el desempeño de los programas y en el ejercicio de la
evaluación. Estas características son:
139
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
• El perfil de los funcionarios de la organización tiene que ver con las profesiones de
sus funcionarios, la experiencia laboral, el tipo de compromiso con la organización,
los grados de satisfacción personal y laboral, los estilos de gestión, las relaciones
interpersonales y las experiencias en procesos de evaluación. Todas estas
características del perfil de los funcionarios tienen que ver con las fortalezas y
debilidades que demuestran estos mismos funcionarios en procesos concretos de
evaluación. “Las personas que trabajan en una organización llegan a identificarse
con sus metas, con su clientela o con aspectos específicos del programa. Los que
se ocupan de la evaluación deben conocer este compromiso personal y emocional
como una fuerza potente de la dinámica organizativa” (Hamilton-Smith, 1981:370).
140
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
Para las Naciones Unidas (1978:45-46) existen unas dificultades, pero a la vez unas
alternativas en las organizaciones para realizar procesos de evaluación. Éstas son:
• Factores de costo. Es difícil comprobar que la evaluación reduce los costos del
programa. Una medida paliativa para esta objeción es invertir de manera razonable
en evaluación.
141
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
Finalmente, como parte del marco de referencia, deben considerarse los factores del
contexto; también llamados de coyuntura, que afectan directamente la vida de la
organización y la ejecución del programa que se quiere evaluar. En la consideración de
los factores del contexto deben tenerse en cuenta las características de los usuarios o
beneficiarios directos e indirectos del programa.
Los factores de coyuntura tienen que ver con aquellas situaciones del entorno social,
político, económico, cultural en las cuales se desenvuelven los programas y las cuales
afectan de una manera positiva o negativa el desempeño de los mismos programas.
Estas situaciones van a afectar los programas y sus efectos deben estar reflejados en
los resultados de la evaluación.
Los factores de coyuntura no dependen del programa, no son siempre controlables por la
organización, actúan como factores estructurales que, en la mayoría de los casos, aparecen
en la marcha misma del programa y que también en la mayoría de los casos obligan a
introducir cambios en la gestión del programa.
Como parte del entorno social, están los usuarios directos de los programas. Estos
usuarios tienen una serie de características que los hacen sensibles a la influencia del
programa. Esto quiere decir que no todos los individuos, grupos o comunidades reaccionan
igual al programa y, por lo tanto, los cambios o resultados no son los mismos.
El perfil de los usuarios, que debe estar determinado en el diagnóstico que da origen al
programa, es un insumo que, como el programa, la organización y el mismo contexto,
142
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
Son muchas las variables que pueden estar asociadas a los resultados de los programas:
la historia de los individuos y los grupos, indicadores sociodemográficos, las experiencias
anteriores de los grupos con relación a programas de intervención similares, las formas
organizativas de las comunidades, etc.
143
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
Las unidades de observación son las variables, categorías, asuntos o componentes que
deben ser medidos.
Los objetivos o preguntas de evaluación contienen las variables que deben ser observadas
o medidas. Para medir una variable es necesario traducirla a indicadores.
La construcción de indicadores es, tal vez, una de las tareas más complejas de la
evaluación. Existe una literatura disponible sobre el sentido de los indicadores, pero su
144
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
Los investigadores sociales se han preocupado por el tema de las definiciones operacionales
o indicadores para medir las variables de sus investigaciones y han propuesto, en
consecuencia, modelos para la medición de las variables. Los evaluadores pueden echar
mano de esa lógica de construcción de indicadores y de los instrumentos para su medición,
pero hay que entender que los indicadores de evaluación no pueden ser universales, sino
que corresponden a la especificidad del programa que se quiere evaluar.
Los indicadores son medidas específicas (explícitas y objetivamente verificables de los cambios
o resultados de una actividad). Los indicadores sirven de patrón para medir, evaluar o mostrar
el progreso de una actividad respecto a las medidas establecidas, en cuanto a la entrega de
sus insumos (indicadores de insumo), la obtención de los productos (indicadores de producto)
y el logro de sus objetivos (indicadores de efecto e impacto) (Quintero y Velásquez, 1993).
Los indicadores pueden ser directos o indirectos. Los indicadores de naturaleza cuantitativa,
por lo general, pueden medirse de una manera directa; ejemplo, el número de personas
atendidas por un programa, el número de créditos otorgados para un proyecto asociativo.
Los indicadores son indirectos cuando se trata de medir objetivos intangibles; ejemplo,
medir liderazgo, participación, motivación, etc.
Los indicadores están determinados por la naturaleza de los objetivos, por los efectos y
por el impacto que se busca con el programa de acción. La construcción de indicadores
depende, en buena medida, de la claridad y especificidad de los objetivos. En muchos
casos encontramos que los programas sociales no tienen objetivos y metas claramente
definidas. Esta situación se debe, entre otras razones, a:
• En el pasado las acciones sociales eran de buena voluntad y estaban por fuera de
la planificación del desarrollo. Hoy existe una mayor preocupación por la elaboración
estratégica de los programas.
145
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
Cuando se presenta esta última situación de no consenso sobre las metas en una
organización o de un programa, Weiss (1990:43) recomienda las siguientes alternativas,
que puede adoptar el evaluador.
• El evaluador puede estudiar el programa, hablar con los ejecutores del programa y
observar el desempeño del programa para luego formular por sí mismo las metas
del programa.
• El evaluador, conjuntamente con el personal del programa, podrá formular las metas.
• Usar medidas múltiples. “Medidas separadas pueden combinarse para formar una
medida general del éxito del programa”.
146
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
• Usar medidas aproximadas. Deben utilizarse las medidas de acuerdo con las metas,
si están establecidas a corto, mediano o largo plazo.
Las evaluaciones producen diferentes tipos de información. Según las Naciones Unidas
(1978:11), la evaluación proporciona tres tipos de información:
Para Espinoza (1983:43), la evaluación debe partir de una traducción de los objetivos a
metas, pues el autor considera que una meta es un objetivo cuantificado y calificado. Por
lo tanto, a cada objetivo corresponde una o varias metas. O sea que para medir el grado
de obtención de los objetivos es necesario medir el grado de obtención de las metas.
Para el autor, la evaluación de las metas tiene varios aspectos.
147
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
Victor Manuel Quintero (1995:35) distingue dos tipos de indicadores: de gestión o eficiencia
y de logro o eficacia.
Define los indicadores de gestión como aquellos que “tienen como misión valorar el
rendimiento (productividad física) de insumos, recursos y esfuerzos dedicados a obtener
ciertos objetivos con unos tiempos y costos registrados y analizados”.
Según el mismo autor, los indicadores de gestión permiten la valoración de los siguientes
elementos: la utilización de los recursos humanos, físicos y financieros, el tiempo, el
cumplimiento de actividades, tareas o metas intermedias, el rendimiento físico promedio
(productividad), o sea la relación que existe entre los logros y los recursos utilizados, el
costo promedio y el grado de eficiencia.
148
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
Las Naciones Unidas (1978:7) utilizan algunos de los conceptos anteriores de manera
diferente.
Entienden los productos como las consecuencias físicas producidas por el programa,
como escuelas construidas, kilómetros de carreteras habilitados. También incluyen la
medición de los servicios prestados, ejemplo: personas capacitadas, créditos concedidos.
Los efectos se entienden como las consecuencias directas o inmediatas de los productos,
ejemplo: mayores tasas de asistencia escolar, mejores cosechas.
Las repercusiones, como aquellos cambios que ocurren en el nivel de vida del grupo,
como consecuencia del programa.
Las unidades de análisis también son denominadas fuentes de información. Una vez
definidos los indicadores, nos preguntamos quiénes (individuos, familias, grupos,
comunidades, etc.) o qué objetos (documentos, monumentos, artefactos, situaciones,
etc.) contienen esos indicadores. Hablamos, entonces, de las fuentes de información
que pueden ser objetos o sujetos. La unidad de análisis “es un dato –observable y externo–
que se convierte en la unidad de información básica. Es un concepto referido al objeto de
estudio, por ejemplo, individuos, grupos, región, hechos, procesos” (Aigneren, 1997:22).
La elección de las fuentes está condicionada por las unidades de observación (lo que se
quiere medir), por la naturaleza del programa objeto de evaluación, por los objetivos de
evaluación, por los recursos humanos, técnicos y financieros disponibles, por la posibilidad
de acceder a las fuentes y por la disponibilidad de tiempo.
Para determinar las fuentes se deben tener claros los conceptos de universo, población,
muestra, tipo de muestreo que fueron vistos en los módulos anteriores.
149
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
Para capturar o recoger información sobre los indicadores que están presentes en unas
fuentes debemos recurrir a los instrumentos de medición o recolección de información.
La evaluación utiliza los instrumentos propios de la investigación social, bien sean de
naturaleza cuantitativa, como los cuestionarios, o de naturaleza cualitativa, como las
entrevistas en profundidad.
Decimos que son instrumentos de medición porque son sensibles a los indicadores y
son de registro porque no basta con medir, sino que se debe guardar y ordenar la
información de tal manera que pueda ser recuperada e interpretada.
Los instrumentos contienen a los indicadores y son aplicados a las fuentes de información.
2.1.5 El diseño
150
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
2.3 El cronograma
151
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
2.3. El presupuesto
La evaluación puede ser planeada y ejecutada por un evaluador quien, obra como experto
o en representación de una agencia evaluadora. Éste es el caso de las evaluaciones
externas.
La tendencia moderna de la evaluación es la de ser una tarea colectiva, mas que individual
y va más allá al plantear modelos más participativos de la evaluación. Se sugiere que los
152
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
153
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
La participación ciudadana no reemplaza la función del evaluador, pues éste debe ser un
miembro calificado del grupo y debe cumplir las funciones de coordinador. El profesional
o líder del equipo, así la evaluación sea participativa, seguirá teniendo un papel
determinante.
Desde el comienzo de la evaluación deben clarificarse las funciones del líder o coordinador
y las de los demás miembros del equipo. Es indispensable organizar unas condiciones
de trabajo: asignar recursos, fijar tiempos, establecer lugares para el trabajo, distribuir
las funciones. Una adecuada atención a estos asuntos administrativos evita conflictos,
racionaliza el trabajo y garantiza unos productos evaluativos más confiables y eficientes.
154
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
La aplicación de pruebas piloto sirve para revisar los contenidos y forma de los
instrumentos. Así se puede mirar si están comprendidos todos los indicadores, si es el
orden el más indicado, si son claras y precisas las preguntas, cómo es la reacción de los
sujetos frente a cierto tipo de preguntas, si la forma de presentación en el caso de
instrumentos autoadministrados es la más conveniente, etc.
155
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
4. Ejecución de la evaluación
156
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
del informe final. Aunque todas estas tareas deben estar previstas en el proyecto de
evaluación, es muy probable que en el trabajo de campo sea necesario introducir cambios
a la propuesta original. En el trabajo de campo, el propio evaluador confronta la coherencia
del proyecto formulado.
En todos los casos es muy importante tener un profundo respeto por cada uno de los informantes,
establecer con ellos una buena relación, ser claros en la explicación de los objetivos de la
evaluación y demostrarles la importancia que ellos tienen para el resultado final de la evaluación.
El equipo de evaluación debe ejercer una supervisión especial de esta etapa, especialmente
si se han contratado personas auxiliares para cumplir con las tareas de recolección de
información. En algunos casos, la falta de una preparación suficiente y la ausencia de un
acompañamiento puede viciar ostensiblemente los resultados de la evaluación.
Si bien el uso del computador facilita y garantiza rapidez y alta calidad en el procesamiento
de la información, la intervención de los evaluadores es fundamental.
157
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
Desde la elaboración de los instrumentos, se debe tener muy claro cuál es el programa
que se va a utilizar con el objeto de adecuar el sistema de codificación a los requerimientos
del programa o paquete estadístico elegido, si es del caso.
Una vez procesada la información y teniendo los datos representados en cuadros o gráficos,
se hace una lectura e interpretación de ellos. En la lectura se destacan aquellos datos
más relevantes que se ubican en los extremos y aquellos que son típicos o promedios.
158
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
El informe de evaluación debe dar cuenta no solo de los resultados finales de la evaluación,
sino que debe recoger además el proceso que va desde la formulación del proyecto de
evaluación, su implementación y ejecución.
Para la presentación de los informes pueden utilizarse formatos escritos o visuales, según
los destinatarios de la información. Los formatos más comunes son: el informe técnico,
el resumen ejecutivo, el reporte profesional, el artículo para publicación, una conferencia
de prensa, un reporte para un medio de comunicación, una reunión pública, un taller,
afiches, plegables, memos, audiovisuales, etc.
• Los contratantes de la evaluación. Los que facilitan los recursos para financiar la
evaluación podrán establecer en el convenio las condiciones para la presentación
y definir los destinatarios de los resultados.
• El nivel de comprensión de los destinatarios que tiene que ver con la experiencia
en el manejo de estos estudios, los intereses intelectuales, la capacidad de entender
cierto tipo de análisis.
159
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
De otra parte, la diseminación de los resultados tiene que ver con la manera como son
difundidos los resultados de una evaluación. La diseminación guarda una relación
inseparable con los formatos de presentación de los resultados. Para Morris y Otros
(1987:22), las normas que deben tenerse en cuenta para difundir los resultados son:
• Los informes deben tratar los asuntos que los usuarios consideren que son
importantes.
• Los informes deben entregarse a tiempo para que sean útiles. También deben ser
claros para los destinatarios.
Estos mismos autores, recomiendan unos criterios que deben ser tenidos en cuenta para
entregar la información a los usuarios de ella.
En cuanto al contenido del informe de evaluación, éste debe tener en buena medida lo
que fue previsto en el proyecto de evaluación, los pasos dados en la ejecución e
implementación del proyecto. Debe recordarse que el informe debe ser lo más claro y
completo posible pues va dirigido a personas que no participaron directamente de la
experiencia evaluativa. Estos son los contenidos que debe tener un informe:
160
DISEÑO METODOLÓGICO , IMPLEMENTACIÓN, ANÁLISIS E INFORMES DE LA EVALUACIÓN
• El marco referencial, que incluye: una descripción completa del programa de acción,
un perfil de la organización gestora y los factores del contexto que inciden en el
desempeño del programa.
• La ejecución de la evaluación.
• Bibliografía.
• Anexos.
161