Imagen de portada de Amazon
Imagen de Amazon.com

Handbook of Practical Program Evaluation

Por: Colaborador(es): Tipo de material: TextoTextoSeries Edición: 4Descripción: 1 online resource (907 pages)Tipo de contenido:
  • text
Tipo de medio:
  • computer
Tipo de soporte:
  • online resource
ISBN:
  • 9781118893692
Tema(s): Género/Forma: Formatos físicos adicionales: Print version:: Handbook of Practical Program EvaluationClasificación CDD:
  • 658.4
Clasificación LoC:
  • H97
Recursos en línea:
Contenidos:
Introducción -- Manual de evaluación práctica de programas -- Contenido -- Figuras, tablas y anexos -- Figuras -- Tablas -- Anexos -- Prefacio -- Audiencia prevista -- Alcance -- Necesidad de una evaluación de programas -- Organización del manual -- Agradecimientos -- Los editores -- Los colaboradores -- PRIMERA PARTE Planificación y diseño de la evaluación -- Los capítulos -- CAPÍTULO UNO PLANIFICACIÓN Y DISEÑO DE EVALUACIONES ÚTILES -- Adaptación del enfoque de evaluación a las necesidades de información -- Selección de programas para evaluar -- Selección del tipo de la evaluación -- Identificar los elementos contextuales que pueden afectar la realización y el uso de la evaluación -- Producir el rigor metodológico necesario para respaldar los hallazgos creíbles -- Elegir las medidas apropiadas -- Elegir formas confiables de obtener las medidas elegidas -- Respaldar las inferencias causales -- Validez interna - - Capacidad de generalización -- Validez de la conclusión estadística -- Elaboración de informes -- Planificación de una evaluación receptiva y útil -- Planificación de procesos de evaluación -- Recopilación de datos -- Análisis de datos -- Uso de Evalua ción -- Glosario -- Referencias -- CAPÍTULO DOS ANALIZAR E INVOLUCRAR A LAS PARTES INTERESADAS -- Entender quién es una parte interesada, especialmente una parte interesada clave -- Identificar y trabajar con los principales usuarios previstos -- 1. Desarrollar habilidades de facilitación -- 2. Encontrar y Capacitar a los usuarios de información de evaluación -- 3. Encontrar puntos de inflexión -- 4. Facilitar interacciones de alta calidad -- 5. Fomentar el interés en la evaluación -- 6. Demostrar sensibilidad y competencia cultural -- 7. Anticipar la rotación de usuarios previstos -- Usar Técnicas de análisis e identificación de las partes interesadas -- Realización de una identificación y un análisis básicos de las partes interesadas -- Elección de los participantes del análisis de las partes interesadas en la evaluación -- Creación de un propósito Diagrama de red -- Tratamiento de las diferencias de poder -- Cuadrícula de poder versus interés -- Diagrama de influencia de las partes interesadas -- Bases de poder- Diagrama de direcciones de interés
Determinar el propósito y las metas de las evaluaciones -- Involucrar a las partes interesadas -- Enfrentar los desafíos de los entornos turbulentos e inciertos -- Conclusión -- Referencias -- CAPÍTULO TRES USO DE MODELOS LÓGICOS -- ¿Qué es un modelo lógico? -- La Utilidad de los Modelos Lógicos -- Evaluación Basada en la Teoría -- Construcción del Modelo Lógico -- Etapa 1: Recopilación de la Información Relevante -- Etapa 2: Definición Clara del Problema y su Contexto -- Etapa 3: Definición de los Elementos del Programa en una tabla: Sentido inicial -- Etapa 4: Dibujo del modelo lógico para revelar la teoría del cambio del programa -- Etapa 5: Verificación del modelo lógico del programa con las partes interesadas -- Conclusión -- Referencias -- CAPÍTULO CUATRO EVALUACIÓN EXPLORATORIA -- Evaluación de la evaluabilidad Evalúa la preparación de un programa para la evaluación -- El proceso de evaluación de la evaluabilidad -- Cuestiones, problemas y posibles soluciones -- Importancia -- La evaluación de retroalimentación rápida produce diseños de evaluación probados -- El proceso de evaluación de retroalimentación rápida -- Cuestiones, problemas y potencial Soluciones -- Importancia -- La síntesis de la evaluación resume lo que se sabe sobre el desempeño del programa -- Los estudios de muestras pequeñas pueden ser útiles para evaluar las medidas de desempeño -- Selección de una evaluación exploratoria Enfoque -- Conclusión -- Referencias -- CAPÍTULO CINCO MEDICIÓN DEL DESEMPEÑO: Seguimiento de los resultados del programa -- Medición del rendimiento y evaluación del programa -- Sistemas de medición -- Resultados y otros tipos de medidas de rendimiento -- Identificación, puesta en práctica y evaluación de las medidas de rendimiento -- Datos Fuentes -- Criterios para buenas medidas de rendimiento -- Control de calidad -- Conversión de datos de rendimiento en información -- Tendencias a lo largo del tiempo -- Desempeño real versus objetivos -- Comparaciones entre unidades -- Otros desgloses -- Benchmarking externo -- Presentación y análisis de datos de rendimiento -- Desafíos actuales para la medición del desempeño
Uso de datos de rendimiento para mejorar el rendimiento -- Implementación de medidas de rendimiento en entornos en red -- Conclusión: la perspectiva -- Referencias -- CAPÍTULO SEIS DISEÑOS DE GRUPOS DE COMPARACIÓN -- Introducción a la teoría causal para la evaluación de impacto -- Diseños de grupos de comparación -- 1. Diseño ingenuo -- 2. Diseño básico de valor agregado: regresión ajustada para una medida previa al programa -- 3. Diseño de covariables ajustado por regresión -- 4. Diseño de valor agregado ajustado para covariables adicionales -- 5. Diseños de series temporales interrumpidas -- 6. Diseños de efectos fijos para evaluaciones longitudinales -- 7. Diseños coincidentes -- 8. Diseños de discontinuidad de regresión -- Conclusión -- Referencias -- CAPÍTULO SIETE ENSAYOS CONTROLADOS ALEATORIOS -- Historia de los ECA -- ¿Por qué aleatorizar? -- Diseño de prueba -- Asignación sesgada y asignación segura -- Contaminación y asignación aleatoria de grupos -- Determinación y seguimiento ciego -- Cruzamiento e intención de tratar -- Deserción -- Desmoralización resentida: diseños de preferencia -- Lista de espera y diseños de cuña escalonada -- Problemas de diseño en los ensayos aleatorios por grupos -- Problemas de tamaño de la muestra -- Mayor potencia a un costo muy bajo -- Problemas analíticos -- Generalizabilidad o validez externa -- Calidad de los ensayos aleatorios -- Obstáculos para el uso más amplio de los ECA -- Conclusión - - Referencias -- CAPÍTULO OCHO REALIZACIÓN DE ESTUDIOS DE CASO -- ¿Qué son los estudios de caso? -- Diseño de estudios de casos -- Definición de preguntas de investigación -- Determinación de la unidad de análisis -- Selección de diseños de caso único o de casos múltiples -- Selección de casos o sitios -- Realización de estudios de casos -- Preparación -- Estrategias de recopilación de datos -- Análisis los datos -- Preparación del informe -- Evitar trampas comunes -- Conclusión -- Referencias -- CAPÍTULO NUEVE RECLUTAMIENTO Y RETENCIÓN DE PARTICIPANTES EN EL ESTUDIO -- Planificación para el reclutamiento y la retención -- La importancia de la planificación temprana -- Definición de la población objetivo
Motivación de los participantes y diseño de recopilación de datos -- Prueba previa -- Juntas de revisión institucional y la Oficina de Administración y Presupuesto -- Contratación y retención de personal -- Antecedentes del personal -- Cualidades interpersonales -- Habilidades de comunicación -- Capacitación y supervisión -- Implementación de contratación y retención -- Modos de contacto para el reclutamiento y la retención -- Esfuerzos de reclutamiento y retención en un entorno de atención médica -- Obtener la cooperación de los participantes -- Consideraciones específicas de retención -- Monitoreo del progreso del reclutamiento y la retención -- Monitoreo de múltiples estrategias de reclutamiento -- Monitoreo del reclutamiento y la retención de subpoblaciones -- Consideraciones culturales -- Conclusión -- Referencias -- CAPÍTULO DIEZ DISEÑO, GESTIÓN Y ANÁLISIS DE EVALUACIONES MULTISITIO -- Definición de la evaluación multisitio -- Ventajas y desventajas de las evaluaciones multisitio -- Enfoques y diseños multisitio -- Sentar las bases para an MSE -- Determinación del diseño de MSE -- Sitios de muestreo -- Strat Estrategias para la recopilación de datos en múltiples sitios -- Recopilación de datos comunes frente a datos de sitios específicos -- Desarrollo de un protocolo común -- Maximización de los datos existentes -- Desarrollo de una herramienta común de recopilación de datos -- Evaluación de intervenciones en múltiples sitios -- Monitoreo de la fidelidad -- Evaluación de ingredientes comunes -- Estudio de la implementación -- Medición de la participación en el programa -- Evaluación de comparación y sitios de tratamiento -- Monitoreo de la implementación en múltiples sitios -- Características de diseño para monitorear -- Métodos de monitoreo -- Control de calidad en las MPE -- Selección y contratación de recolectores de datos -- Capacitación común y sesiones de refuerzo - - Preparación de los entrevistadores -- Comunicación, supervisión y revisión continua -- Gestión de datos -- Informatización y gestión de datos cualitativos -- Informatización y gestión de datos cuantitativos -- Identificación y confidencialidad -- Estrategias de análisis cuantitativo -- Desafíos y estrategias
Plan de análisis general -- Estrategias de análisis cualitativo -- Contar la historia -- Consejos finales para el evaluador de MSE -- Referencias -- CAPÍTULO ONCE EVALUACIÓN DE PROGRAMAS DE CAMBIO COMUNITARIO -- Definición de intervenciones de cambio comunitario -- Desafíos -- Guía para evaluadores y profesionales -- 1. Definir un conjunto integral y parsimonioso de métricas a través de las cuales evaluar el desempeño del programa -- 2. Seleccionar la unidad de análisis adecuada -- 3. Evaluar qué tan "estable" o móvil es la unidad de análisis -- 4. Determinar el momento adecuado Período de evaluación -- 5. Inventariar qué datos están disponibles y qué datos originales es necesario recopilar -- 6. Apoyar la creación y gestión de un sistema de datos -- 7. Elegir los métodos de evaluación más apropiados -- Conclusión -- Referencias -- CAPÍTULO DOCE EVALUACIÓN CULTURALMENTE RESPONSIVA: Teoría, práctica e implicaciones futuras -- ¿Qué es CRE? -- Pioneros en los fundamentos de CRE -- De la teoría de CRE a la práctica de CRE -- Preparación para la evaluación -- Involucrar a las partes interesadas -- Identificar el propósito y la intención de la evaluación -- Formular las preguntas correctas -- Diseñar la evaluación -- Seleccionar y adaptación de instrumentación -- Recopilación de datos -- Análisis de datos -- Difusión y uso de los resultados -- Casos de aplicación de la teoría y la práctica de CRE -- Implicaciones para la profesión -- Validez, rigor y CRE -- Responsabilidad como principio fundamental de CRE -- Conclusión -- Notas -- Referencias -- SEGUNDA PARTE Procedimientos prácticos de recopilación de datos -- Los capítulos -- Otras consideraciones sobre la recopilación de datos -- CAPÍTULO TRECE USO DE REGISTROS DE LA AGENCIA -- Problemas potenciales y su alivio -- 1. Falta o está incompleto Datos -- 2. Inquietudes con la precisión de los datos -- 3. Datos disponibles solo en forma excesivamente agregada -- 4. Definiciones desconocidas, diferentes o cambiantes de los elementos de datos -- 5. Los datos deben estar vinculados entre programas y agencias
6. Consideraciones de confidencialidad y privacidad
Valoración
    Valoración media: 0.0 (0 votos)
Existencias
Tipo de ítem Biblioteca actual Colección Signatura Copia número Estado Notas Fecha de vencimiento Código de barras
Libro electrónico Libro electrónico Biblioteca José Luis Bobadilla Colección de Ebook 658.4 (Navegar estantería(Abre debajo)) Ej. 1 Disponible Bibliografía de las UDs eB-056199

Introducción -- Manual de evaluación práctica de programas -- Contenido -- Figuras, tablas y anexos -- Figuras -- Tablas -- Anexos -- Prefacio -- Audiencia prevista -- Alcance -- Necesidad de una evaluación de programas -- Organización del manual -- Agradecimientos -- Los editores -- Los colaboradores -- PRIMERA PARTE Planificación y diseño de la evaluación -- Los capítulos -- CAPÍTULO UNO PLANIFICACIÓN Y DISEÑO DE EVALUACIONES ÚTILES -- Adaptación del enfoque de evaluación a las necesidades de información -- Selección de programas para evaluar -- Selección del tipo de la evaluación -- Identificar los elementos contextuales que pueden afectar la realización y el uso de la evaluación -- Producir el rigor metodológico necesario para respaldar los hallazgos creíbles -- Elegir las medidas apropiadas -- Elegir formas confiables de obtener las medidas elegidas -- Respaldar las inferencias causales -- Validez interna - - Capacidad de generalización -- Validez de la conclusión estadística -- Elaboración de informes -- Planificación de una evaluación receptiva y útil -- Planificación de procesos de evaluación -- Recopilación de datos -- Análisis de datos -- Uso de Evalua ción -- Glosario -- Referencias -- CAPÍTULO DOS ANALIZAR E INVOLUCRAR A LAS PARTES INTERESADAS -- Entender quién es una parte interesada, especialmente una parte interesada clave -- Identificar y trabajar con los principales usuarios previstos -- 1. Desarrollar habilidades de facilitación -- 2. Encontrar y Capacitar a los usuarios de información de evaluación -- 3. Encontrar puntos de inflexión -- 4. Facilitar interacciones de alta calidad -- 5. Fomentar el interés en la evaluación -- 6. Demostrar sensibilidad y competencia cultural -- 7. Anticipar la rotación de usuarios previstos -- Usar Técnicas de análisis e identificación de las partes interesadas -- Realización de una identificación y un análisis básicos de las partes interesadas -- Elección de los participantes del análisis de las partes interesadas en la evaluación -- Creación de un propósito Diagrama de red -- Tratamiento de las diferencias de poder -- Cuadrícula de poder versus interés -- Diagrama de influencia de las partes interesadas -- Bases de poder- Diagrama de direcciones de interés

Determinar el propósito y las metas de las evaluaciones -- Involucrar a las partes interesadas -- Enfrentar los desafíos de los entornos turbulentos e inciertos -- Conclusión -- Referencias -- CAPÍTULO TRES USO DE MODELOS LÓGICOS -- ¿Qué es un modelo lógico? -- La Utilidad de los Modelos Lógicos -- Evaluación Basada en la Teoría -- Construcción del Modelo Lógico -- Etapa 1: Recopilación de la Información Relevante -- Etapa 2: Definición Clara del Problema y su Contexto -- Etapa 3: Definición de los Elementos del Programa en una tabla: Sentido inicial -- Etapa 4: Dibujo del modelo lógico para revelar la teoría del cambio del programa -- Etapa 5: Verificación del modelo lógico del programa con las partes interesadas -- Conclusión -- Referencias -- CAPÍTULO CUATRO EVALUACIÓN EXPLORATORIA -- Evaluación de la evaluabilidad Evalúa la preparación de un programa para la evaluación -- El proceso de evaluación de la evaluabilidad -- Cuestiones, problemas y posibles soluciones -- Importancia -- La evaluación de retroalimentación rápida produce diseños de evaluación probados -- El proceso de evaluación de retroalimentación rápida -- Cuestiones, problemas y potencial Soluciones -- Importancia -- La síntesis de la evaluación resume lo que se sabe sobre el desempeño del programa -- Los estudios de muestras pequeñas pueden ser útiles para evaluar las medidas de desempeño -- Selección de una evaluación exploratoria Enfoque -- Conclusión -- Referencias -- CAPÍTULO CINCO MEDICIÓN DEL DESEMPEÑO: Seguimiento de los resultados del programa -- Medición del rendimiento y evaluación del programa -- Sistemas de medición -- Resultados y otros tipos de medidas de rendimiento -- Identificación, puesta en práctica y evaluación de las medidas de rendimiento -- Datos Fuentes -- Criterios para buenas medidas de rendimiento -- Control de calidad -- Conversión de datos de rendimiento en información -- Tendencias a lo largo del tiempo -- Desempeño real versus objetivos -- Comparaciones entre unidades -- Otros desgloses -- Benchmarking externo -- Presentación y análisis de datos de rendimiento -- Desafíos actuales para la medición del desempeño

Uso de datos de rendimiento para mejorar el rendimiento -- Implementación de medidas de rendimiento en entornos en red -- Conclusión: la perspectiva -- Referencias -- CAPÍTULO SEIS DISEÑOS DE GRUPOS DE COMPARACIÓN -- Introducción a la teoría causal para la evaluación de impacto -- Diseños de grupos de comparación -- 1. Diseño ingenuo -- 2. Diseño básico de valor agregado: regresión ajustada para una medida previa al programa -- 3. Diseño de covariables ajustado por regresión -- 4. Diseño de valor agregado ajustado para covariables adicionales -- 5. Diseños de series temporales interrumpidas -- 6. Diseños de efectos fijos para evaluaciones longitudinales -- 7. Diseños coincidentes -- 8. Diseños de discontinuidad de regresión -- Conclusión -- Referencias -- CAPÍTULO SIETE ENSAYOS CONTROLADOS ALEATORIOS -- Historia de los ECA -- ¿Por qué aleatorizar? -- Diseño de prueba -- Asignación sesgada y asignación segura -- Contaminación y asignación aleatoria de grupos -- Determinación y seguimiento ciego -- Cruzamiento e intención de tratar -- Deserción -- Desmoralización resentida: diseños de preferencia -- Lista de espera y diseños de cuña escalonada -- Problemas de diseño en los ensayos aleatorios por grupos -- Problemas de tamaño de la muestra -- Mayor potencia a un costo muy bajo -- Problemas analíticos -- Generalizabilidad o validez externa -- Calidad de los ensayos aleatorios -- Obstáculos para el uso más amplio de los ECA -- Conclusión - - Referencias -- CAPÍTULO OCHO REALIZACIÓN DE ESTUDIOS DE CASO -- ¿Qué son los estudios de caso? -- Diseño de estudios de casos -- Definición de preguntas de investigación -- Determinación de la unidad de análisis -- Selección de diseños de caso único o de casos múltiples -- Selección de casos o sitios -- Realización de estudios de casos -- Preparación -- Estrategias de recopilación de datos -- Análisis los datos -- Preparación del informe -- Evitar trampas comunes -- Conclusión -- Referencias -- CAPÍTULO NUEVE RECLUTAMIENTO Y RETENCIÓN DE PARTICIPANTES EN EL ESTUDIO -- Planificación para el reclutamiento y la retención -- La importancia de la planificación temprana -- Definición de la población objetivo

Motivación de los participantes y diseño de recopilación de datos -- Prueba previa -- Juntas de revisión institucional y la Oficina de Administración y Presupuesto -- Contratación y retención de personal -- Antecedentes del personal -- Cualidades interpersonales -- Habilidades de comunicación -- Capacitación y supervisión -- Implementación de contratación y retención -- Modos de contacto para el reclutamiento y la retención -- Esfuerzos de reclutamiento y retención en un entorno de atención médica -- Obtener la cooperación de los participantes -- Consideraciones específicas de retención -- Monitoreo del progreso del reclutamiento y la retención -- Monitoreo de múltiples estrategias de reclutamiento -- Monitoreo del reclutamiento y la retención de subpoblaciones -- Consideraciones culturales -- Conclusión -- Referencias -- CAPÍTULO DIEZ DISEÑO, GESTIÓN Y ANÁLISIS DE EVALUACIONES MULTISITIO -- Definición de la evaluación multisitio -- Ventajas y desventajas de las evaluaciones multisitio -- Enfoques y diseños multisitio -- Sentar las bases para an MSE -- Determinación del diseño de MSE -- Sitios de muestreo -- Strat Estrategias para la recopilación de datos en múltiples sitios -- Recopilación de datos comunes frente a datos de sitios específicos -- Desarrollo de un protocolo común -- Maximización de los datos existentes -- Desarrollo de una herramienta común de recopilación de datos -- Evaluación de intervenciones en múltiples sitios -- Monitoreo de la fidelidad -- Evaluación de ingredientes comunes -- Estudio de la implementación -- Medición de la participación en el programa -- Evaluación de comparación y sitios de tratamiento -- Monitoreo de la implementación en múltiples sitios -- Características de diseño para monitorear -- Métodos de monitoreo -- Control de calidad en las MPE -- Selección y contratación de recolectores de datos -- Capacitación común y sesiones de refuerzo - - Preparación de los entrevistadores -- Comunicación, supervisión y revisión continua -- Gestión de datos -- Informatización y gestión de datos cualitativos -- Informatización y gestión de datos cuantitativos -- Identificación y confidencialidad -- Estrategias de análisis cuantitativo -- Desafíos y estrategias

Plan de análisis general -- Estrategias de análisis cualitativo -- Contar la historia -- Consejos finales para el evaluador de MSE -- Referencias -- CAPÍTULO ONCE EVALUACIÓN DE PROGRAMAS DE CAMBIO COMUNITARIO -- Definición de intervenciones de cambio comunitario -- Desafíos -- Guía para evaluadores y profesionales -- 1. Definir un conjunto integral y parsimonioso de métricas a través de las cuales evaluar el desempeño del programa -- 2. Seleccionar la unidad de análisis adecuada -- 3. Evaluar qué tan "estable" o móvil es la unidad de análisis -- 4. Determinar el momento adecuado Período de evaluación -- 5. Inventariar qué datos están disponibles y qué datos originales es necesario recopilar -- 6. Apoyar la creación y gestión de un sistema de datos -- 7. Elegir los métodos de evaluación más apropiados -- Conclusión -- Referencias -- CAPÍTULO DOCE EVALUACIÓN CULTURALMENTE RESPONSIVA: Teoría, práctica e implicaciones futuras -- ¿Qué es CRE? -- Pioneros en los fundamentos de CRE -- De la teoría de CRE a la práctica de CRE -- Preparación para la evaluación -- Involucrar a las partes interesadas -- Identificar el propósito y la intención de la evaluación -- Formular las preguntas correctas -- Diseñar la evaluación -- Seleccionar y adaptación de instrumentación -- Recopilación de datos -- Análisis de datos -- Difusión y uso de los resultados -- Casos de aplicación de la teoría y la práctica de CRE -- Implicaciones para la profesión -- Validez, rigor y CRE -- Responsabilidad como principio fundamental de CRE -- Conclusión -- Notas -- Referencias -- SEGUNDA PARTE Procedimientos prácticos de recopilación de datos -- Los capítulos -- Otras consideraciones sobre la recopilación de datos -- CAPÍTULO TRECE USO DE REGISTROS DE LA AGENCIA -- Problemas potenciales y su alivio -- 1. Falta o está incompleto Datos -- 2. Inquietudes con la precisión de los datos -- 3. Datos disponibles solo en forma excesivamente agregada -- 4. Definiciones desconocidas, diferentes o cambiantes de los elementos de datos -- 5. Los datos deben estar vinculados entre programas y agencias

6. Consideraciones de confidencialidad y privacidad

No hay comentarios en este titulo.

para colocar un comentario.
INSTITUTO NACIONAL DE SALUD PÚBLICA, MÉXICO - ALGUNOS DERECHOS RESERVADOS
Universidad No. 655 Colonia Santa María Ahuacatitlán, Cerrada de Los Pinos y Caminera C.P. 62100, Cuernavaca, Mor. México. Tel (777) 329300