Diferencias entre las revisiones 10 y 21 (abarca 11 versiones)
Versión 10 con fecha 2023-11-23 00:50:20
Tamaño: 4968
Comentario:
Versión 21 con fecha 2026-03-30 11:24:47
Tamaño: 45104
Comentario:
Los textos eliminados se marcan así. Los textos añadidos se marcan así.
Línea 62: Línea 62:
 * Explorar las perspectivas individuales de las personas acerca de determinados
tópicos, ideas o situaciones.
 * Explorar las perspectivas individuales de las personas acerca de determinados tópicos, ideas o situaciones.
Línea 65: Línea 64:
 * Conocer las percepciones, juicios y valoraciones de las personas acerca de
determinados temas o problemas.
------
 * Conocer las percepciones, juicios y valoraciones de las personas acerca de determinados temas o problemas.
----
Línea 71: Línea 69:
----
 * MATRIZ de OPERACIONALIZACIÓN de Variables #2: Con Definición Conceptual y Operacional
 * https://www.youtube.com/watch?v=mr8M4WRnRig
----
 * Tendencia central, Dispersión y Distribución.
----
 * DISTRIBUCIONES UNIDIMENSIONALES: INTRODUCCIÓN

 
 * http://www.ub.edu/aplica_infor/spss/cap2-1.htm
 * Todo análisis estadístico se inicia con una primera fase descriptiva de los datos. ésta tiene por objeto sintetizar la información mediante la elaboración de tablas de frecuencias, representaciones gráficas y el cálculo de medidas estadísticas (o estadísticos). Estos procedimientos descriptivos dependen de la naturaleza de la variable o atributo que se analiza y, en este sentido, el programa SPSS los recoge en dos menús diferentes según se empleen, básicamente, para sintetizar datos cualitativos o datos cuantitativos. Así mismo, el programa diferencia entre los procedimientos descriptivos que hacen referencia al análisis de una sola variable (análisis unidimensional) de los relativos a dos o más variables conjuntamente (análisis bidimensional o multidimensional).

 

DISTRIBUCIONES DE FRECUENCIAS


 * Las distribuciones o tablas de frecuencias permiten resumir los datos en una tabla que recoge:

 * • valores de la variable o modalidades del atributo,

 * • frecuencia absoluta o número de veces que aparece cada valor o modalidad en la muestra,

 * • porcentaje de veces que aparece cada valor de la variable o modalidad del atributo sobre el total de observaciones,

 * • porcentaje válido calculado sobre el total de observaciones excluidos los valores missing,

 * • porcentaje acumulado hasta cada uno de los valores de la variable ordenados de menor a mayor. Este porcentaje tiene interpretación sólo en los casos en que la variable sea susceptible de medida por lo menos en una escala ordinal.

Para obtener la tabla de frecuencias se procede con el menú:

Analizar
  Estadísticos Descriptivos
  Frecuencias
----
 * Estadísticas descriptivas y análisis de datos:
http://www1.frm.utn.edu.ar/estadistica/documentos/ed&ad.pdf
----
 * LA TRIANGULACIÓN METODOLÓGICA
 * Revista Cubana de Salud Pública-versión On-line ISSN 1561-3127- Rev Cubana Salud Pública vol.44 no.2 Ciudad de La Habana abr.-jun. 2018
 * http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S0864-34662018000200431
 * La triangulación metodológica (Pasos para una comprensión dialéctica de la combinación de métodos)
 * Methodological triangulation (for a dialectic understanding of the approaches combination)

 * Juan Samaja- Universidad Central de Venezuela.2018
 * Jick fundamenta la primera tesis diciendo que los métodos cualitativos (por ejemplo, el trabajo de campo) y los métodos cuantitativos (las encuestas) son, en verdad, dos extremos de un continuum, antes que “dos tipos de métodos distintos”. El autor sostiene que desde el mismo momento en que el investigador se enfrenta a la operacionalización de variables complejas (mediante la construcción de índices de muchos ítems, o la combinación de más de un observable o indicador), tiene que vérselas con una “combinación de procedimientos” que pone en juego la “integración metodológica”.

 * Volvamos sobre la idea de continuum: la tesis de Jick asevera que la integración metodológica se da en toda investigación científica: desde el grado mínimo en la construcción de una medida resumen en el interior de una variable con muchas dimensiones, hasta el enriquecimiento de la interpretación de los datos obtenidos sobre el sujeto de estudio, que se relacionan con los datos de las variables del contexto.
 * La premisa global sobre la que se asienta el valor universal de esta estrategia (que la vuelve casi inevitable) es la de que cada método, por separado, es débil, porque carece de los ingredientes mínimos para despejar los interrogantes que plantean los datos que él mismo produce. Por el contrario, en la relación entre dos o más métodos, surge la posibilidad de contrapesar resultados, ponderar resultados, enriquecer la comprensión de los resultados y, una vez que se producen incoherencias insalvables, de abrir nuevos horizontes de problemas, nuevas interrogantes. “Medidas múltiples e independientes -escribe Robin- no comparten la misma debilidad o potencialidad de sesgo”.

 * Y lo sorprendente es que tanto las debilidades como las potencialidades diversas producen siempre un efecto progresivo, como resultado de la integración metodológica: ya sea porque la convergencia resuelve de manera convincente las cuestiones planteadas, o porque la divergencia instala cuestiones imprevistas.
 * lo que Jick nos entrega a lo largo de su interesante presentación reafirma precisamente las muchas ventajas que ofrece la “triangulación metodológica”. De manera particular, las siguientes:

 * * Mejora la confianza en los resultados (lo que nos resulta trivial, toda vez que se ha partido de identificar la triangulación con las pruebas de confiabilidad y con las pruebas de validación convergente);

 * * estimula la invención o la introducción de nuevos métodos, en la medida en que predispone positivamente a los investigadores para abordar sus temas focales con una variada gama de perspectivas;

 * * permite descubrir dimensiones desconocidas de los fenómenos estudiados, en tanto las diferencias producidas por distintos métodos hacen visibles atributos previamente inadvertidos;

 * * promueven la búsqueda de síntesis teóricas;

 * * mantiene la vigencia de los métodos que suponen una suficiente proximidad con el objeto mismo, y que, por lo mismo, brindan una información densa y rica que contribuye a darle a las interpretaciones el brillo y la vivacidad que no tienen los métodos cuantitativos.
 * * Nosotros pensamos que la forma más fructífera de rexaminar estas cuestiones consiste en adoptar una perspectiva realmente integral del proceso de investigación, de modo que en todo momento se tenga presente la totalidad de los elementos de su estructura y la secuencia de su dinámica.

 * * De una perspectiva semejante se desprenden las siguientes conclusiones:
 * SEGUIR EXPLORANDO
 * Dicho en términos metodológicos, toda investigación define un nivel propio de trabajo (conductas, pacientes, grupos, ciudades, regiones, etc.), que llamaremos “Nivel de Anclaje”. Pero también define, de manera implícita o explícita, posibilidades definidas de análisis de esos objetos en componentes menores. Llamaremos a este nivel “Nivel Subunitario”. Del mismo modo, presupone ciertas “condiciones de contorno”, que llamaremos “Nivel Subunitario”.

 * Los contextos, las unidades de análisis y los componentes de las unidades de análisis definen conjuntos de datos, cuyos enunciados pertenecen a distintos tipos lógicos. Decimos, entonces, que toda investigación científica se desenvuelve en el seno de un sistema de matrices.
 * En este proceso, las determinaciones del objeto de estudio (unidades de análisis del nivel de anclaje) se pueden conceptualizar como absolutas (es decir, propias de cada unidad); o relacionales (es decir, emergentes de las relaciones que las unidades guardan entre sí); o contextúales (aquellas que produce la inclusión de las unidades en los contextos o condiciones de contorno).
----
 * TODO DATO ESTÁ CARGADO DE TEORÍA
 * Parte II. Examen del Proceso de investigación
 * Guardado en Metodologías - Documento Examen del Método Científico
 * Por lo demás, el modo en que se concibe un asunto de investigación puede dar lugar a muy diverso tipo de datos.
 * Unidad de análisis- Las organizaciones de la comunidad y su oferta para PMs
 * Oferta para PMs
 * EJEMPLOS
 * una hipótesis sostiene que: “La participación en clase mejora la motivación del estudiante para el aprendizaje de cualquier asignatura”.

 * Entonces se puede postular como hipótesis de trabajo que “Los alumnos que integran clases participativas presentan más altos índices de motivación y mejores logros en matemáticas que los alumnos que reciben iguales contenidos sin estimular la participación en clase”


 * Para confirmar o rechazar esta hipótesis se deberá imaginar una experiencia concreta para ponerla a prueba. Por ejemplo, se podrían comparar distintos grupos de estudiantes de matemáticas, según gradientes en la promoción de participación en la clase, para evaluar luego sus niveles de motivación en la materia: eso exige -entre otras cosas- especificar las características de esos alumnos, precisar cómo va a definirse y cómo va a medirse eso que llamamos “participación en clase”, “motivación con la materia” y “logros en matemática”.

 * A la luz de este ejemplo, podemos ahora examinar los componentes del dato, con el nombre propio que tienen en la jerga de la investigación científica:

 * a. Unidad de análisis: definimos con este nombre a las entidades/eventos/sujetos/objetos en las que se focaliza la descripción o el análisis en un cierto momento de la investigación. En el ejemplo,alumnos de la clase de matemáticas;
 * LA OFERTA de las Organizaciones de la Comunidad A LAS PMs

 * b. Dimensiones de análisis o variables: constituyen los aspectos/ características/ propiedades/atributos que se han seleccionado para examinar o estudiar a las unidades de análisis. Se llaman variables porque refieren a variaciones entre distintos estados o valores. En el ejemplo tenemos tres grandes variables: nivel de participación en la clase, motivación para el aprendizaje, nivel de logro en matemáticas.
 * Oferta general: de actividades, programas y servicios donde participan las PMs
 * Oferta específica: aquellas actividades, programas y servicios diseñados y dirigidos a las PMs
 * Oferta actual: está integrada por la oferta general y la oferta específica
 * Hay una oferta potencial

 * c. Valores o categorías: constituyen los estados particulares que pueden asumir las variables. Por ejemplo, la “motivación para el aprendizaje” puede ser «alta», «media» o «baja». Estas tres categorías son los valores entre los que puede fluctuar la variable.
 * La oferta actual es más o menos abierta, mayormente gratuita, generalmente presencial, considerada oportuna y que satisface necesidades reales de las PMs

 * d. Indicadores o definiciones operacionales: constituyen las maneras de medir o evaluar las variables: qué que se medirá (lo vamos a denominar dimensión del indicador) y cómo se medirá (lo que vamos a denominar procedimiento del indicador). En nuestro ejemplo, se refieren a todos aquellos aspectos a considerar y procedimientos a implementar para evaluar el logro en matemáticas, la motivación para el aprendizaje y el nivel de participación en la clase. Por ejemplo, la participación podría medirse como “la cantidad de veces que el alumno interviene en la clase” observando de manera directa –aunque no participativa– a los alumnos.
 * Detalles y características de la oferta específica: cada actividad/Programa/ Servicio
 * * Cantidad: aproximadamente cuántas personas reciben el servicio, participaron o participan en el programa o actividad.Cantidad total de usuarios promedio aproximados/estimados de 2023.
 * * Géneros participantes: preferentemente mujeres, preferentemente varones, otras opciones ¿cuáles? Porcentaje de hombres/mujeres /indefinido.
 * * Modalidad: Presencial: en la organización/en domicilio- Formato Online- Formato simultáneo (en la organización/online a elección)
 * * Costo de la actividad: Es gratuita o arancelada o ambas
 * * Exclusividad: Solo para miembros de la comunidad judía o abierta a cualquier miembro de la sociedad
 * * Evaluación de la respuesta del usuario. La participación y respuesta a la oferta de este servicio, programa, actividad fue/es considerada muy alta....

 * Los cuatro componentes del dato pueden ser concebidos como el resultado de ciertas operaciones cognitivas que se siguen, cualquiera sea la naturaleza del asunto a investigar y cualquiera sea la manera particular en que ese asunto sea concebido. Esas operaciones pueden reducirse a las tres siguientes (cfr. Samaja, J.; 2002):

 * 1. entificar: es decir identificar las entidades abordables empíricamente para evaluar aquellos aspectos que se consideran potencialmente relevantes, conforme a las hipótesis (o proto-hipótesis ) de la investigación.

 * 2. clasificar: identificar la “sustancia o asunto” de la variable y definir las categorías o clases en que se clasificarán (potencialmente) las entidades.

 * 3. operacionalizar: estimar procedimientos para evaluar los estados o las clases a que pertenecen las entidades, conforme a los criterios de clasificación o categorización seleccionados.
 * DATOS
 * Un sinónimo de dato podría ser unidad de información. Es necesario advertir que –como se desprende de los ejemplos dados- el concepto de dato no se reduce al de información numérica o cuantitativa.
 * Un dato es la predicación que se atribuye a alguna entidad, en algún aspecto suyo; en base a algún procedimiento que se pretende válido y confiable.
 * En el terreno metodológico, el concepto de matriz de datos reconoce un lugaR específicamente orientado a precisar el alcance de estructuras del discurso científico.
 * Johann Galtung advirtió que todo dato se organiza conforme a una estructura lógica invariante (es decir, independiente de cualquier contenido particular), a la que denominó matriz de datos.

 * En la concepción de Galtung, esta matriz reconoce los siguientes componentes:
 * * a. los elementos de análisis o las unidades de análisis,
 * * b. las variables que se seleccionaban de esas unidades y
 * * c. los valores o las respuestas o los resultados que se obtienen cuando las unidades se exponen a ciertos estímulos.
 * * b. La matriz de datos como estructura invariante y a priori reconoce cuatro elementos y no tres. El cuarto elemento de la matriz de datos lo constituye el “indicador” que permite distinguir los aspectos operacionables (“los estímulos”) de las definiciones teóricas a los que ellos se refieren (que se expresan como variables).
----
 * En tanto ocurrencias o casos (definición por extensión) las unidades de análisis serán entidades identificables en algún tiempo y/o espacio, y deberán poder ser numerables o computables (de modo tal que el investigador/a podrá informar el número de unidades con el que efectivamente trabajó).

 * LOS CASOS SELECCIONADOS PARA LA MATRIZ TEÓRICA
 * Como entidades que sirvieran con fines comparativos, las propiedades que tuvieron que cumplir los casos seleccionados para ser incluidos en la matriz fueron:
 * Ofrecer actividades, programas, servicios para personas mayores
 * Ser una entidad sin fines de lucro (Organizaciones sociales y Gobiernos)
 * Que la oferta de actividades, programas, servicios para PMs estuviera institucionalmente publicada en la Web.
 * Muestra representativa: Cuál sea el número de unidades requeridas en cada investigación remite a la cuestión de las “muestras”, es decir, a los criterios que se fijen para decidir si esas unidades resultan representativas –en su estructura general– del universo al que pretenden proyectarse los resultados del estudio

 * EL TEMA DE LOS BORDES
 * De allí el gran asunto de los “bordes”: ¿dónde empieza el blanco y termina el crema o el beige, dónde el crema deja paso al amarillo, y dónde el amarillo se transforma en naranja, en verde, etc.?

 * Percibir diferencias implica también obviar o no percibir otras diferencias. Como dice Gregory Bateson, lo relevante es percibir “diferencias que hagan diferencias” y –podríamos agregar– “no percibir diferencias que no hagan diferencias”:

 * “La información consiste en diferencias que establecen una diferencia. Si yo te llamo la atención acerca de la diferencia entra la tiza y un pedazo de queso, tú serás afectado por esa diferencia, tal vez evitando comer la tiza, tal vez probándola para verificar mi aserto. La índole no quesística de la tiza se ha convertido en una diferencia efectiva; pero otro millón de diferencias –positivas y negativas, interiores y exteriores a la tiza- permanecen latentes e inefectivas” (1993:111).

 * No es posible determinar de manera absoluta la naturaleza de esos bordes. La emergencia (o el reconocimiento) de “«bordes que hacen diferencia»”, depende de funciones práxicas: sean éstas biológicas, culturales, jurídicas, tecnológicas.

 * “En galés, «verde» es gwyrdd o glas, «azul» es glas, «gris» es glas o llwyd, «castaño» es llwyd. Es decir, la parte del espectro que cubre nuestra palabra verde se encuentra cruzada en galés por una línea que asigna parte de ella a la misma zona que nuestra palabra azul, mientras que la frontera establecida entre verde y azul no se encuentra en galés. Lo que es más, el galés carece de la delimitación entre gris y castaño. Por otra parte, el área cubierta por la palabra gris se ve cruzada en galés, de modo que la mitad de ella se refiere a la misma zona que nuestro azul y la otra mitad a la misma que nuestro castaño. (Hjelmslev, L.; 1984:80).
 * EXHAUSTIVO
 * EXCLUYENTE
 *
 * Veámoslo en un ejemplo: para valorar con justeza el sentido del término “bueno”, es necesario conocer el sistema de las relaciones en que él participa. El término «bueno» tomado como mera primeridad, es decir, como término aislado, no nos dice mucho. Sabemos qué significa de una manera muy general; se dice de una sopa que es buena y de Dios que es la pura bondad y también que bueno es el que da sin esperar. Pero para justipreciar el alcance de este término, es preciso considerarlo en relación con otros términos con los que guarda determinadas relaciones significantes, es decir, considerarlo en el sistema de las diferencias en el que participa .
Ese sistema puede ser tan variado como lo son los siguientes ejemplos:
«bueno versus malo»;
«bueno versus muy bueno, regular, malo y muy malo»;
«bueno versus buenísimo»,
«bueno, muy bueno, mejor e imprescindible»

* El “mismo” término bueno adquiere sentidos distintos en cada una de estos sistemas: el primer «bueno», por ejemplo, es “más bueno” que el segundo, de modo que no es el “mismo”.
Ahora bien, aunque el sistema de relaciones nos brinda criterios para juzgar sobre el alcance de cada término, aún no podemos precisar su sentido. Se necesita también del contexto, es decir, la totalidad a la que estos términos se refieren, conforme al cual el gradiente de la «bondad/maldad» cobra sentido: ¿cuál es el asunto que se diferencia según estas potenciales cualificaciones?:
 * ¿la calidad de la enseñanza secundaria?
 * ¿la intencionalidad divina?
 * La satisfacción con la vida
 * Se requiere especificar para ello el asunto o sustancia como contenido del que trata la variable. Tomemos como ejemplo el siguiente fragmento de un poema de Bertolt Brecht:

   * “hay personas que luchan un día y son buenas,
  * otras que luchan muchos días y son muy buenas,
                * otras que luchan muchos años y son mejores;
                * pero hay las que luchan toda la vida.
                * Esas, son las imprescindibles". Fragmento.Bertolt Brecht

 * Tenemos ahora un contexto para poder valorar “los gradientes de bondad” que aquí se invocan: lo que se juzga es la calidad de las personas o quizá más propiamente (aunque con fines estilísticos, elidido en el poema) la relevancia social de estas personas.
 * Cualquiera sea el asunto al que refiere la variable, es necesario conocerlo para poder dar sentido a los valores que potencialmente la conforman.
 
 * Este asunto es al que se refiere el tercer requisito que hemos señalado: el de la existencia de un “fundamento común”. Deberá existir un fundamento que vincule a los valores entre sí; o, dicho de otro modo, un fundamento a partir del cual se distingan o delimiten las diferencias.
 * CONTEXTO- De modo que la ubicación del niño en un cierto estadio cognitivo resulta de sus producciones, por una parte, y del grupo de niños, por la otra (el contexto en que participa).

 * Esta idea se comprende fácilmente si se advierte que sacarse 7 en una comisión que obtuvo de promedio 10 no es lo mismo que sacarse 7 en una comisión que obtuvo de promedio 5. En el primer caso, la nota es baja (al menos si se la considera por referencia al grupo), mientras que en el segundo, es alta. Pero además el promedio (sea de 10 o de 5) es un valor del grupo, o más precisamente de una variable que corresponde al grupo. Aunque ese valor se obtuvo como resultado del análisis o agregado de las notas aportadas por cada integrante de ese grupo (incluido el 7 del ejemplo) . Cada integrante constituye un caso de unidad de análisis sub-unitario, por referencia a la unidad de análisis grupo.

 * De allí que también pueda decirse que la relación desde los niveles inferiores es constitutiva (o constructiva) “hacia arriba”, mientras que la relación de los niveles superiores hacia los inferiores, es decir, “hacia abajo”, es regulativa (o resignificativa).
 * Esta “realidad estratigráfica” –como la denomina Samaja– es propia de todo asunto de investigación, ya que cualquiera sea la naturaleza del objeto a investigar, éste constituye un “sistema complejo” que reconoce “partes componentes” que integran y se integran en “contextos”.


 * Las comparaciones toman en cuenta el contexto institucional. Si el parámetro es la cantidad de la oferta, y se mide la cantidad de actividades brindadas por cada una de las entidades medimos el total de la oferta comunitaria. Ahora si ponemos el foco en una organización la cantidad de actividades ofrecidas es relativa al tamaño de la organización medida por la cantidad de integrantes y participantes de la organización.
                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                              
 * ANÁLISIS DE LAS ENTREVISTAS- Análisis cualitativo
 * Se podría extraer de los diversos discursos “campos de sentido comunes”: tomar todos los fragmentos en que los entrevistados hicieron referencia a un cierto valor o sentido común; aún cuando se hayan expresado de muy diversas maneras. La construcción de estas taxonomías temáticas constituirá entonces un progresiva tarea de lo que aquí definimos como una construcción “desde el valor a la variable”, aún cuando, pueda suceder que un mismo material empírico corresponda a más de una dimensión de análisis.
 * Ampliando las tesis de R. Hanson (quien sostuvo que todo dato está cargado de teoría), Samaja sostiene que todo dato “está cargado de praxis”. Se podría agregar también que “toda praxis está cargada de historia”.
 * Lo que la historia decanta como praxis actual, es resultado de un proceso formativo en el que seleccionan –se privilegian y se eliminan– ciertas posibilidades de la acción relevantes para quien se sirve de ellas.

BIBLIOGRAFÍA CONSULTADA
 * Bibliografía citada

Galtung, Johan: Teoría y Técnicas de la investigación social. Buenos Aires. EUDEBA, Tomo I y II., 1973.

Hejlmslev, Louis: Prolegómenos a una teoría del lenguaje. Madrid, Ed. Gredos, 1984.

Mosterín, Jesús: Conceptos y teorías en la ciencia. Madrid, Alianza, 1987.

Samaja, Juan: Metodología y Epistemología. Buenos Aires, Ed. Eudeba, 1993.
-“Ontología para investigadores” en Perspectivas metodológicas. Buenos Aires, UNLa. Año1 Nº1; Nov. 2001.
-Semiótica y dialéctica. Buenos Aires, Ed. JVE, 2000.
-“Los caminos del conocimiento” –en Semiótica y dialéctica- Libro inédito.
-“El papel de la hipótesis y las formas de inferencia en la investigación científica”. En Semiótica y dialéctica- Libro inédito.
----
PRESENTACIONES
 * APLICACIONES PARA HACER PRESENTACIONES
 * https://visme.co/blog/es/aplicaciones-para-hacer-presentaciones/
----
 * MODELO DE PRESENTACIÓN PARA DESARROLLAR UN TRABAJO DE INVESTIGACIÓN TEMÁTICA
 * https://www.memoria.fahce.unlp.edu.ar/proyectos/py.1020/py.1020.pdf
----
 * TALLERES Y WEBINARS
 *
-----
 * METODOLOGÍAS EX ANTE
 * qué es un diagnóstico ex antes
 * Metodos de evaluación ex ante. En que momento, para qué y con qué información?
 * https://cgspace.cgiar.org/items/c63c29d6-d74e-4c94-8dab-d9d924c5a491
Miniatura
Archivos
Andrade 2024 Agrosavia -- Metodos evaluacion ex ante.pdf (2.39 MB)
Andrade 2024 CIRAD --Syllabus Foresight Agrosavia.pdf (88.62 KB)
Autores
Andrade, Robert
Date Issued
2024-12-03
Metadata
Citación
Andrade, R. (2024) Metodos de evaluación ex ante. En que momento, para qué y con qué información? Presentado en Curso de Fundamentación en Evaluación de Impacto. Bogotá, 3 de diciembre de 2024. 41 sl.

Resumen
Este curso tiene como objetivo principal aprender métodos comunes de evaluación ex ante. La evaluación ex ante es fundamental en la planificación de políticas y proyectos, ya que permite analizar de manera anticipada los posibles impactos económicos, sociales y ambientales de una intervención antes de su implementación. Esta herramienta ayuda a identificar riesgos, oportunidades y costos, facilitando la toma de decisiones informadas y la optimización de recursos. Al modelar escenarios futuros, la evaluación ex ante orienta a los responsables a diseñar estrategias más efectivas y sostenibles, maximizando beneficios y minimizando efectos adversos. Su uso es clave en sectores como la agricultura, donde decisiones estratégicas pueden tener amplias repercusiones en la seguridad alimentaria y el desarrollo económico.

URI
https://hdl.handle.net/10568/169086
Author ORCID identifiers
Robert Andrade https://orcid.org/0000-0002-5764-3854
----
METODOLOGÍA DELPHY

El método Delphi
La idea básica
Términos clave
Historia
Gente
Corporación RAND
James Surowiecki
Consecuencias
Controversias
Estudios de caso
Recursos TDL relacionados
Fuentes
---
La idea básica
El método Delphi es una técnica utilizada en la toma de decisiones grupales y en algunas formas de investigación cualitativa. Consiste en reunir a un panel de expertos, pedirles que completen una encuesta o cuestionario individualmente y compartir estas respuestas anónimas dentro del panel para facilitar la retroalimentación y el debate. A cada experto se le presentan nuevamente las preguntas y el proceso se repite. Se espera que todas las opiniones converjan finalmente en torno a un consenso general.

El método Delphi se ha utilizado ampliamente en la elaboración de pronósticos, especialmente en los ámbitos empresarial y tecnológico. También es una herramienta común en las políticas públicas: cuando los responsables políticos recurren a paneles de expertos para fundamentar decisiones sobre temas como la sanidad, la educación y el cambio climático, suelen utilizar el método Delphi.


Donde todos piensan igual, nadie piensa mucho.


– Walter Lippman

Términos clave
Método Delphi : Técnica de investigación y toma de decisiones en la que expertos individuales expresan su opinión sobre un tema específico y luego responden a las opiniones de los demás. Posteriormente, reevalúan su decisión antes de presentarla definitivamente. En la mayoría de los casos, se alcanza un consenso general.

La sabiduría de las multitudes : la teoría que sostiene que las decisiones tomadas por grupos suelen ser de mejor calidad que las tomadas por individuos.

Consenso – Acuerdo general alcanzado por los miembros de un grupo.

Historia
Aunque su nombre se inspiró en el Oráculo de Delfos, una suma sacerdotisa de la Antigua Grecia, el método Delphi tiene sus raíces en la guerra. Fue desarrollado en Estados Unidos al comienzo de la Guerra Fría, como una forma de predecir el papel que desempeñaría la tecnología en futuros conflictos bélicos.<sup> 1 </sup> Así pues, a diferencia de la gran mayoría de las teorías y métodos que encontramos en las ciencias del comportamiento, el método Delphi no surgió realmente de la investigación académica.

En 1944, el general Henry Arnold encargó un informe al Cuerpo Aéreo de los Estados Unidos sobre las capacidades tecnológicas que las fuerzas armadas podrían desplegar en el futuro. Tras numerosos intentos y errores con enfoques convencionales de predicción, incluyendo modelos cuantitativos y extrapolación de tendencias, se hizo evidente la necesidad de una técnica novedosa para predecir situaciones con parámetros aún por determinar. Como resultado, el centro de estudios de políticas públicas estadounidense RAND Corporation, dirigido por Norman Dalkey y Olaf Helmer, desarrolló el método Delphi. En sus primeras aplicaciones, la técnica se utilizó para investigar la probabilidad y los posibles efectos de futuros ataques contra Estados Unidos. Los expertos realizaban estimaciones, las discutían y volvían a estimar, en un proceso conocido como «Estimar-Discutir-Estimar». La idea era que las opiniones convergieran finalmente en torno a las mismas estimaciones repetidas.

Desde entonces, el método Delphi se ha aplicado en una amplia gama de ámbitos, incluyendo los negocios, el gobierno, la medicina y la ciencia.² Si bien existe una gran variación en su uso, la estructura general de Estimar-Discutir-Estimar define el método Delphi. En la formulación de políticas, el Delphi de Políticas³ se utiliza para generar las opiniones políticas más divergentes sobre cómo abordar un tema político importante. También ha sido fundamental en el desarrollo de la democracia directa y la participación de las partes interesadas, ya que los responsables políticos buscan cada vez más involucrar a una amplia gama de expertos en la toma de decisiones.

Dicho esto, el método Delphi no fue la primera técnica en abogar por el aprovechamiento de los grupos en la toma de decisiones. Científicos y matemáticos habían observado desde hacía tiempo las ventajas de utilizar grupos en lugar de individuos para tomar decisiones. En 1907, Francis Galton (primo de Charles Darwin) observó cómo el promedio de todas las participaciones en un concurso de adivinar el peso del buey en una feria rural resultó ser increíblemente preciso, incluso más que las estimaciones de la mayoría de las personas, incluidos los agricultores y los supuestos expertos en ganado.⁴ El concepto se desarrolló y hoy se conoce como la Sabiduría de las Multitudes.

Gente
Corporación RAND
La organización creadora del método Delphi, RAND, es un centro de estudios sobre políticas públicas con sede en Santa Mónica, California. Norman Dalkey y Olaf Helmer lideraron el proyecto del método Delphi dentro de RAND, inicialmente con el objetivo de fomentar la colaboración entre expertos militares.

James Surowiecki
Periodista estadounidense y antiguo redactor de The New Yorker , Surowiecki es conocido principalmente por su libro de 2004 titulado « La sabiduría de las multitudes: por qué muchos son más inteligentes que pocos y cómo la sabiduría colectiva moldea los negocios, las economías, las sociedades y las naciones» . En él, argumenta que, en la mayoría de los casos, los grupos numerosos demuestran mayor inteligencia y toman mejores decisiones que los individuos.



Introducción al cambio de comportamiento
Comienza tu camino hacia el cambio de comportamiento en el lugar correcto.
¿ Qué es el cambio de comportamiento?

Aprende las herramientas del oficio ⮕

Marcos de referencia para un cambio duradero ⮕

Cambio de comportamiento en acción ⮕

Hacer carrera a través del cambio de comportamiento ⮕

Vea ejemplos del mundo real ⮕

Conceptos y tendencias avanzadas ⮕

Consecuencias
Tras ser desclasificado por el gobierno estadounidense, el método Delphi cobró relevancia y fue adoptado en diversos campos. Para 1980, se habían publicado numerosos artículos y libros sobre el tema, especialmente en las ciencias sociales y las políticas públicas.

En los últimos años, el método Delphi ha evolucionado desde su aplicación inicial como herramienta de pronóstico hasta su uso más extendido en la investigación cualitativa y la consulta con las partes interesadas. Actualmente, se utilizan formatos más reducidos en el ámbito empresarial; por ejemplo, en reuniones presenciales donde los participantes expresan sus opiniones iniciales, ofrecen retroalimentación al grupo y luego reafirman sus puntos de vista finales. Esta variante se utiliza a veces como alternativa a la lluvia de ideas en las reuniones de estrategia.

Otras variantes incluyen el método Delphi de políticas³ , que busca consultar las opiniones más extremas sobre un tema público importante, brindando a los gobiernos una idea de algunos argumentos que deben considerar al elaborar nuevas políticas. Un ejemplo de esto es la herramienta de consulta «Asamblea Ciudadana», que se ha implementado con éxito en países como Canadá, Irlanda y los Países Bajos, entre otros.⁶

Finalmente, el método Delphi 7 se centra más en el proceso y se utiliza para fomentar el debate continuo y evaluar los argumentos relevantes sobre un tema, en lugar de buscar el consenso. Gracias a sus numerosas variantes y su uso en un número creciente de campos, el método Delphi sigue siendo más influyente que nunca.

Controversias
El principal argumento en contra del método Delphi es que despoja a la toma de decisiones grupales del contexto grupal. No se produce discusión ni debate en tiempo real porque los expertos dan sus opiniones y reciben retroalimentación sin interactuar con los demás miembros del panel. La influencia de los factores contextuales propios de un grupo —por ejemplo, la presión social— no es tan prominente en el método Delphi como en la toma de decisiones grupales convencional (comités o reuniones). Los expertos no tienen la oportunidad de debatir entre sí porque el método Delphi exige una «retroalimentación controlada», que generalmente no es interactiva. 8

Otro problema surge cuando los participantes malinterpretan las preguntas o cuando los ítems del cuestionario dan lugar a diversas interpretaciones. Las preguntas abiertas representan un desafío particular, ya que dificultan a los facilitadores la identificación de patrones de opinión. También surgen dificultades cuando los "expertos" involucrados poseen distintos niveles de experiencia. Lamentablemente, el método Delphi no tiene en cuenta factores psicológicos como el síndrome del impostor ni el papel de los sesgos cognitivos .

Estudios de caso
Cuerpo Aéreo de los Estados Unidos: Pronóstico de escenarios de la Guerra Fría
Como ya hemos mencionado, el método Delphi se desarrolló inicialmente para el Cuerpo Aéreo del Ejército de los Estados Unidos con el fin de predecir la probabilidad de ataques soviéticos durante la Guerra Fría. Dalkey, Helmer y su equipo en la Corporación RAND (conocida entonces como Proyecto RAND) buscaban utilizar el asesoramiento de expertos para predecir cómo los soviéticos seleccionarían y atacarían objetivos militares estadounidenses. Buscaban específicamente estimaciones sobre la cantidad de misiles atómicos que se esperaba que los soviéticos utilizaran en sus ataques y el impacto que estos tendrían en los recursos estadounidenses. En esencia, intentaban predecir cómo actuarían los estrategas militares soviéticos hacia Estados Unidos en el futuro.

Para ello, el equipo de RAND Corporation involucró a diversos expertos y recopiló sus estimaciones mediante lo que se convertiría en el método Delphi. Su objetivo era “ recopilar el consenso de opinión más fiable de un grupo de expertos mediante una serie de cuestionarios intensivos intercalados con retroalimentación de opinión controlada” .²

Atención sanitaria: directrices clínicas
El método Delphi ha demostrado ser particularmente útil en el desarrollo de guías clínicas para ciertas enfermedades. Su principal beneficio radica en que permite considerar una amplia gama de opiniones de expertos; de hecho, la mayoría de las investigaciones clínicas han evolucionado para extender este título de "experto" a pacientes, cuidadores (por ejemplo, padres) y grupos de defensa de los pacientes. Como señala Natalie Street, de los Centros para el Control y la Prevención de Enfermedades (CDC), "los médicos son expertos, pero los pacientes con la enfermedad también lo son. Son quienes viven con ella a diario".⁹ El anonimato del método Delphi permite a los pacientes expresar su opinión sin temor a ser cuestionados o, peor aún, ridiculizados por expertos médicos. Los pacientes y cuidadores pueden ofrecer sus opiniones en un entorno controlado, y la probabilidad de que se produzca el sesgo de devaluación reactiva es mucho menor. Finalmente, el mero hecho de que los pacientes participen en la fase de consulta aumenta considerablemente la probabilidad de que sigan las guías por sí mismos (véase: efecto Ikea) .. )

Recursos TDL relacionados
Toma de decisiones en grupo: Cómo ser eficaz y eficiente

Yasmine Kalkstein explica cómo los grupos pueden evitar el pensamiento grupal y lograr que las reuniones sean más efectivas y eficientes.

COVID-19 y la ciencia de la percepción del riesgo.

Cómo la "sabiduría colectiva" puede mejorar la verificación de datos sobre el riesgo de la COVID-19.

Fuentes
RAND Corp. (2021). Método Delphi. Recuperado el 11 de febrero de 2021 de https://www.rand.org/topics/delphi-method.html
Gupta, UG, & Clarke, RE (1996). Teoría y aplicaciones de la técnica Delphi: una bibliografía (1975–1994). Technological forecasting and social change , 53 (2), 185-211.
Franklin, KK y Hart, JK (2007). Generación y exploración de ideas: beneficios y limitaciones del método de investigación Delphi para políticas públicas. Innovative Higher Education , 31 (4), 237-246.
La verdadera sabiduría de las multitudes. (2021). Recuperado el 11 de febrero de 2021, de https://www.nationalgeographic.com/science/phenomena/2013/01/31/the-real-wisdom-of-the-crowds/
Surowiecki, J. (2005). La sabiduría de las multitudes . Anchor.
Beekers, E. (2021). ¿Son las asambleas ciudadanas el futuro de la participación? – Blog de CitizenLab. Recuperado el 15 de marzo de 2021, de https://www.citizenlab.co/blog/civic-engagement/are-citizens-assemblies-the-future-of-participation/
Mukherjee, N., Huge, J., Sutherland, WJ, McNeill, J., Van Opstal, M., Dahdouh‐Guebas, F., & Koedam, N. (2015). La técnica Delphi en ecología y conservación biológica: aplicaciones y directrices. Methods in Ecology and Evolution , 6 (9), 1097-1109.
Rowe, G., & Wright, G. (1999). La técnica Delphi como herramienta de pronóstico: problemas y análisis. Revista internacional de pronóstico, 15(4), 353-375.
Corporación RAND. (2021). Dar voz a los pacientes en las guías médicas. Recuperado el 11 de febrero de 2021 de https://www.rand.org/blog/rand-review/2019/12/giving-patients-a-voice-in-medical-guidelines.html

Metodologias


  • HERRAMIENTAS CUALITATIVAS
  • LA ENTREVISTA EN PROFUNDIDAD, TÉCNICAS CUALITATIVAS
  • https://www.youtube.com/watch?v=XQsPR-pv2nc

  • Explicación teórica de los elementos medodológicos cualitativos.
  • LA ENTREVISTA
  • https://www.youtube.com/watch?v=xQjkLh36YTw

  • ¿Cómo hacer una ENTREVISTA en PROFUNDIDAD?: 5 PASOS | Lorena Ronda | Universidad de Deusto
  • 5 Reglas
  • De lo general a lo particular
  • De la teoría a la práctica (qué es lo que piensa, luego qué es lo que hace)
  • de lo impersonal a lo íntimo
  • De las acciones a las opiniones
  • De lo racional a lo emocional
  • Laddering - preguntar ¿el por qué?


  • LOS GRUPOS FOCALES/ FOCUS GROUP
  • ¿Cómo hacer un FOCUS GROUP?: Explicación y 5 PASOS | Lorena Ronda | Universidad de Deusto
  • https://www.youtube.com/watch?v=g-LHsZXtPyE

  • 1-Personas invitadas. ¿A quién queremos estudiar? En función de lo cual definiremos a quién conviene invitar, que el grupo que es de nuestro interés esté representado. Es decir, cuidar que la muestra sea representativa.
  • 2- El guión. No pueden ser preguntas fijas. Deben ser grandes áreas temáticas
  • 3- La persona moderadora. Ser empática y distante al mismo tiempo sin involucrarse con los participantes. Animar a participar. Buscar respuestas concretas.
  • 4- Encontrar insigts
  • 5- Vídeo, y desgrabación



  • Tipologías
  • Las categorías de las variables deben estar clara y operativamente definidas, la escala debe ser exhaustiva (incluir todas las posibilidades) y las clases mutuamente excluyentes (cada observación solo puede ser asignada a una opción).
  • De 0 a 15 años _

  • o De 15 a 30 años _

  • o De 30 a 50 años _

  • o De 50 a 60 años _

  • o Más de 60 años _

  • Las categorías tienen que ser exhaustivas y excluyentes poner de 15 a 16, de 30 a 31 y así sucesivamente hasta los más de 61


  • ¿Cómo construir el formulario de una encuesta?
  • https://filadd.com/doc/recomendaciones-para-elaborar-una-encuesta-2014

  • Las categorías de las variables deben estar clara y operativamente definidas, la escala debe ser exhaustiva (incluir todas las posibilidades) y las clases mutuamente excluyentes (cada observación solo puede ser asignada a una opción).


  • TIPOLOGÍAS
  • EXPLORADOR: cómo se elabora una tipología científica ¿qué es una tipologia?
  • https://www.teseopress.com/metodologiadelainvestigacion/chapter/capitulo-4-tipologiasfootnote-en-este-capitulo-los-autores-retoman-y-amplian-nociones-expuestas-en-cohen-nestor-y-gabriela-gomez-rojas-2011-las-tipologias-y-sus-aportes-a-las-teorias-y/

  • Para el autor, los tipos postulan un mundo social empírico más homogéneo y con más coherencia lógica que lo que la experiencia cotidiana nos permite observar. Los tipos en Bauman, y lo fueron en Weber, son un recurso ordenador de las categorías o dimensiones teóricas, como paso intermedio para su abordaje y análisis. Los tipos no reproducen la realidad, para Bauman lo caótico de la realidad es irreproducible. Los tipos ideales facilitan el trabajo interpretativo del investigador y contribuyen a la producción de teoría. Esta contribución es posible porque las etapas iniciales de desarrollo de los tipos ideales exigen una tarea de sistematización y especificación conceptual vinculada al fenómeno estudiado. Sistematizar y especificar la teoría implica ponerla en acto, exponerla a la realidad acerca de la cual predica. Los tipos ideales no son sometidos a contrastación empírica, pero deben contribuir teóricamente a la comprensión e interpretación del campo empírico.
  • SEGUIR EXPLORANDO QUE ESTÁ BUENÍSIMO



PREGUNTAS ORIENTADORAS


ELABORACIÓN DE UN CUESTIONARIO PARA ENTREVISTAS



  • Tendencia central, Dispersión y Distribución.


  • DISTRIBUCIONES UNIDIMENSIONALES: INTRODUCCIÓN
  • http://www.ub.edu/aplica_infor/spss/cap2-1.htm

  • Todo análisis estadístico se inicia con una primera fase descriptiva de los datos. ésta tiene por objeto sintetizar la información mediante la elaboración de tablas de frecuencias, representaciones gráficas y el cálculo de medidas estadísticas (o estadísticos). Estos procedimientos descriptivos dependen de la naturaleza de la variable o atributo que se analiza y, en este sentido, el programa SPSS los recoge en dos menús diferentes según se empleen, básicamente, para sintetizar datos cualitativos o datos cuantitativos. Así mismo, el programa diferencia entre los procedimientos descriptivos que hacen referencia al análisis de una sola variable (análisis unidimensional) de los relativos a dos o más variables conjuntamente (análisis bidimensional o multidimensional).

DISTRIBUCIONES DE FRECUENCIAS

  • Las distribuciones o tablas de frecuencias permiten resumir los datos en una tabla que recoge:
  • • valores de la variable o modalidades del atributo,
  • • frecuencia absoluta o número de veces que aparece cada valor o modalidad en la muestra,
  • • porcentaje de veces que aparece cada valor de la variable o modalidad del atributo sobre el total de observaciones,
  • • porcentaje válido calculado sobre el total de observaciones excluidos los valores missing,
  • • porcentaje acumulado hasta cada uno de los valores de la variable ordenados de menor a mayor. Este porcentaje tiene interpretación sólo en los casos en que la variable sea susceptible de medida por lo menos en una escala ordinal.

Para obtener la tabla de frecuencias se procede con el menú:

Analizar

  • Estadísticos Descriptivos Frecuencias


  • Estadísticas descriptivas y análisis de datos:

http://www1.frm.utn.edu.ar/estadistica/documentos/ed&ad.pdf


  • LA TRIANGULACIÓN METODOLÓGICA
  • Revista Cubana de Salud Pública-versión On-line ISSN 1561-3127- Rev Cubana Salud Pública vol.44 no.2 Ciudad de La Habana abr.-jun. 2018
  • http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S0864-34662018000200431

  • La triangulación metodológica (Pasos para una comprensión dialéctica de la combinación de métodos)
  • Methodological triangulation (for a dialectic understanding of the approaches combination)
  • Juan Samaja- Universidad Central de Venezuela.2018
  • Jick fundamenta la primera tesis diciendo que los métodos cualitativos (por ejemplo, el trabajo de campo) y los métodos cuantitativos (las encuestas) son, en verdad, dos extremos de un continuum, antes que “dos tipos de métodos distintos”. El autor sostiene que desde el mismo momento en que el investigador se enfrenta a la operacionalización de variables complejas (mediante la construcción de índices de muchos ítems, o la combinación de más de un observable o indicador), tiene que vérselas con una “combinación de procedimientos” que pone en juego la “integración metodológica”.
  • Volvamos sobre la idea de continuum: la tesis de Jick asevera que la integración metodológica se da en toda investigación científica: desde el grado mínimo en la construcción de una medida resumen en el interior de una variable con muchas dimensiones, hasta el enriquecimiento de la interpretación de los datos obtenidos sobre el sujeto de estudio, que se relacionan con los datos de las variables del contexto.
  • La premisa global sobre la que se asienta el valor universal de esta estrategia (que la vuelve casi inevitable) es la de que cada método, por separado, es débil, porque carece de los ingredientes mínimos para despejar los interrogantes que plantean los datos que él mismo produce. Por el contrario, en la relación entre dos o más métodos, surge la posibilidad de contrapesar resultados, ponderar resultados, enriquecer la comprensión de los resultados y, una vez que se producen incoherencias insalvables, de abrir nuevos horizontes de problemas, nuevas interrogantes. “Medidas múltiples e independientes -escribe Robin- no comparten la misma debilidad o potencialidad de sesgo”.
  • Y lo sorprendente es que tanto las debilidades como las potencialidades diversas producen siempre un efecto progresivo, como resultado de la integración metodológica: ya sea porque la convergencia resuelve de manera convincente las cuestiones planteadas, o porque la divergencia instala cuestiones imprevistas.
  • lo que Jick nos entrega a lo largo de su interesante presentación reafirma precisamente las muchas ventajas que ofrece la “triangulación metodológica”. De manera particular, las siguientes:
  • * Mejora la confianza en los resultados (lo que nos resulta trivial, toda vez que se ha partido de identificar la triangulación con las pruebas de confiabilidad y con las pruebas de validación convergente);
  • * estimula la invención o la introducción de nuevos métodos, en la medida en que predispone positivamente a los investigadores para abordar sus temas focales con una variada gama de perspectivas;
  • * permite descubrir dimensiones desconocidas de los fenómenos estudiados, en tanto las diferencias producidas por distintos métodos hacen visibles atributos previamente inadvertidos;
  • * promueven la búsqueda de síntesis teóricas;
  • * mantiene la vigencia de los métodos que suponen una suficiente proximidad con el objeto mismo, y que, por lo mismo, brindan una información densa y rica que contribuye a darle a las interpretaciones el brillo y la vivacidad que no tienen los métodos cuantitativos.
  • * Nosotros pensamos que la forma más fructífera de rexaminar estas cuestiones consiste en adoptar una perspectiva realmente integral del proceso de investigación, de modo que en todo momento se tenga presente la totalidad de los elementos de su estructura y la secuencia de su dinámica.
  • * De una perspectiva semejante se desprenden las siguientes conclusiones:
  • SEGUIR EXPLORANDO
  • Dicho en términos metodológicos, toda investigación define un nivel propio de trabajo (conductas, pacientes, grupos, ciudades, regiones, etc.), que llamaremos “Nivel de Anclaje”. Pero también define, de manera implícita o explícita, posibilidades definidas de análisis de esos objetos en componentes menores. Llamaremos a este nivel “Nivel Subunitario”. Del mismo modo, presupone ciertas “condiciones de contorno”, que llamaremos “Nivel Subunitario”.
  • Los contextos, las unidades de análisis y los componentes de las unidades de análisis definen conjuntos de datos, cuyos enunciados pertenecen a distintos tipos lógicos. Decimos, entonces, que toda investigación científica se desenvuelve en el seno de un sistema de matrices.
  • En este proceso, las determinaciones del objeto de estudio (unidades de análisis del nivel de anclaje) se pueden conceptualizar como absolutas (es decir, propias de cada unidad); o relacionales (es decir, emergentes de las relaciones que las unidades guardan entre sí); o contextúales (aquellas que produce la inclusión de las unidades en los contextos o condiciones de contorno).


  • TODO DATO ESTÁ CARGADO DE TEORÍA
  • Parte II. Examen del Proceso de investigación
  • Guardado en Metodologías - Documento Examen del Método Científico
  • Por lo demás, el modo en que se concibe un asunto de investigación puede dar lugar a muy diverso tipo de datos.
  • Unidad de análisis- Las organizaciones de la comunidad y su oferta para PMs
  • Oferta para PMs
  • EJEMPLOS
  • una hipótesis sostiene que: “La participación en clase mejora la motivación del estudiante para el aprendizaje de cualquier asignatura”.
  • Entonces se puede postular como hipótesis de trabajo que “Los alumnos que integran clases participativas presentan más altos índices de motivación y mejores logros en matemáticas que los alumnos que reciben iguales contenidos sin estimular la participación en clase”
  • Para confirmar o rechazar esta hipótesis se deberá imaginar una experiencia concreta para ponerla a prueba. Por ejemplo, se podrían comparar distintos grupos de estudiantes de matemáticas, según gradientes en la promoción de participación en la clase, para evaluar luego sus niveles de motivación en la materia: eso exige -entre otras cosas- especificar las características de esos alumnos, precisar cómo va a definirse y cómo va a medirse eso que llamamos “participación en clase”, “motivación con la materia” y “logros en matemática”.
  • A la luz de este ejemplo, podemos ahora examinar los componentes del dato, con el nombre propio que tienen en la jerga de la investigación científica:
  • a. Unidad de análisis: definimos con este nombre a las entidades/eventos/sujetos/objetos en las que se focaliza la descripción o el análisis en un cierto momento de la investigación. En el ejemplo,alumnos de la clase de matemáticas;
  • LA OFERTA de las Organizaciones de la Comunidad A LAS PMs
  • b. Dimensiones de análisis o variables: constituyen los aspectos/ características/ propiedades/atributos que se han seleccionado para examinar o estudiar a las unidades de análisis. Se llaman variables porque refieren a variaciones entre distintos estados o valores. En el ejemplo tenemos tres grandes variables: nivel de participación en la clase, motivación para el aprendizaje, nivel de logro en matemáticas.
  • Oferta general: de actividades, programas y servicios donde participan las PMs
  • Oferta específica: aquellas actividades, programas y servicios diseñados y dirigidos a las PMs
  • Oferta actual: está integrada por la oferta general y la oferta específica
  • Hay una oferta potencial
  • c. Valores o categorías: constituyen los estados particulares que pueden asumir las variables. Por ejemplo, la “motivación para el aprendizaje” puede ser «alta», «media» o «baja». Estas tres categorías son los valores entre los que puede fluctuar la variable.
  • La oferta actual es más o menos abierta, mayormente gratuita, generalmente presencial, considerada oportuna y que satisface necesidades reales de las PMs
  • d. Indicadores o definiciones operacionales: constituyen las maneras de medir o evaluar las variables: qué que se medirá (lo vamos a denominar dimensión del indicador) y cómo se medirá (lo que vamos a denominar procedimiento del indicador). En nuestro ejemplo, se refieren a todos aquellos aspectos a considerar y procedimientos a implementar para evaluar el logro en matemáticas, la motivación para el aprendizaje y el nivel de participación en la clase. Por ejemplo, la participación podría medirse como “la cantidad de veces que el alumno interviene en la clase” observando de manera directa –aunque no participativa– a los alumnos.
  • Detalles y características de la oferta específica: cada actividad/Programa/ Servicio
  • * Cantidad: aproximadamente cuántas personas reciben el servicio, participaron o participan en el programa o actividad.Cantidad total de usuarios promedio aproximados/estimados de 2023.
  • * Géneros participantes: preferentemente mujeres, preferentemente varones, otras opciones ¿cuáles? Porcentaje de hombres/mujeres /indefinido.
  • * Modalidad: Presencial: en la organización/en domicilio- Formato Online- Formato simultáneo (en la organización/online a elección)
  • * Costo de la actividad: Es gratuita o arancelada o ambas
  • * Exclusividad: Solo para miembros de la comunidad judía o abierta a cualquier miembro de la sociedad
  • * Evaluación de la respuesta del usuario. La participación y respuesta a la oferta de este servicio, programa, actividad fue/es considerada muy alta....
  • Los cuatro componentes del dato pueden ser concebidos como el resultado de ciertas operaciones cognitivas que se siguen, cualquiera sea la naturaleza del asunto a investigar y cualquiera sea la manera particular en que ese asunto sea concebido. Esas operaciones pueden reducirse a las tres siguientes (cfr. Samaja, J.; 2002):
  • 1. entificar: es decir identificar las entidades abordables empíricamente para evaluar aquellos aspectos que se consideran potencialmente relevantes, conforme a las hipótesis (o proto-hipótesis ) de la investigación.
  • 2. clasificar: identificar la “sustancia o asunto” de la variable y definir las categorías o clases en que se clasificarán (potencialmente) las entidades.
  • 3. operacionalizar: estimar procedimientos para evaluar los estados o las clases a que pertenecen las entidades, conforme a los criterios de clasificación o categorización seleccionados.
  • DATOS
  • Un sinónimo de dato podría ser unidad de información. Es necesario advertir que –como se desprende de los ejemplos dados- el concepto de dato no se reduce al de información numérica o cuantitativa.
  • Un dato es la predicación que se atribuye a alguna entidad, en algún aspecto suyo; en base a algún procedimiento que se pretende válido y confiable.
  • En el terreno metodológico, el concepto de matriz de datos reconoce un lugaR específicamente orientado a precisar el alcance de estructuras del discurso científico.
  • Johann Galtung advirtió que todo dato se organiza conforme a una estructura lógica invariante (es decir, independiente de cualquier contenido particular), a la que denominó matriz de datos.
  • En la concepción de Galtung, esta matriz reconoce los siguientes componentes:
  • * a. los elementos de análisis o las unidades de análisis,
  • * b. las variables que se seleccionaban de esas unidades y
  • * c. los valores o las respuestas o los resultados que se obtienen cuando las unidades se exponen a ciertos estímulos.
  • * b. La matriz de datos como estructura invariante y a priori reconoce cuatro elementos y no tres. El cuarto elemento de la matriz de datos lo constituye el “indicador” que permite distinguir los aspectos operacionables (“los estímulos”) de las definiciones teóricas a los que ellos se refieren (que se expresan como variables).


  • En tanto ocurrencias o casos (definición por extensión) las unidades de análisis serán entidades identificables en algún tiempo y/o espacio, y deberán poder ser numerables o computables (de modo tal que el investigador/a podrá informar el número de unidades con el que efectivamente trabajó).
  • LOS CASOS SELECCIONADOS PARA LA MATRIZ TEÓRICA
  • Como entidades que sirvieran con fines comparativos, las propiedades que tuvieron que cumplir los casos seleccionados para ser incluidos en la matriz fueron:
  • Ofrecer actividades, programas, servicios para personas mayores
  • Ser una entidad sin fines de lucro (Organizaciones sociales y Gobiernos)
  • Que la oferta de actividades, programas, servicios para PMs estuviera institucionalmente publicada en la Web.
  • Muestra representativa: Cuál sea el número de unidades requeridas en cada investigación remite a la cuestión de las “muestras”, es decir, a los criterios que se fijen para decidir si esas unidades resultan representativas –en su estructura general– del universo al que pretenden proyectarse los resultados del estudio
  • EL TEMA DE LOS BORDES
  • De allí el gran asunto de los “bordes”: ¿dónde empieza el blanco y termina el crema o el beige, dónde el crema deja paso al amarillo, y dónde el amarillo se transforma en naranja, en verde, etc.?
  • Percibir diferencias implica también obviar o no percibir otras diferencias. Como dice Gregory Bateson, lo relevante es percibir “diferencias que hagan diferencias” y –podríamos agregar– “no percibir diferencias que no hagan diferencias”:
  • “La información consiste en diferencias que establecen una diferencia. Si yo te llamo la atención acerca de la diferencia entra la tiza y un pedazo de queso, tú serás afectado por esa diferencia, tal vez evitando comer la tiza, tal vez probándola para verificar mi aserto. La índole no quesística de la tiza se ha convertido en una diferencia efectiva; pero otro millón de diferencias –positivas y negativas, interiores y exteriores a la tiza- permanecen latentes e inefectivas” (1993:111).
  • No es posible determinar de manera absoluta la naturaleza de esos bordes. La emergencia (o el reconocimiento) de “«bordes que hacen diferencia»”, depende de funciones práxicas: sean éstas biológicas, culturales, jurídicas, tecnológicas.
  • “En galés, «verde» es gwyrdd o glas, «azul» es glas, «gris» es glas o llwyd, «castaño» es llwyd. Es decir, la parte del espectro que cubre nuestra palabra verde se encuentra cruzada en galés por una línea que asigna parte de ella a la misma zona que nuestra palabra azul, mientras que la frontera establecida entre verde y azul no se encuentra en galés. Lo que es más, el galés carece de la delimitación entre gris y castaño. Por otra parte, el área cubierta por la palabra gris se ve cruzada en galés, de modo que la mitad de ella se refiere a la misma zona que nuestro azul y la otra mitad a la misma que nuestro castaño. (Hjelmslev, L.; 1984:80).
  • EXHAUSTIVO
  • EXCLUYENTE
  • Veámoslo en un ejemplo: para valorar con justeza el sentido del término “bueno”, es necesario conocer el sistema de las relaciones en que él participa. El término «bueno» tomado como mera primeridad, es decir, como término aislado, no nos dice mucho. Sabemos qué significa de una manera muy general; se dice de una sopa que es buena y de Dios que es la pura bondad y también que bueno es el que da sin esperar. Pero para justipreciar el alcance de este término, es preciso considerarlo en relación con otros términos con los que guarda determinadas relaciones significantes, es decir, considerarlo en el sistema de las diferencias en el que participa .

Ese sistema puede ser tan variado como lo son los siguientes ejemplos: «bueno versus malo»; «bueno versus muy bueno, regular, malo y muy malo»; «bueno versus buenísimo», «bueno, muy bueno, mejor e imprescindible»

* El “mismo” término bueno adquiere sentidos distintos en cada una de estos sistemas: el primer «bueno», por ejemplo, es “más bueno” que el segundo, de modo que no es el “mismo”. Ahora bien, aunque el sistema de relaciones nos brinda criterios para juzgar sobre el alcance de cada término, aún no podemos precisar su sentido. Se necesita también del contexto, es decir, la totalidad a la que estos términos se refieren, conforme al cual el gradiente de la «bondad/maldad» cobra sentido: ¿cuál es el asunto que se diferencia según estas potenciales cualificaciones?:

  • ¿la calidad de la enseñanza secundaria?
  • ¿la intencionalidad divina?
  • La satisfacción con la vida
  • Se requiere especificar para ello el asunto o sustancia como contenido del que trata la variable. Tomemos como ejemplo el siguiente fragmento de un poema de Bertolt Brecht:
    • “hay personas que luchan un día y son buenas,
    • otras que luchan muchos días y son muy buenas,
    • otras que luchan muchos años y son mejores;
    • pero hay las que luchan toda la vida.
    • Esas, son las imprescindibles". Fragmento.Bertolt Brecht
  • Tenemos ahora un contexto para poder valorar “los gradientes de bondad” que aquí se invocan: lo que se juzga es la calidad de las personas o quizá más propiamente (aunque con fines estilísticos, elidido en el poema) la relevancia social de estas personas.
  • Cualquiera sea el asunto al que refiere la variable, es necesario conocerlo para poder dar sentido a los valores que potencialmente la conforman.
  • Este asunto es al que se refiere el tercer requisito que hemos señalado: el de la existencia de un “fundamento común”. Deberá existir un fundamento que vincule a los valores entre sí; o, dicho de otro modo, un fundamento a partir del cual se distingan o delimiten las diferencias.
  • CONTEXTO- De modo que la ubicación del niño en un cierto estadio cognitivo resulta de sus producciones, por una parte, y del grupo de niños, por la otra (el contexto en que participa).
  • Esta idea se comprende fácilmente si se advierte que sacarse 7 en una comisión que obtuvo de promedio 10 no es lo mismo que sacarse 7 en una comisión que obtuvo de promedio 5. En el primer caso, la nota es baja (al menos si se la considera por referencia al grupo), mientras que en el segundo, es alta. Pero además el promedio (sea de 10 o de 5) es un valor del grupo, o más precisamente de una variable que corresponde al grupo. Aunque ese valor se obtuvo como resultado del análisis o agregado de las notas aportadas por cada integrante de ese grupo (incluido el 7 del ejemplo) . Cada integrante constituye un caso de unidad de análisis sub-unitario, por referencia a la unidad de análisis grupo.
  • De allí que también pueda decirse que la relación desde los niveles inferiores es constitutiva (o constructiva) “hacia arriba”, mientras que la relación de los niveles superiores hacia los inferiores, es decir, “hacia abajo”, es regulativa (o resignificativa).
  • Esta “realidad estratigráfica” –como la denomina Samaja– es propia de todo asunto de investigación, ya que cualquiera sea la naturaleza del objeto a investigar, éste constituye un “sistema complejo” que reconoce “partes componentes” que integran y se integran en “contextos”.
  • Las comparaciones toman en cuenta el contexto institucional. Si el parámetro es la cantidad de la oferta, y se mide la cantidad de actividades brindadas por cada una de las entidades medimos el total de la oferta comunitaria. Ahora si ponemos el foco en una organización la cantidad de actividades ofrecidas es relativa al tamaño de la organización medida por la cantidad de integrantes y participantes de la organización.
  • ANÁLISIS DE LAS ENTREVISTAS- Análisis cualitativo
  • Se podría extraer de los diversos discursos “campos de sentido comunes”: tomar todos los fragmentos en que los entrevistados hicieron referencia a un cierto valor o sentido común; aún cuando se hayan expresado de muy diversas maneras. La construcción de estas taxonomías temáticas constituirá entonces un progresiva tarea de lo que aquí definimos como una construcción “desde el valor a la variable”, aún cuando, pueda suceder que un mismo material empírico corresponda a más de una dimensión de análisis.
  • Ampliando las tesis de R. Hanson (quien sostuvo que todo dato está cargado de teoría), Samaja sostiene que todo dato “está cargado de praxis”. Se podría agregar también que “toda praxis está cargada de historia”.
  • Lo que la historia decanta como praxis actual, es resultado de un proceso formativo en el que seleccionan –se privilegian y se eliminan– ciertas posibilidades de la acción relevantes para quien se sirve de ellas.

BIBLIOGRAFÍA CONSULTADA

  • Bibliografía citada

Galtung, Johan: Teoría y Técnicas de la investigación social. Buenos Aires. EUDEBA, Tomo I y II., 1973.

Hejlmslev, Louis: Prolegómenos a una teoría del lenguaje. Madrid, Ed. Gredos, 1984.

Mosterín, Jesús: Conceptos y teorías en la ciencia. Madrid, Alianza, 1987.

Samaja, Juan: Metodología y Epistemología. Buenos Aires, Ed. Eudeba, 1993. -“Ontología para investigadores” en Perspectivas metodológicas. Buenos Aires, UNLa. Año1 Nº1; Nov. 2001. -Semiótica y dialéctica. Buenos Aires, Ed. JVE, 2000. -“Los caminos del conocimiento” –en Semiótica y dialéctica- Libro inédito. -“El papel de la hipótesis y las formas de inferencia en la investigación científica”. En Semiótica y dialéctica- Libro inédito.


PRESENTACIONES



  • TALLERES Y WEBINARS


Miniatura Archivos Andrade 2024 Agrosavia -- Metodos evaluacion ex ante.pdf (2.39 MB) Andrade 2024 CIRAD --Syllabus Foresight Agrosavia.pdf (88.62 KB) Autores Andrade, Robert Date Issued 2024-12-03 Metadata Citación Andrade, R. (2024) Metodos de evaluación ex ante. En que momento, para qué y con qué información? Presentado en Curso de Fundamentación en Evaluación de Impacto. Bogotá, 3 de diciembre de 2024. 41 sl.

Resumen Este curso tiene como objetivo principal aprender métodos comunes de evaluación ex ante. La evaluación ex ante es fundamental en la planificación de políticas y proyectos, ya que permite analizar de manera anticipada los posibles impactos económicos, sociales y ambientales de una intervención antes de su implementación. Esta herramienta ayuda a identificar riesgos, oportunidades y costos, facilitando la toma de decisiones informadas y la optimización de recursos. Al modelar escenarios futuros, la evaluación ex ante orienta a los responsables a diseñar estrategias más efectivas y sostenibles, maximizando beneficios y minimizando efectos adversos. Su uso es clave en sectores como la agricultura, donde decisiones estratégicas pueden tener amplias repercusiones en la seguridad alimentaria y el desarrollo económico.

URI https://hdl.handle.net/10568/169086 Author ORCID identifiers Robert Andrade https://orcid.org/0000-0002-5764-3854


METODOLOGÍA DELPHY

El método Delphi La idea básica Términos clave Historia Gente Corporación RAND James Surowiecki Consecuencias Controversias Estudios de caso Recursos TDL relacionados Fuentes --- La idea básica El método Delphi es una técnica utilizada en la toma de decisiones grupales y en algunas formas de investigación cualitativa. Consiste en reunir a un panel de expertos, pedirles que completen una encuesta o cuestionario individualmente y compartir estas respuestas anónimas dentro del panel para facilitar la retroalimentación y el debate. A cada experto se le presentan nuevamente las preguntas y el proceso se repite. Se espera que todas las opiniones converjan finalmente en torno a un consenso general.

El método Delphi se ha utilizado ampliamente en la elaboración de pronósticos, especialmente en los ámbitos empresarial y tecnológico. También es una herramienta común en las políticas públicas: cuando los responsables políticos recurren a paneles de expertos para fundamentar decisiones sobre temas como la sanidad, la educación y el cambio climático, suelen utilizar el método Delphi.

Donde todos piensan igual, nadie piensa mucho.

– Walter Lippman

Términos clave Método Delphi : Técnica de investigación y toma de decisiones en la que expertos individuales expresan su opinión sobre un tema específico y luego responden a las opiniones de los demás. Posteriormente, reevalúan su decisión antes de presentarla definitivamente. En la mayoría de los casos, se alcanza un consenso general.

La sabiduría de las multitudes : la teoría que sostiene que las decisiones tomadas por grupos suelen ser de mejor calidad que las tomadas por individuos.

Consenso – Acuerdo general alcanzado por los miembros de un grupo.

Historia Aunque su nombre se inspiró en el Oráculo de Delfos, una suma sacerdotisa de la Antigua Grecia, el método Delphi tiene sus raíces en la guerra. Fue desarrollado en Estados Unidos al comienzo de la Guerra Fría, como una forma de predecir el papel que desempeñaría la tecnología en futuros conflictos bélicos.<sup> 1 </sup> Así pues, a diferencia de la gran mayoría de las teorías y métodos que encontramos en las ciencias del comportamiento, el método Delphi no surgió realmente de la investigación académica.

En 1944, el general Henry Arnold encargó un informe al Cuerpo Aéreo de los Estados Unidos sobre las capacidades tecnológicas que las fuerzas armadas podrían desplegar en el futuro. Tras numerosos intentos y errores con enfoques convencionales de predicción, incluyendo modelos cuantitativos y extrapolación de tendencias, se hizo evidente la necesidad de una técnica novedosa para predecir situaciones con parámetros aún por determinar. Como resultado, el centro de estudios de políticas públicas estadounidense RAND Corporation, dirigido por Norman Dalkey y Olaf Helmer, desarrolló el método Delphi. En sus primeras aplicaciones, la técnica se utilizó para investigar la probabilidad y los posibles efectos de futuros ataques contra Estados Unidos. Los expertos realizaban estimaciones, las discutían y volvían a estimar, en un proceso conocido como «Estimar-Discutir-Estimar». La idea era que las opiniones convergieran finalmente en torno a las mismas estimaciones repetidas.

Desde entonces, el método Delphi se ha aplicado en una amplia gama de ámbitos, incluyendo los negocios, el gobierno, la medicina y la ciencia.² Si bien existe una gran variación en su uso, la estructura general de Estimar-Discutir-Estimar define el método Delphi. En la formulación de políticas, el Delphi de Políticas³ se utiliza para generar las opiniones políticas más divergentes sobre cómo abordar un tema político importante. También ha sido fundamental en el desarrollo de la democracia directa y la participación de las partes interesadas, ya que los responsables políticos buscan cada vez más involucrar a una amplia gama de expertos en la toma de decisiones.

Dicho esto, el método Delphi no fue la primera técnica en abogar por el aprovechamiento de los grupos en la toma de decisiones. Científicos y matemáticos habían observado desde hacía tiempo las ventajas de utilizar grupos en lugar de individuos para tomar decisiones. En 1907, Francis Galton (primo de Charles Darwin) observó cómo el promedio de todas las participaciones en un concurso de adivinar el peso del buey en una feria rural resultó ser increíblemente preciso, incluso más que las estimaciones de la mayoría de las personas, incluidos los agricultores y los supuestos expertos en ganado.⁴ El concepto se desarrolló y hoy se conoce como la Sabiduría de las Multitudes.

Gente Corporación RAND La organización creadora del método Delphi, RAND, es un centro de estudios sobre políticas públicas con sede en Santa Mónica, California. Norman Dalkey y Olaf Helmer lideraron el proyecto del método Delphi dentro de RAND, inicialmente con el objetivo de fomentar la colaboración entre expertos militares.

James Surowiecki Periodista estadounidense y antiguo redactor de The New Yorker , Surowiecki es conocido principalmente por su libro de 2004 titulado « La sabiduría de las multitudes: por qué muchos son más inteligentes que pocos y cómo la sabiduría colectiva moldea los negocios, las economías, las sociedades y las naciones» . En él, argumenta que, en la mayoría de los casos, los grupos numerosos demuestran mayor inteligencia y toman mejores decisiones que los individuos.

Introducción al cambio de comportamiento Comienza tu camino hacia el cambio de comportamiento en el lugar correcto. ¿ Qué es el cambio de comportamiento?

Aprende las herramientas del oficio ⮕

Marcos de referencia para un cambio duradero ⮕

Cambio de comportamiento en acción ⮕

Hacer carrera a través del cambio de comportamiento ⮕

Vea ejemplos del mundo real ⮕

Conceptos y tendencias avanzadas ⮕

Consecuencias Tras ser desclasificado por el gobierno estadounidense, el método Delphi cobró relevancia y fue adoptado en diversos campos. Para 1980, se habían publicado numerosos artículos y libros sobre el tema, especialmente en las ciencias sociales y las políticas públicas.

En los últimos años, el método Delphi ha evolucionado desde su aplicación inicial como herramienta de pronóstico hasta su uso más extendido en la investigación cualitativa y la consulta con las partes interesadas. Actualmente, se utilizan formatos más reducidos en el ámbito empresarial; por ejemplo, en reuniones presenciales donde los participantes expresan sus opiniones iniciales, ofrecen retroalimentación al grupo y luego reafirman sus puntos de vista finales. Esta variante se utiliza a veces como alternativa a la lluvia de ideas en las reuniones de estrategia.

Otras variantes incluyen el método Delphi de políticas³ , que busca consultar las opiniones más extremas sobre un tema público importante, brindando a los gobiernos una idea de algunos argumentos que deben considerar al elaborar nuevas políticas. Un ejemplo de esto es la herramienta de consulta «Asamblea Ciudadana», que se ha implementado con éxito en países como Canadá, Irlanda y los Países Bajos, entre otros.⁶

Finalmente, el método Delphi 7 se centra más en el proceso y se utiliza para fomentar el debate continuo y evaluar los argumentos relevantes sobre un tema, en lugar de buscar el consenso. Gracias a sus numerosas variantes y su uso en un número creciente de campos, el método Delphi sigue siendo más influyente que nunca.

Controversias El principal argumento en contra del método Delphi es que despoja a la toma de decisiones grupales del contexto grupal. No se produce discusión ni debate en tiempo real porque los expertos dan sus opiniones y reciben retroalimentación sin interactuar con los demás miembros del panel. La influencia de los factores contextuales propios de un grupo —por ejemplo, la presión social— no es tan prominente en el método Delphi como en la toma de decisiones grupales convencional (comités o reuniones). Los expertos no tienen la oportunidad de debatir entre sí porque el método Delphi exige una «retroalimentación controlada», que generalmente no es interactiva. 8

Otro problema surge cuando los participantes malinterpretan las preguntas o cuando los ítems del cuestionario dan lugar a diversas interpretaciones. Las preguntas abiertas representan un desafío particular, ya que dificultan a los facilitadores la identificación de patrones de opinión. También surgen dificultades cuando los "expertos" involucrados poseen distintos niveles de experiencia. Lamentablemente, el método Delphi no tiene en cuenta factores psicológicos como el síndrome del impostor ni el papel de los sesgos cognitivos .

Estudios de caso Cuerpo Aéreo de los Estados Unidos: Pronóstico de escenarios de la Guerra Fría Como ya hemos mencionado, el método Delphi se desarrolló inicialmente para el Cuerpo Aéreo del Ejército de los Estados Unidos con el fin de predecir la probabilidad de ataques soviéticos durante la Guerra Fría. Dalkey, Helmer y su equipo en la Corporación RAND (conocida entonces como Proyecto RAND) buscaban utilizar el asesoramiento de expertos para predecir cómo los soviéticos seleccionarían y atacarían objetivos militares estadounidenses. Buscaban específicamente estimaciones sobre la cantidad de misiles atómicos que se esperaba que los soviéticos utilizaran en sus ataques y el impacto que estos tendrían en los recursos estadounidenses. En esencia, intentaban predecir cómo actuarían los estrategas militares soviéticos hacia Estados Unidos en el futuro.

Para ello, el equipo de RAND Corporation involucró a diversos expertos y recopiló sus estimaciones mediante lo que se convertiría en el método Delphi. Su objetivo era “ recopilar el consenso de opinión más fiable de un grupo de expertos mediante una serie de cuestionarios intensivos intercalados con retroalimentación de opinión controlada” .²

Atención sanitaria: directrices clínicas El método Delphi ha demostrado ser particularmente útil en el desarrollo de guías clínicas para ciertas enfermedades. Su principal beneficio radica en que permite considerar una amplia gama de opiniones de expertos; de hecho, la mayoría de las investigaciones clínicas han evolucionado para extender este título de "experto" a pacientes, cuidadores (por ejemplo, padres) y grupos de defensa de los pacientes. Como señala Natalie Street, de los Centros para el Control y la Prevención de Enfermedades (CDC), "los médicos son expertos, pero los pacientes con la enfermedad también lo son. Son quienes viven con ella a diario".⁹ El anonimato del método Delphi permite a los pacientes expresar su opinión sin temor a ser cuestionados o, peor aún, ridiculizados por expertos médicos. Los pacientes y cuidadores pueden ofrecer sus opiniones en un entorno controlado, y la probabilidad de que se produzca el sesgo de devaluación reactiva es mucho menor. Finalmente, el mero hecho de que los pacientes participen en la fase de consulta aumenta considerablemente la probabilidad de que sigan las guías por sí mismos (véase: efecto Ikea) .. )

Recursos TDL relacionados Toma de decisiones en grupo: Cómo ser eficaz y eficiente

Yasmine Kalkstein explica cómo los grupos pueden evitar el pensamiento grupal y lograr que las reuniones sean más efectivas y eficientes.

COVID-19 y la ciencia de la percepción del riesgo.

Cómo la "sabiduría colectiva" puede mejorar la verificación de datos sobre el riesgo de la COVID-19.

Fuentes RAND Corp. (2021). Método Delphi. Recuperado el 11 de febrero de 2021 de https://www.rand.org/topics/delphi-method.html Gupta, UG, & Clarke, RE (1996). Teoría y aplicaciones de la técnica Delphi: una bibliografía (1975–1994). Technological forecasting and social change , 53 (2), 185-211. Franklin, KK y Hart, JK (2007). Generación y exploración de ideas: beneficios y limitaciones del método de investigación Delphi para políticas públicas. Innovative Higher Education , 31 (4), 237-246. La verdadera sabiduría de las multitudes. (2021). Recuperado el 11 de febrero de 2021, de https://www.nationalgeographic.com/science/phenomena/2013/01/31/the-real-wisdom-of-the-crowds/ Surowiecki, J. (2005). La sabiduría de las multitudes . Anchor. Beekers, E. (2021). ¿Son las asambleas ciudadanas el futuro de la participación? – Blog de CitizenLab. Recuperado el 15 de marzo de 2021, de https://www.citizenlab.co/blog/civic-engagement/are-citizens-assemblies-the-future-of-participation/ Mukherjee, N., Huge, J., Sutherland, WJ, McNeill, J., Van Opstal, M., Dahdouh‐Guebas, F., & Koedam, N. (2015). La técnica Delphi en ecología y conservación biológica: aplicaciones y directrices. Methods in Ecology and Evolution , 6 (9), 1097-1109. Rowe, G., & Wright, G. (1999). La técnica Delphi como herramienta de pronóstico: problemas y análisis. Revista internacional de pronóstico, 15(4), 353-375. Corporación RAND. (2021). Dar voz a los pacientes en las guías médicas. Recuperado el 11 de febrero de 2021 de https://www.rand.org/blog/rand-review/2019/12/giving-patients-a-voice-in-medical-guidelines.html

EnciclopediaRelacionalDinamica: Metodologias (última edición 2026-03-30 11:24:47 efectuada por MercedesJones)