Resúmen Método I y II
Resúmen Método I y II
Resúmen Método I y II
Comentario: ``Ayer rendí el final, me tomaron entrevista, preguntas (todo lo que sea referido a
esto), escalas (likert más que nada) y la función de los jueves en las mismas, y por ultimo
diferencias en los requisitos para medir la confiabilidad de las investigaciones cuali y cuanti´´
Primer parcial
2010 Parcial A
2010 Parcial B
2009 Parcial b
1 de 107
Unidad 1 Medición y Obtención de Información
La metodología es una reflexión acerca de los métodos y la utilización de las técnicas.
Los objetivos que el investigador se plantea lo llevan a tal o cual método o técnica. Hay que
analizar críticamente las posibilidades de cada método y técnica para avanzar hacia los objetivos de
manera correcta (clave de la metodología).
Método (Camino) ≠ Metodología (reflexión) ≠ Técnicas (que se utilizan).
La investigación científica es un tipo de investigación o forma de conocimiento que es sistemática y
controlada; es una actividad constante y planificada la cual implica una serie de etapas articuladas (etapas
del proceso de investigación)
Se caracteriza por la construcción de evidencia/referencia empírica (el dato se construye en el
proceso de inv). La construcción de ésta responde/ está subordinada a los objetivos de la investigación.
Por otro lado, esta construcción está elaborada a partir de teoría y, además, aplica reglas (métodos y
técnicas) y procedimientos que explicitan (pasos/ etapas de la inv).
En las estrategias cuantitativas, la manera en la que captamos o construimos el referente empírico
responde al problema de la medición.
Nivel de instrucción
PI P S T
C Dónde 1= a la cantidad
V 1 1 2 de unidades de análisis
que corresponden a la
intersección entre ambas
2 de 107
variables.
Sexo M
T
3 de 107
Muestreo teórico conjunto de casos luego de la saturación teórica.
Acá, el tamaño de la muestra no es a priori como en lo cuanti. Decido que una categoría está saturada
cuando de la lectura analítica veo que ya no hay más propiedades.
Análisis a partir de lo anterior, podemos decir que recolección y análisis están
muy ligados. Cuando decido que la categoría está saturada, vuelvo a leer las entrevistas y continúo con el
análisis.
4 de 107
cuidadosamente la correlación) y 3) se interpreta la evidencia empírica de acuerdo con el nivel en el que
clarifica la validez de constructo d una medición en particular.
El proceso de validación de un constructo está vinculado con la teoría (o, investigaciones que hayan
demostrado que los conceptos se relacionan). Cuanto más elaborado y comprobado se encuentre el MT
que apoya la hipótesis, la validación de este tipo arrojará mayor luz sobre la validez de un instrumento de
medición.
Confiabilidad.
Tiene que ver con que la aplicación de un mismo instrumento arroje los mismos resultados (o
similares) cuando es aplicado en dos mediciones diferentes bajo la misma situación.
El concepto de confiabilidad implica “estabilidad” (comparación de los resultados a lo largo del
tiempo) y “equivalencia” (diferentes investigaciones, en las que se aplica e mismo instrumento, referidas
al mismo problema, en un mismo tiempo, deben arrojar iguales resultados).
La credibilidad se relaciona con el uso que se haya hecho de un conjunto de recursos técnicos (como ser
el tiempo y la intensidad de las observaciones, la revisión de la información, etc.). La transferibilidad se
logra, sobre todo, a través de los diversos procedimientos de muestreo cualitativo. La dependibilidad se
hace operativa mediante una suerte de auditoria externa. Para ello el inv cuali debería facilitar la
documentación que haga posible tal inspección: guiones de entrevista, transcripciones y todo tipo de
documentos en los que se pueda seguir el rastro de su trabajo intelectual.
El profe mencionó:
Legitimidad de los hallazgos: de la cual se da cuenta mediante la selección del escenario objeto de
observación y los criterios de selección del conjunto de entrevistados.
Relato natural de la investigación: el investigador debe poder dar cuenta de cómo fue construyendo
su investigación; por Ej. debe explicitar porqué fueron seleccionadas determinadas personas y con qué
criterios se las seleccionó, cuáles son sus características, etc. (se rel. con la dependibilidad).
5 de 107
2. A veces se utilizan instrumentos desarrollados en el extranjero que no han sido validados para
nuestro contexto: cultura y tiempo. Las culturas, los grupos y las personas cambian y esto debemos
tomarlo en cuenta al elegir o desarrollas un instrumento de medición.
3. Constituido por las condiciones en las que se aplica el instrumento de medición. Por Ej. frío,
ruido, aspectos mecánicos (que no se lea bien, que falten hojas, etc.), etc.
Hernández Sampieri – Metodología de la Investigación.
6 de 107
El ultimo factor que puede influir esta constituido por las condiciones en las que se aplica un
instrumento de medición. Condiciones climáticas, un instrumento de medición demasiado largo o tedioso,
son cuestiones que afectan negativamente a la confiabilidad y validez.
¿Cómo se sabe si un instrumento de medición es confiable y valido?
En la práctica es casi imposible que una medición sea perfecta. Generalmente se tiene un grado de error.
¿Cómo sabemos el grado de error que tenemos en una medición?
Los procedimientos mas utilizados para determinar la confiabilidad mediante un coeficiente (que oscila
entre 0 y 1) son:
1 – Medida de estabilidad. Un mismo instrumento de medición se aplica dos o más veces a un mismo
grupo de personas, después de cierto periodo. Si la correlación entre los resultados de las diferentes
aplicaciones es altamente positiva, el instrumento se considera confiable.
2 – método de formas alternativas o paralelas. En este procedimiento no se administra el mismo
instrumento de medición, sino dos o mas versiones equivalentes de este. El instrumento es confiable si la
correlación entre los resultados de ambas administraciones es positiva de manera significativa.
3 – método de mitades partidas. El conjunto total se divide en dos mitades y se comparan las
puntuaciones. Si el instrumento es confiable, las puntuaciones de ambas mitades deben estar muy
correlacionadas.
4 – Coeficiente de alfa de Cronbach. Este coeficiente requiere una sola administración del instrumento
de medición y produce valores que oscilan entre 0 y 1.
Calculo de validez. Resulta complejo obtener la validez de contenido. Primero, es necesario revisar
como ha sido medida la variable por otros investigadores. Y con base en dicha revisión, elaborar un
universo de ítems posibles para medir la variable y sus dimensiones. Se seleccionan los ítems bajo una
cuidadosa evaluación.
Hasta en los estudios cualitativos se suele diferenciar una fase de recogida (y análisis preeliminar) de la
fase de análisis intenso. La relación mas estrecha (interactiva o concurrente) entre la recogida y el análisis
suele darse en los estudios cualitativos que practican el procedimiento del muestre teórico.
Debe insistirse en que no todos los investigadores “cualitativos” buscan criterios alternativos con los que
evaluar su trabajo. Esta es, sin duda, una de las cuestiones mas disputadas y que permite apreciar mejor el
continuo de posturas.
Hammersley identifica tres posiciones básicas entre los etnógrafos.
A) La postura de los que aplican a la investigación cualitativa, los mismos criterios que se emplean en la
investigación cuantitativa. A saber: Los conceptos de validez interna y externa, que toman como modelo
de investigación a la lógica experimental.
B) La postura de quienes argumentan que los criterios usados por los investigadores cuantitativistas
deben redefinirse y a ser posible sustituirse por unos adecuados a la investigación cualitativa.
C) La postura de los que rechazan cualquier clase de criterios, debido a la naturaleza de la investigación
cualitativa.
Dejando de lado posiciones extremas, como esta ultima, se aprecia una coincidencia destacable en los
investigadores cuali y cuanti en cualquier punto del contiunuum. Unos y otros parecen afanarse en la
mejora de los estándares de calidad de investigación social.
Se tome el camino que se tome, la disciplina metodológica acaba siendo una exigencia de cualquier acto
de investigación.
Straus y Corbin presentan criterios para evaluar los estudios realizados de acuerdo a las líneas maestras
de la grounded theory.
1) Criterios de confiabilidad
2) Criterios de autenticidad
3) Criterios éticos.
Los criterios del primero grupo son los que han recibido una mayor atención, dado que en dicho
conjunto se encuentran los criterios de validez, y fiabilidad desarrollados desde la metodología
cuantitativa.
La credibilidad de un estudio cualitativo se relaciona con el uso que se haya hecho de un conjunto
recursos técnicos (duración e intensidad de la observación en el contexto estudiado, triangulación de datos,
etc.)
7 de 107
La transferibilidad se logra, sobre todo, a través de los diversos procedimientos de muestreo cualitativo,
en contraposición a los procedimientos cuantitativos de muestreo probabilístico. Mientras que la
dependibilidad se hace operativa mediante una suerte de auditoria externa. Para ello el investigador
cualitativo debería facilitar la documentación que haga posible tal inspección: guiones de entrevista,
transcripciones y todo tipo de documentos en los que se pueda seguir el rastro de su trabajo intelectual.
El segundo y tercer grupo de “criterios de calidad”, no tienen que ver tanto con la adecuación
metodológica como con los esfuerzos del investigador por conseguir y mantener unas relaciones
negociadas, renegociadles a lo largo del proceso de investigación, favorables a los contextos y personas
estudiados.
Se considera que los códigos éticos establecidos en los estudios tradicionales adquieren un carácter
diferente en las manos de los investigadores cualitativistas.
Unidad 2 Recolección y Producción de datos primarios en las estrategias cualitativas. Las técnicas
e instrumentos de recolección.
8 de 107
( o constructor) que se estan midiendo. Un constructo es una variable medida y que tiene lugar
dentro de una teoría o un esquema teórico.
Esta validez incluye tres etapas:
- Primero, se establece y especifica la relación teórica entre los conceptos.
- Segundo, se correlacionan ambos conceptos y se analiza su correlación.
- Tercero, se interpreta la evidencia empírica.
Por lo tanto se puede concluir con que un instrumento de medición debe ser confiable y valido, de no ser
así los resultados de la investigación no deben tomarse en serio.
Hay factores que afectan la validez y la confiabilidad:
- Uno es la improvisación, que genera casi siempre instrumentos poco validos o confiables y no
debe existir en la investigación.
- Otro es la utilización de instrumentos desarrollados en el exterior que no han sido validos para
nuestro contexto (cultura y tiempo).
- Como tercer factor, es la utilización de instrumentos que resultan inadecuados para las personas a
quienes se le aplica, no es empatico. Por ejemplo utilizar lenguaje muy elevado para el
encuestado, no tomar en cuenta ciertas diferencias como el sexo, nivel educativo, edad, etc.
- Otro factor esta constituido por las condiciones en las que se aplica el instrumento de medición.
Por ejemplo, el frió, el ruido, una encuesta telefónica, un instrumento demasiado largo y tedioso,
etc.
Hay que tener en cuenta también que es casi imposible que sea perfecta. Generalmente se trabaja con un
grado de error, desde luego se trata de que ese error sea el mínimo posible. Es importante que el error se
reduzca lo más posible, para darnos cuenta del grado de error es necesario calcular la validez y
confiabilidad.
Un mecanismo para mejorar la validez de los datos secundarios es la triangulación esta consiste en utilizar
varias fuentes para obtener la misma información, con la intención de ver si existe concordancia en los
datos y resultados de la misma. Aumenta la fiabilidad cuando distintas fuentes concuerdan en los datos.
VENTAJAS:
-Los datos secundarios no solo se entienden como cifras y números, sino también como rastros del pasado
incluyendo imágenes, textos, obras de arte, etc. De esta manera los datos secundarios nos permiten
comprender el pasado, ahora bien no se trata solo de estudiar y entender el pasado sino también de
entender el presente y el futuro, a través del estudio del cambio social y cultural.
-Otra ventaja es que el investigador puede obtener los datos de grandes bancos de datos donde se
encuentran almacenadas.
9 de 107
-Otra gran ventaja es que la utilización de datos secundarios es mucho mas barato que generar nuestros
propios datos.
-Reduce diversos costos de la investigación, como dijimos anteriormente económico, pero también
personal y tiempo. Es mas los datos generados en estos bancos generadores, son mas confiables que los
datos producidos por el investigador, porque estas instituciones se dedican a esto y tiene mucha
experiencia.
-Otra gran ventaja es podemos replicar y reanalizar estos datos desde otras perspectivas que permite un
enriquecimiento de la disciplina científica.
INCONVENIENTES:
-Si bien dijimos que en la anualidad hay una buena accesibilidad a grandes bases de datos, al investigador
de datos secundarios puede presentársele el problema de que la información que necesite para cubrir los
objetivos de su investigación no este disponible, ya sea porque no existe o porque no es utilizable por otras
razones distintas.
-Otro inconveniente es el factor tiempo, estos están por definición desfasados temporalmente.
Dependiendo del tipo de estudio que planteamos, la fecha puede convertirse en un inconveniente mas o
menos grabe.
-Es necesario la fiabilidad, unas fuentes son mas fiables que otras, puede suceder que los datos originales
contengan errores no identificables por el usuarios de los datos secundarios.
FUENTES DISPONIBLES:
-Documentos y estadísticas oficiales.
-Documentos y estadísticas privadas.
-Fuentes internacionales de uso frecuente, por ejemplo OCDE (Organización de cooperación y desarrollo
económico).
-Hasta ahora eh planteado fuentes en papel, hoy también se puede acceder a fuentes de todas partes por
medio de Internet.
10 de 107
secundarios, tiene que tener en cuenta lo siguiente para evaluar la información con que se vaya a trabajar
(texto Gonzáles Rodríguez):
Adecuación de los datos secundarios como estrategia metodológica la primera reflexión que
debe realizar el investigador es ver si el análisis secundario es la estrategia metodológica adecuada para
manejar el problema de investigación que va a desarrollarse. Esto es, el investigador tiene que poder
decidir si puede o no medir los conceptos que desea recurriendo a dicha estrategia metodológica. Para ello,
el investigador debe poseer un conocimiento profundo de su área de investigación (conocimiento de la
bibliografía y revisión bibliográfica)
Importancia del análisis de los objetivos el investigador debe reflexionar sobre cuestiones
concretas referidas al tema de investigación. Una de las preguntas a plantearse refiere al objetivo del
estudio original y su comparación con nuestro estudio. Puede suceder que, si los estudios difieren
sustancialmente en cuanto al planteamiento teórico, los datos no nos sirvan o porque no fueron recogidos
o porque no podemos combinarlos adecuadamente para satisfacer nuestra necesidad de información. En
síntesis, la fuente a utilizar ¿Contempla mis objetivos?
Credibilidad de la fuente de información una vez que tenemos claro el objetivo de la
investigación primaria y nuestros propios objetivos hemos de preguntarnos por la credibilidad de la fuente
de información. (algunas fuentes son más creíbles que otras).
Credibilidad de los datos secundarios evaluada la fuente, el investigador debe evaluar con
detalle los datos como tales, planteándose las mismas preguntas que el investigador de datos primarios. La
pregunta esencial debe referirse a si la información disponible cubre o no y en qué grado nuestras
preguntas de investigación. Otra pregunta importante es la de saber si las categorías de respuesta fijadas en
la investigación primaria resultan adecuadas para nuestros fines. (¿Qué variables se incluyen? (para saber
si las de mi investigación están allí). También ver si el sistema de categorías de las variables está acorde al
nivel de desagregación que hay en la fuente: ¿tiene la exhaustividad que mi investigación requiere? Hay
que revisar la definición de las variables y los conceptos utilizados en la fuente de datos. Hay que ver en
qué grado se aproximan a mis definiciones y si se mantuvieron a lo largo de tiempo.)
Necesitamos disponer del instrumento de recolección, debemos saber cómo se recogió la
información, cómo se procesó, qué tratamiento estadístico se hizo, cómo se manejaron los datos missing y
cuáles fueron las categorías de respuesta y las clasificaciones de las variables;
Debemos conocer los aspectos básicos del muestreo: tipo de muestra, tamaño, errores maestrales,
unidad de análisis, posibilidad de generalizar los resultados, etc.
Otro aspecto a considerar se refiere al tiempo o momento en que se recogieron los datos.
Dependiendo del tipo de investigación secundaria que planteemos, el tiempo tendrá mayor o menos
importancia (muy importante en investigaciones de actitudes por ejemplo)
La triangulación como mecanismo para mejorar la validez el investigador de datos secundarios
debe tratar de utilizar varias fuentes para obtener la misma información, con el fin de comprobar si existe
concordancia en los datos y resultados de las mismas. Aumenta la fiabilidad cuando distintas fuentes
concuerdan con los datos.
11 de 107
2. El tiempo de consecución si bien suele tardarse menos tiempo en obtener información basada en
datos existentes que en generar la propia, es conveniente prever un margen hasta que se logre la
información que se necesita: ésta debe localizarse, debe ser preparada de acuerdo con el contenido y
formato pedido, etc. otra consideración respecto al tiempo es la siguiente. Los datos secundarios están
desfasados temporalmente. Dependiendo del tipo de estudio que planteemos, la fecha de los datos puede
convertirse en un inconveniente.
3. El grado en que se ajustan a las necesidades de información del proyecto: adecuación.
4. Calidad de los datos al buscar datos secundarios es necesario valorar con detalle si cumplen,
tanto los datos como la fuente, con los requisitos mínimos de calidad, en términos de fiabilidad y validez.
Más aún, hay que ver si hubo cambios en los procedimientos de recogida de datos.
Muchas veces el investigador social se ve imposibilitado a la hora de investigar en producir sus propios
datos, sea por una cuestión financiera o temporal. El objetivo del análisis es sugerir pistas para el manejo
adecuado de los datos secundarios.
Ante todo la utilización de datos secundarios es una técnica o procedimiento de investigación, en la cual se
intentan obtener datos de documentos escritos o no escritos, con el propósito de ser utilizados en una
investigación concreta. Cuando se recurra a este procedimiento hay que evitar el “hábito coleccionista”
(recolectar información abundante sin un propósito definido) o una “búsqueda a ciegas” (intentando que
los datos hablen por si mismos).
12 de 107
Los DS posibilitan estudios transculuturales, en los que las sociedades enteras son su unidad de
análisis. Ej: Investigación transnacional, en los que un investigador aislado se ve imposibilitado de
recolectar el mismo los datos.
Muchas veces cuando fuimos nosotros mismo los recolectores de los datos, podemos recurrir a DS
para poder ver el nivel de representatividad de la muestra. EJ: Si queremos ver el nivel
socioeconómico de una población, para poder vislumbrar si es representativa o no recurrimos a
investigaciones de tipo demográfico (es decir utilizaremos los recursos brindados de otra
investigación).
Siempre que necesitamos comprender el presente, en ciencias sociales recurriremos al pasado.
Dado que los estudios longitudinales, muchas veces son complejos de llevar a cabo utilizando
fuentes primarias, recurriremos entonces a DS.
A su vez la facilidad que tiene el investigador al acceso de investigación por la existencia de
bancos de datos. Sumado a que su costo es menor, y muchas veces la calidad de los datos es mas
fiable si recurrimos a organizaciones especializadas.
Evitamos la “no reactividad o el efecto conejillo de indias”. Cuando los sujetos saben que están
siendo estudiados, el proceso mismo de mediación puede distorsionar los resultados gravemente.
El investigador se ve libre se este efecto teniendo tmb que examinar examinar críticamente los
datos con los que realizara su investigación desde este punto de vista.
El investigador tiene la posibilidad de replicar y reanalizar los mismo datos desde perspectivas
diferentes, desde marcos teóricos distintos, y que con técnicas analíticas diversas enriquecer a la
disciplina científica que le compete.
Progreso científico, por la existencia, desarrollo y utilización de grandes bases de datos. Aparece
la posibilidad de que los teóricos utilicen datos existentes para incorporarlos al desarrollo de su
teoría.
DESVENTAJAS:
* Sucede que muchas veces la información que uno necesite no este disponible.
* Muchas veces es duradero el proceso en términos temporales de la localización de DS, y tmb
problemas burocráticos pueden obstacularizar la investigación . Otra consideración es que los DS
están por definición desfasados en el tiempo, y esto muchas veces es conflictivo.
* Hay que tener en cuenta que los DS que han sido generados para unos determinados fines de
investigación, pueden no resultar útiles para otros. También el investigador tiene que ser conciente de
lo que elige y no tener la estrategia “cuanto mas mejor” o “cruzo los datos todo con todo para ver que
sale”.
* Tmb tiene que poseer requisitos mínimos de calidad, en términos de fiabilidad y validez. Por lo tanto
no esta de más poder corroborar y contrastar los datos.
* Puede existir un supuesto peligro de que si los investigadores de limitan a utilizar sistemáticamente
los mismos datos, sin incorporar nuevos índices, se corre peligro de repetir lo mismo, con lo que no
tendrían cabida ni la creatividad, ni la intuición, ni la innovación.
* Problema de la interpretación, cuando muchas veces las definiciones por ejemplo de un cuestionario
no están claras, y los integrantes de esa muestra interpretan cosas distintas, y por ende los datos no son
fiables, con lo cuál no nos servirán.
A) marco teórico: Se refiere al “que” de la investigación. Se debe definir cual es el problema concreto
de la investigación, cuales son las hipótesis mas importantes, que tipo de hipo son, cuales son los
conceptos que se intentan relacionar, definición de conceptos.
B) La medida: El investigador debe reconstruir el proceso que generó los datos originalmente: cómo,
cuándo, por quien fueron recogidos los datos.
C) Búsqueda y evaluación: El éxito de la investigación depende del cuidado que se ponga en recoger
datos serios, sólidos y de confianza. Para ello tiene que ser fiable y valido. ¿Cómo se obtiene
fiabilidad?:
Tener buena familiaridad con la institución que proveerá la información
Cual fue el objetivo de la información que recogeremos, para ver si es coincidente o no con
nuestro estudio.
13 de 107
Quien es el responsable del estudio, ya que hay fuentes mas fidedignas que otras.
El factor tiempo: para poder ver si los datos son valiosos o no.
Como se obtuvieron los datos en relación al muestreo (tipo de muestra, etc)
Que tan completa es la información recogida. Que es lo que desde nuestro de punto de vista esta
ausente.
¿Cómo es que se logra la validez?
hay que intentar observar si los indicadores miden realmente lo que se suponen que miden
Tmb observar si se corresponde la definición del concepto del autor de los DS con su definición
de ese concepto
Si se están utilizando series temporales hay que preguntarse si el concepto que queremos medir
sigue siendo el mismo o ha variado su significado con el paso del tiempo.
Y Sobre todo siempre debe interrogarse si los DS elegidos cubren las dimensiones relevantes en
su propia investigación.
D) Análisis e interpretación de resultados. El investigador puede analizar los DS combinando la
información de modo que nos permita obtener nuevas variables a partir de las existentes y
representar un nuevo concepto. Esta es la parte creativa de la investigación. También hay que
revisar si se ha calculado el error de muestreo , o si existe falacia ecológica. Una vez realizada la
tarea de revisión se pueden aplicar distintas técnicas analíticas que no difieren demasiado de las
utilizadas con datos primarios.
14 de 107
procesos que estructuran la vida social (“etnosociológica”).- esta última es a la que refiere
Bertaux en este texto-
La teorización es un proceso que se desarrolla en la duración, para ir construyendo paso a paso
una representación mental de los procesos sobre los cuales se ha elegido concentrar la atención
después de la fase exploratoria. Si una vez delimitado el carácter de lo que se encuentra en la
repetición, parece que se trata de un objeto sociológico, se alcanzado entonces el primer nivel
de saturación. Entonces se encontrará sistemáticamente encontrar casos negativos. Si la teoría
esbozada resiste este proceso entonces se habrá alcanzado la verdadera saturación. Sin que se
trate de una cuestión de muestra representativa se habrá alcanzado igualmente una descripción
convincente de los fenómenos estudiados. Así se resuelve el problema de la generalización sin
muestra representativa.
3- Función expresiva: pueden utilizarse segmentos de relatos de vida para ilustrar tal o
cual punto de la argumentación, teniendo en cuenta que la validez de ésta reside en: a) la
saturación alcanzada y b) la coherencia interna de la argumentación. La narración tiene el valor
de síntesis, es decir que incluye la fase analítica y la supera tomando la forma totalizante de la
autobiografía. “La utilización de relatos de vida como artificio para introducir ideas sobre lo
social, me parece adecuada para regenerar el estilo de la escritura sociológica , que desde hace
mucho tiempo se quedó encallada en los callejeros simétricos del cientificismo y del ensayismo
literario” (pág. 148)
ENTREVISTA
La entrevista en profundidad es una técnica de obtener información mediante una conversación
profesional con una o varias personas, para un estudio analítico de investigación o para contribuir en
diagnósticos o tratamientos sociales.
La entrevista implica un proceso de comunicación en el que entrevistado y entrevistador pueden influirse
mutuamente consciente e inconscientemente. No es algo espontáneo sino un poco artificial; el
entrevistador crea una situación concreta –la entrevista- que implica una situación única. Comprende un
desarrollo de interacción, creador y captador de significados, en el que influyen las características
personales de los actores. En conclusión, la entrevista es una técnica para obtener que un individuo
transmita oralmente su definición personal de la situación:
- Toma forma de relato de un suceso, contado por el que lo experimentó y desde su punto de vista.
- La entrevista es el contexto de dicho relato, el entrevistado es facilitador.
Podemos relacionar a la entrevista con la conversación informal y ver similitudes y diferencias:
- Ambas son un encuentro. Eso quiere decir que están compuestas de las personas, la situación y las reglas
de interacción.
- Se diferencian por: en la entrevista hay una estructura de interrogación y hay expectativas explícitas: uno
habla, el otro escucha. Hay uno de los dos –el entrevistador- que orienta la charla y anima al otro.
15 de 107
Tipos de entrevista
Primera distinción
- Sostenidas con un solo individuo (individuales) o con un grupo de personas (de grupo).
- Cubren muchos temas (biográficas) o monotemáticas.
- Entrevistas dirigidas (estructuradas) en las que el actor lleva la iniciativa de la conversación o aquellas en
las que el entrevistador sigue un esquema general y flexible (no estrucuradas).
Segunda distinción
- Focalizada: Los entrevistados han sido expuestos a una situación concreta, como por ejemplo han visto
una película, leído un libro, etc. o participaron en una situación social observada. Esa situación fue
estudiada antes por los investigadores, a partir de lo cual surgieron hipótesis, y de ellas el guión de
entrevista. La entrevista se centra en las experiencias subjetivas de la gente expuesta en la situación para
contrastar las hipótesis y averiguar efectos no anticipados.
- Entrevista no estandarizada: No hay listado prefijado de preguntas abiertas a usar con todos los
entrevistados. Este tipo sirve, por ejemplo, si queremos descubrir la estructura y funcionamiento de alguna
organización: deberíamos hacer preguntas diferentes a la gente que ocupa los distintos puestos.
Por lo tanto, la entrevista en profundidad puede tomar dos caminos, el de la estandarizada no estructurada,
o el de la no estandarización. Porque habíamos dicho, la distinción fundamental es la de entrevista
estructurada y entrevista no estructurada. Ahora profundizamos más la distinción.
Estructurada No estructurada
La entrevista Pretende explicar más que comprender; Pretende comprender más que explicar;
busca minimizar los errores; adopta el busca maximizar el significado; adopta el
formato estímulo-respuesta, suponiendo formato estímulo-respuesta pero sin
que a una pregunta correcta el esperar la respuesta objetivamente
entrevistado contesta la verdad; obtiene verdadera sino subjetivamente sincera;
respuestas racionales, pero pasa por alto obtiene respuestas emocionales, pasando
lo emocional. por alto la racionalidad.
El entrevistador Formula una serie de preguntas con Pregunta sin esquema fijo de categorías
respuestas prefijadas; controla el ritmo; de respuesta; controla el ritmo en función
no da explicaciones largas del trabajo; no de las respuestas; explica el motiva del
altera el orden ni la formulación de estudio; altera forma y orden, agregando
preguntas; no permite interrupciones; no nuevas preguntas si necesita; permite
expresa su opinión; no interpreta el interrupciones; si se lo piden no oculta
sentido de las respuestas; no improvisa el sus sentimientos o juicios de valor;
contenido o forma de las preguntas. explica el sentido de las preguntas; puede
improvisar forma y contenido; no evalúa
las respuestas.
16 de 107
El entrevistado Reciben todos el mismo paquete de Cada uno recibe su propio conjunto de
preguntas, y las escuchan en el mismo preguntas; orden y formato puede diferir
orden y formato. de uno a otro.
Las respuestas Son cerradas al cuadro de categorías Abiertas, sin categorías de respuestas
preestablecido. preestablecidas.
Tres procesos se interrelacionan e influyen mutuamente en una entrevista: El proceso social de interacción
personal, el proceso teórico de recogida de información, el proceso instrumental de conservar la
información, grabándola.
1) Proceso de interacción
La entrevista es un acto de interacción personal, en el que se efectúa un intercambio de comunicación a
través del cual el entrevistador transmite interés, motivación, confianza, garantía, y el entrevistado
devuelve información personal en forma de descripción, interpretación, evaluación. La empatía es la
condición esencial para que exista una interacción ideal.
Lo primero que hace el investigador es justificar su proyecto y su modo de actuar. Debe persuadir al
entrevistado del interés y utilidad de la entrevista, identificando sus objetivos. Tanto la invasión como la
prepotencia como la de servilismo y adulación se deben evitar siempre.
Para que no decaiga el interés de la entrevista y alcance el nivel deseado de familiaridad, hay cuatro
tácticas: mirar al rostro del entrevistado natural y directamente, demostrar la atención y satisfacción en
posturas y movimientos corporales con naturalidad, responder y comentar en tono amable, respetar los
silencios.
Además del interés y la atención, el entrevistador debe mostrarse como un maestro de la comprensión:
busca entrar en el mundo del otro, vivir como él su propia experiencia. Esto no debe confundirse con una
evaluación ética ni con autoritarismo: la comprensión se apoya en la empatía y se acompaña de la
discreción para lograr un ambiente de solidaridad.
Por último, el investigador debe demostrar que tiene sentimientos: reflejarlo cuando el entrevistado
muestre emoción, hacerle saber que entiende sus sentimientos, ir resumiendo los sentimientos del otro
para comprobar y al mismo tiempo demostrar que se va captando el mensaje.
17 de 107
- Fiabilidad: Debe controlar las citas y descripciones, las ambigüedades, las idealizaciones y fugas, el
desinterés y el cansancio y el sentido común del entrevistado.
3) Proceso de registro
La reflexión simultánea al proceso de captación de información es más importante que en la observación,
por lo que la interacción se hace más intensa, y las interferencias no tienen buenas consecuencias.
Cualquier distracción o contratiempo ya sea para entrevistado o entrevistador, incide negativamente en la
calidad de la información. La grabación de la entrevista libera al entrevistador, aunque reste espontaneidad
en el entrevistado. Una alternativa que tiene sus riesgos es la grabación oculta.
Ventajas Inconvenientes
- Riqueza informativa, intensiva y personalizada - Consume mucho tiempo
- Posibilidad de indagación en las respuestas - La información depende de la situación y de los
- Flexibilidad, previsión de errores, economía. dos actores, por lo que existe el problema de la
- Contrapunto cualitativo de resultados cuanti validez y de la fiabilidad.
- Accede a información difícil de observar - Falta de observación de la situación donde se
- Intimidad y comodidad desarrolla la acción.
- Carencia de las ventajas de la interacción grupal
Usos: Se recomiendo usarla combinada con otras técnicas y existen condiciones para su uso: que se hayan
barajado técnicas alternativas teniendo en cuenta la investigación; que sean las cuestiones a investigar las
que determinen las técnicas y no al revés; que las inferencias que aparezcan en las entrevistas puedan
someterse a un riguroso test.
Los usos de las entrevistas en profundidad pueden resumirse en dos clases: usos exploratorios
preparatorios; usos de contraste, ilustración o profundización.
Diseño (preparación)
1) guión de entrevista: es a la entrevista en profundidad lo que el cuestionario a la encuesta. Contiene los
temas y subtemas que deben cubrirse, de acuerdo con los objetivos de la investigación, pero no tiene las
formulaciones textuales de las preguntas ni las opciones de las respuestas (como el cuestionario). Es un
esquema de los puntos a tratar, no cerrado y sujeto a cambios en el orden.
2) Selección de los entrevistados: A quiénes, a cuántos y cuántas veces. Se trata de decisiones muestrales
tomadas en la etapa de proyección y completadas en el trabajo de campo. Existen varios criterios para
tomar estas decisiones, entre ellos:
- Aproximación al universo de entrevistados potenciales a través de fuentes disponibles (censos y
encuestas, estudios cualitativos anteriores, experiencia e imaginación del investigador) para trazar un
primer casillero tipológico, que garantiza la heterogeneidad de la muestra.
- Realización de entrevistas en profundidad a sólo algunos tipos sociológicos.
- O guiar la selección según tres tipos: claves, especiales y representativos. Los primeros dan información
sobre la situación local, los segundos la relevante para los objetivos del estudio, y los terceros también,
pero se trata de un grupo de gente “común”, de distintas edades, profesiones, que da información más
general.
- Para determinar el cuántos, existe el principio de saturación: cuando el sociólogo va viendo cass
similares una y otra vez, se da cuenta que una categoría está saturada.
En la preparación también entran la selección de los entrevistadores, los roles de éste; las condiciones de
tiempo, lugar y registro; factores sobre el contacto y la presentación.
Campo (realización)
1) Tácticas que pueden avanzarse en el guión de entrevista: se hace un esquema que anticipa cómo
abordar cada tema, supone tener listas de preguntas, argumentos, cosas para motivar al entrevistado.
2) Tácticas en la situación de la entrevista: Comportamiento verbal y no verbal según pida la situación,
improvisado. Entran las ya nombradas táctica del silencio, de la repetición, de aclaración, recapitulación.
18 de 107
Análisis (tratamiento)
Cuatro pasos: 1) Leer entrevistas delimitando fragmentos que se refieran a categorías comunes; 2) Juntar
los fragmentos de una misma sección; 3) Reclasfificar el material e interpretarlo, abriendo subsecciones si
es necesario; 4) Organizar las secciones de manera coherente, con una línea narrativa, explicativa.
HISTORIA DE VIDA
Tienen tres funciones en el proceso de investigación, que no deben estar enteramente separadas. El relato
de vida se insertará en contextos diferentes según la fase en que se lo use.
- Función exploratoria: No son historias de vida completas Se hace del relato un uso extensivo, abriendo
el máximo posible de aspectos de la vida social, ya que no se sabe cuáles van a ser los relevantes. El
investigador ha buscado en con los relatos, informarse, tal vez dichas historias no sean usadas en etapas
ulteriores.
- Función analítica: Consta de dos momentos. El primero es el de la comparación de los fenómenos y la
construcción de hipótesis, y el segundo el de la verificación. Se reflexiona acerca de las causas y
consecuencias de los fenómenos que descubrimos en las primeras observaciones. Una vez delimitado el
carácter de aquello presente en varis casos, se alcanza el primer nivel de saturación. Luego se intenta
destruir la regularidad para probar la validez de la hipótesis. Si no se cae, se puede proponer una
descripción del proceso social estudiado.
- Función expresiva: Tiene que ver con la escritura. El relato de vida acá intenta transmitir todo lo que se
ha visto y comprendido. Se publican los relatos, sobre todo partes con “expresión científica”, es decir,
los pasajes sociológicos. Se trata de una narración con valor de síntesis, que supera la fase analítica
tomando forma de autobiografía, en la que el lector experimenta emociones.
MUESTREO
Cómo y cuándo observo, a quién entrevisto, en qué fuente de información me centro. Son todas decisiones
de muestreo, que se toman teniendo en cuenta la relación con los que participan en el estudio, la
factibilidad de la recolección de datos, las cuestiones de validez, y la ética.
Los estudios cualitativos remiten generalmente a un tipo de muestra: Muestra Según Propósitos. Se trata
de una selección de contextos, individuos y momentos, basada en criterios para conseguir determinada
información, que responden a las preguntas de investigación. Veremos sus metas posibles:
1) Lograr representatividad en los individuos, contextos o actividades seleccionadas; porque en un
estudio a pequeña escala elegimos los casos típicos.
2) Captar la heterogeneidad de la población. El propósito acá es asegurar que las conclusiones
representen el rango completo de variación: lo mejor es seleccionar casos que representen las
variaciones.
3) Examinar casos críticos para las teorías que estamos usando. Los casos extremos proveen pruebas
cruciales de una manera tal que los casos representativos muchas veces no pueden.
4) Posibilidad de comparaciones para iluminar las causas de las diferencias entre individuos o
contextos.
Un problema particular en las decisiones de muestre es la “desviación del informante clave”: los
investigadores se apoyan en un número chico de informantes, y aún cuando fueron seleccionados según
propósitos y la información parece válida, no hay garantías que las perspectivas de estos informantes sean
las típicas.
Muestreo teórico: Es el proceso de recogida de datos para generar teoría mediante el cual el analista
recoge, codifica y analiza sus datos conjuntamente y decide qué datos recoger después y dónde
encontrarlos, para desarrollar su teoría a medida que surge. Este proceso de recogida de datos está
controlado por la teoría emergente.
La representatividad en este estudio no se garantiza por el muestreo aleatorio o la estratificación. Por el
contrario, los individuos, los grupos, etc, se seleccionan según su nivel (esperado) de nuevas ideas para la
teoría en desarrollo, en relación con el estado de elaboración de la teoría hasta el momento.
En el muestreo teórico la extensión de la población básica no se conoce de antemano; los rasgos de la
población tampoco; el tamaño de la muestra no está definido con antelación; el muestreo acabo cuando se
alcanza la saturación teórica.
Ejemplo: Estudio sobre la conciencia de morir en los hospitales: se examinaron diferentes servicios
médicos de diferente nivel de esperanza de vida de los enfermos y los médicos. La programación de tipos
de servicio estaba dirigida por un esquema conceptual –que incluía hipótesis sobre la conciencia de estar
19 de 107
muriéndose, la expectativa de la muerte y su rapidez- lo mismo que por una estructura conceptual en
desarrollo que incluía asuntos no previstos al principio. A veces los investigadores volvían a los servicios
para inspeccionar elementos que necesitaban comprobación o se habían pasado por alto en el período
inicial. (Glasser y Strauss, 1967).
20 de 107
5. De evaluación y promoción laboral, modalidad caracterizada por su aplicación en contextos de
planificación, formación y gestión de RRHH.
Dentro de las entrevistas de investigación, podemos ubicar a las entrevistas en profundidad, las cuales
podemos caracterizar en cuatro tipos.
1. ENTREVISTA FOCALIZADA. (Modelo de Merton)
Entrevistados han sido expuestos a una situación concreta (“han visto un film, han leído un
artículo, han oído un programa de radio, etc.”)
Los investigadores han estudiado previamente dicha situación, derivando hipótesis sobre el
significado y los efectos de determinados aspectos de la situación.
El guión de entrevista, se ha elaborado a partir del análisis de contenido y las hipótesis
derivadas.
Se centra en las experiencias subjetivas, con el propósito de contrastar las hipótesis y
averiguar respuestas o efectos no anticipados.
La entrevista focalizada se la considera dentro de la categoría de entrevistas cualitativas de investigación,
tiene un enfoque semidirigido y para que resulte productiva debe basarse en cuatro criterios: No
dirección, tratar de que las respuestas sean espontáneas o libres. Especificidad, animar al entrevistado a
dar respuestas concretas. Amplitud, indagar en la gama de evocaciones experimentadas por el sujeto.
Profundidad y contexto personal, debe obtener el contexto personal relevante, las asociaciones
ideosincráticas, las creencias, las ideas, etc.
4. OTRAS EXPRESIONES.
Se puede extender el glosario bajo la categoría entrevistas en profundidad, abarcando al menos las
expresiones, entrevista biográfica, entrevista intensiva, entrevista individual abierta semidirectiva,
entrevista larga, etc. Se verán más adelante. El modelo de preguntas que pueden utilizarse pueden
resumirse en dos tipos: las “decididas con anticipación” (cerradas o abiertas) y las que surgen durante
la realización de las entrevistas.
21 de 107
recursos disponibles. Varios autores coinciden en la consideración de la entrevista en tanto proceso de
comunicación interpersonal inscrito en un contexto social y cultural más amplio. Gorden dibuja “el
contexto social de la entrevista”, para dar fundamento a su “modelo contextual” de comunicación,
según el cual, el proceso comunicativo de la entrevista depende de: la combinación de tres elementos
internos de la situación de entrevista –entrevistador, entrevistado y tema- y los elementos externos –
sociedad, comunidad, cultura-. Es importante para este autor la fase de preparación de la entrevista,
donde hay que seleccionar los entrevistados más capaces y dispuestos a dar información relevante, la
selección de los entrevistadores que tengan la mejor relación con el entrevistado, la elección del
tiempo y lugar más apropiado. Todas estas son decisiones de diseño, las cuales tienen que ver con el
qué (información), el a quién y bajo que condiciones. Además hay que tener en cuenta la realización
en sí de la entrevista, el proceso comunicativo entre entrevistador y entrevistado, y el análisis o
interpretación de la información obtenida en la entrevista. Aquí hay que tener en cuenta que las
declaraciones de los entrevistados no siempre pueden tomarse literalmente y que deben conocerse las
prácticas relatoras empleadas por los informantes.
Ventajas y limitaciones del uso de entrevistas en profundidad.
Presentan algunas ventajas que pueden ser las siguientes: el estilo abierto permite la obtención de una
gran riqueza informativa, proporciona al investigador la oportunidad de clarificación, en un marco de
interacción más directo, personalizado y flexible, pueden generar puntos de vista, enfoques, hipótesis,
etc en la fase inicial de cualquier estudio, pueden ser comparadas o puestas en contraste con los
resultados obtenidos mediante procedimientos cualitativos, son eficaces en el acceso a la información
difícil de obtener sin mediación del entrevistador, puede preferirse también por su intimidad o por su
comodidad, etc.
Entre las limitaciones, habría que tener en cuenta las siguientes: el factor tiempo, ya que consume
más tiempo que alguna otra técnica, tiene los problemas potenciales de reactividad, fiabilidad y
validez, la falta de observación directa o participada de los escenarios naturales en los que se
desarrolla la acción y no produce el tipo de información de grupo.
LA SELECCIÓN DE ENTREVISTADOS.
Se trata de decisiones muestrales tomadas, en parte, al proyectar el estudio y en parte, completadas
durante el trabajo de campo.
1. Aproximación al universo de entrevistados potenciales a través de las fuentes disponibles. La idea
clave es ganar conocimiento de todo tipo, tamaño y características sociodemográficas, etc. para
trazar un primer casillero tipológico. El cual es un dispositivo muestral, de carácter instrumental,
22 de 107
del que se sirve el investigador para hacer operativa una selección de entrevistados orientada a
controlar la heterogeneidad de la muestra.
2. Se opta por la realización de entrevistas a sólo algunos tipos o perfiles sociológicos, basando la
selección de entrevistados en criterios de marginalidad, de normalidad o de excelencia.
3. La selección puede apoyarse también en la clasificación en tres “tipos generales”: claves,
especiales y representativos. A los primeros el autor los considera “informantes” más que
entrevistados, aportan información sobre la situación local donde se realiza el estudio, asistiendo
en la obtención de cooperación, localizando o contactando entrevistados. Los especiales son
aquellas personas que da información directamente relevante para los objetivos del estudio y que
es seleccionada porque ocupa una posición única en la comunidad y los representativos también
dan información relevante a los objetivos de la entrevista, pero se trata de una información más
general poseída por un número amplio de personas de características similares.
4. Preguntas básicas que deben responderse en la selección de entrevistados. Quienes tienen la
información relevante? Quienes son más accesibles físicamente y socialmente? Quienes están más
dispuestos a informar? Quienes son más capaces de comunicar la información con precisión?. Se
distinguen cuatro inhibidores que pueden bajar la disposición del entrevistado a dar información:
la falta de tiempo, la amenaza al ego, la etiqueta (autocensura psicosocial) y el trauma (no querer
rememorar alguna experiencia pasada).
El problema de cuántos entrevistados necesitamos se relaciona con el cálculo del tamaño muestral que
contiene como ingrediente clave la noción de “saturación”.
El procedimiento de “la bola de nieve” es usado frecuentemente, constituye con un muestreo aleatorio
en una comunidad y luego solicite a cada una de las personas que faciliten el contacto con otras de su
círculo de familiares, amigos, etc.
OTROS PREPARATIVOS.
1. Entrevistador. Las características externas y otras menos aparentes son rasgos a tener en cuenta
en la selección del entrevistador. Es conveniente plantearse como afectarán a la interacción
entrevistador-entrevistado. Cuando el tema es muy técnico y complejo puede convenir la selección
de un especialista en la materia. Según algunos autores el entrevistador ideal debería tener una
personalidad flexible. La importancia de los roles del entrevistador depende de la relación que se
cree con el entrevistado. Dos dimensiones básicas de esta relación tienen que ver con: la condición
del entrevistador de miembro o extraño al grupo y con su estatus relativo de superioridad,
igualdad o inferioridad. Ambas dimensiones pueden inhibir como facilitar el flujo de ciertos tipos
de información.
2. Tiempo, lugar y registro. Constituyen condiciones de producción que pueden afectar a la
obtención de información. Es preferible un espacio en el que pueda desarrollarse una entrevista
individual sin la presencia de otras personas que puedan distraer o inhibir al entrevistado. En
cuanto a los medios, el más utilizado es la grabación. El tomar nota ha quedado desplazado por
afectar la espontaneidad y fluidez del diálogo.
3. Contacto y presentación. Es fundamental contar con redes personales del investigador o de
canales sociales, que faciliten el contacto y la presentación entre las personas involucradas.
23 de 107
Tácticas de recapitulación. Invitar al entrevistado a relatar de nuevo alguna trayectoria de su
vida, organizada cronológicamente.
Tácticas de aclaración. Solicitar una secuencia de sucesos más detallada.
Táctica de cambiar de tema. Se adopta esta iniciativa para soslayar un asunto delicado que
oprima al entrevistado.
Post-entrevista. Es un apéndice de entrevista a micrófono cerrado que puede aprovecharse
para hablar amigablemente, guardar un buen recuerdo, etc. es una oportunidad para detectar
alguna información que se ha guardado durante la entrevista.
Entrevista
La entrevista es una técnica para obtener información, mediante una conversación profesional con
una o mas personas. Recordemos que la investigación cuali trata de recuperar la perspectiva del actor.
Revelar sus interpretaciones. En la entrevista se busca lo específico de un problema general.
El campo es un recorte que hace el investigador. Acá aparecen actores y sus actividades. El campo
es esa porción de lo real que se intenta conocer. Los actores con sus acciones lo constituyen y acá es donde
se producen y elaboran los datos de la investigación. La colección y recolección se dan al mismo tiempo
que el análisis. Se construye el sistema de propiedades. La presencia en el campo es esencial. Buscamos lo
que la gente piensa y cree. Vemos su sentido sin tratar de volcar lo nuestro.
Cada entrevista es única. En la encuesta se puede no saber los objetivos que plantea la
investigación, se hacen siempre las mismas preguntas. Las entrevistas la debe hacer el equipo de
investigación. El trabajo de campo de las encuestas la hace un equipo contratado generalmente.
La entrevista en profundidad implica un proceso de comunicación, en el transcurso del cual,
ambos actores, entrevistador y entrevistado, pueden influir mutuamente, tanto consciente como
inconscientemente.
La entrevista supone una situación comunicacional. Comprende un proceso un tanto artificial. Hay
un acuerdo del lugar y la fecha. El espacio debe ser neutro pero que no lo saque del ámbito que conoce el
entrevistado. Buscar un lugar calmo. La información es anónima. Se crea una situación concreta que lejos
de ser neutra, implica una situación única. La entrevista comprende un desarrollo de interacción, creador y
captador de significados, en el que influyen decisivamente las características personales de los 2. Esto
puede ser bien diferenciado con la observación que ocurre en situaciones naturales. La entrevista en
profundidad reposa fundamentalmente en la experiencia vicaria transmitida al investigador a través de la
conversación con otro actor social.
No es lo mismo entrevista que conversación. Hay relación asimétrica en la entrevista. El
entrevistado no sabe que se le va a preguntar. Generalmente se utiliza la lógica del embudo. Empezar por
lo general y luego pasar a lo particular. Se debe generar la confianza. Hay que recuperar lo que se dice
pero también el contexto (actitudes, gestos).
La entrevista en profundidad, en definitiva, es una técnica para obtener que un individuo transmita
oralmente al entrevistador su definición personal de la situación. La entrevista comprende un esfuerzo de
inmersión.
Taylor y Bogdan: la entrevista son encuentros reiterados, cara a cara, entre el investigador y los
informantes, encuentros éstos dirigidos hacia la comprensión de las perspectivas que tienen los
informantes respecto de sus vidas, experiencias o situaciones, tal como las expresan con sus propias vidas.
Tipos de entrevistas:
24 de 107
Entrevistas individuales o entrevistas grupales: las individuales se realizan a una sola persona.
Dentro de las grupales encontramos: los grupos de discusión (focus group) o “técnica de Delphi”.
Focus group: son una técnica que se usa mucho en los estudios de mercado. Se construye un
discurso colectivo. Ver que dicen con otra gente enfrente. Busca el discurso colectivo. Esta
también es artificial y encontramos un moderador que debe estimular la discusión del grupo. Hay
una guía y las preguntas suelen ser abiertas para así generar la discusión entre los entrevistados.
La intervención del moderador debe ser lo mínima posible. Tratar de que hablen todos. Los grupos
sueles ser homogéneos pero con heterogeneidad intergrupal. Ej.: son todos padres de hijos
violentos, pero llama 5 hombres y 5 mujeres.
Técnica de Delphi: Se utiliza para revelar la opinión de profesionales, de expertos en algún tema
en particular. Los encuestados se encuentran distantes. Resulta una entrevista sui generis. No se
ven los miembros de dichos grupos. De ahí el nombre de grupos nominales (solo de nombres). Se
les hace una pregunta, el moderador sintetiza y envía las respuestas. No hay discusión. Todos van
hacia el moderador. Surge la retroalimentación y aparecen nuevas preguntas. Esta técnica sirve
cuando las personas se encuentran muy distante.
Tormenta de ideas: esta técnica pone el acento en la creatividad y la generación de nuevas ideas a
partir de una cuestión que plantea el moderador. Es utiliza para objetivos exploratorios. El
moderador casi no interviene. Propone un tema y los demás deben generar una tormenta de ideas
que se les ocurre. Generalmente en estos grupos hay una capacitación del tema. Acá también se
pide que no se critiquen las otras ideas, sino que a partir de ella generen otras.
Entrevistas grupales de campos Formales: Casi no hay diferencia con el Grupo de Discusión. Pero
a diferencia del G.D, en esta yo busco respuestas grupales concensuadas y no discusión. En esta el
moderador plantea un cuestionario y no modera nada, quiere respuestas grupales.
Entrevistas biográficas (abarcan muchos temas) o monotemáticas.
Entrevistas estructuradas o no estructuradas.
25 de 107
Cuando un joven físico interroga a otro joven físico, sus preguntas se originan en disposiciones,
objetivamente armonizadas con las del encuestado.
Un ejercicio espiritual
Pero los mecanismos y subterfugios que pudimos imaginar para reducir la distancia tienen sus límites.
El sociólogo puede conseguir que el encuestado que se halla socialmente más alejado de él se sienta
legitimado a ser lo que es si sabe manifestarle, por el tono y sobre todo por el contenido de sus preguntas,
que, sin fingir anular la distancia social que los separa, es capaz de ponerse mentalmente en su lugar. Esto
no es efectuar la proyección de sí mismo en el otro, como dicen los fenomenólogos, sino darse una
comprensión genérica y genética de lo que él es, fundada en el dominio de las condiciones sociales que lo
producen. Comprender y explicar son una sola cosa.
Es importante que el entrevistador se haga de información previa para improvisar constantemente las
preguntas pertinentes, aunque el conocimiento previo será incapaz de llevar a una verdadera comprensión
si no va a la par con una atención al otro y una apertura oblativa que contadas veces se encuentra en la
existencia corriente.
La entrevista puede considerarse como una forma de ejercicio espiritual que apunta a obtener, mediante el
olvido de sí mismo, una verdadera conversión de la mirada que dirigimos a los otros en las circunstancias
corrientes de la vida.
La resistencia a la objetivación
No hay que creer que gracias a la reflexividad el sociólogo puede controlar por completo los efectos de la
relación de encuesta, porque los encuestados también pueden jugar con ella, conciente o
inconcientemente, para intentar imponer su definición de la situación y volcar en su provecho un
intercambio entre cuyas apuestas se cuenta la imagen que tienen de sí, y que quieren dar y darse a sí
mismos. Esto tiene lugar en una situación en la que, al evocar lo que no camina en sus vidas, se exponen a
todas las presunciones negativas que recaen sobre los males y la desdicha mientras no saben deslizarse en
las formas legítimas de expresión de las miserias genuinas: las que proporcionan la política, el derecho, la
psicología y la literatura.
Una de las maneras más sutiles de resistir a la objetivación es la de los encuestados que ,al jugar con su
proximidad social con el encuestador intentan, mas inconcientemente, protegerse de él prestándose
supuestamente al juego e intentando imponer, no siempre a sabiendas, una apariencia de autoanálisis.
26 de 107
El acta del discurso obtenido que produce el autor de la trascripción se somete a dos series de coacciones a
menudo difíciles de conciliar: las de la fidelidad a todo lo manifestado durante la entrevista; y las de la
legibilidad, que se definen en relación con potenciales destinatarios que poseen expectativas y capacidades
muy diversas, que prohíben la publicación de una transcripción fonética provistas de las notas necesarias
para restituir todo lo perdido en el paso de la oralidad a la escritura, es decir, la voz, la pronunciación, la
entonación, el ritmo, etc.
En nombre del respeto debido al autor, en ocasiones tuvimos que decidir, paradójicamente, aligerar el
texto de algunas elaboraciones parásitas, ciertas frases confusas, muletillas(los bueno y los eh) que,
aunque den su coloración particular al discurso oral y cumplan una función eminente en la comunicación,
enturbian y embrollan la trascripción hasta tal punto que, en ciertos casos, la hacen totalmente ilegible
para quien no haya escuchado el discurso original. Del mismo modo, nos autorizamos a aligerarla de todas
las declaraciones puramente informativas (sobre el origen social, el estudio, la profesión, etc.) siempre que
esos datos pudieran apuntarse, en estilo indirecto, en el texto introductorio. Pero nunca reemplazamos una
palabra por otra ni transformamos el orden de las preguntas o el desarrollo de las entrevistas.
La intervención del analista es tan difícil como necesaria.
Escoger el laissez-faire, con el objeto de rechazar toda limitación impuesta a la libertad del lector, sería
olvidar que, hágase lo que se hiciere, toda lectura está ya, sino obligada, si al menos orientada por
esquemas interpretativos.
Nos esforzamos por transmitirle al lector los medios de dirigir a las palabras que va a leer la mirada que
explica, que restituye a la encuesta su razón de ser y su necesidad.
El sociólogo no puede ignorar que lo propio de su punto de vista es ser un punto de vista sobre un punto
de vista. No puede re-producir el correspondiente a su objeto y constituirlo como tal al redituarlo en el
espacio social, más que a partir de ese punto de vista muy singular donde hay que ubicarse para estar en
condiciones de captar todos los puntos de vista posibles. Y sólo en la medida en que es capaz de
objetivarse a sí mismo puede, al mismo tiempo que permanece en el lugar que inexorablemente se le
asigna en el mundo social, trasladarse con el pensamiento al lugar donde está colocado su objeto y captar
así su punto de vista, es decir, comprender que si estuviera en su lugar, como suele decirse,
indudablemente sería y pensaría como él.
27 de 107
-Las entrevistas sostenidas con un solo individuo (individuales) o con un grupo de personas (de grupo).
-Las entrevistas que cubren un amplio espectro de temas (biográficas) o las monotemáticas.
-Las entrevistas dirigidas (estructuradas) en las que el actor lleva la iniciativa de la conversación o
aquellas en las que el entrevistador sigue un esquema general y flexible de preguntas, en cuanto a su orden
y contenido (no estructurada).
La entrevista en profundidad es de carácter individual, holística (evitando el procedimiento en torno a un
punto con el que opera la entrevista enfocada) y no directivo. La entrevista en profundidad es la que suele
denominarse entrevista no estructurada.
(La fotocopia hace acá un cuadro de diferencias entre entrevistas estructuradas y no estructuradas que no
copie porque no me pareció relevante y además me resultó largo para copiarlo todo, pero si quieren leanlo;
pagina 43 del modulo 3 o 2.1).
Los fundamentos operativos
La entrevista en profundidad se ejecuta en base a unos criterios operativos fundamentales en los que reside
su validez como instrumento de captación y transmisión de significado. La entrevista ignora el concepto
de individuo como engranaje de una máquina que opera por leyes fijas y universales. Parte del postulado
básico que defiende la capacidad de iniciativa personal en cada individuo. Esta interpretación
constructivista del comportamiento humano es la que defiende el interaccionismo simbólico, cuyos
postulados básicos presuponen que en el comportamiento humano:
-Uno aprende en interacción con otros, tanto a clasificar los distintos objetos como el modo en el que se
espera que se comporte ante ellos.
-Los actores se denominan unos a otros dentro de esta estructura social.
-Al hacerlo así invocan y crean las expectativas internalizadas de conducta respecto de unos con otros.
- La conducta social se deriva de un proceso social iniciado por las expectativas pero desarrollado a través
de un intercambio sutil que va configurando constantemente tanto la forma como el contenido de la
interacción.
Para entender por qué las personas actúan como actúan hay que comprender no sólo el sentido compartido
sino también el sentido único que ellas dan a sus actos.
El entrevistador se acerca al mundo simbólico del entrevistado de forma gradual y escalonada, partiendo
de cuestiones amplias al comienzo, extraídas de experiencias personales semejantes, de teorías científicas
ya elaboradas o del entrenamiento personal del propio investigador.
Todo esto implica un cierto balance entre una estructura tenue y tentativa inicial, propuesta más que
impuesta por el entrevistador, y una cierta ambigüedad e indecisión, siempre a merced de las respuestas y
de las claves que va ofreciendo el entrevistado.
La objetividad no solo es inalcanzable sino que es indeseable. El entrevistador no espera ni supone que el
entrevistado sea objetivo, sino todo lo contrario. También el entrevistador renuncia a la objetividad neutral
intentando acceder, mediante empatía y sesgo, al mundo interior latente del entrevistado.
El entrevistador hará bien en combinar preguntas abiertas con preguntas cerradas.
Dado el grado de acercamiento personal que una entrevista supone, la comunicación no verbal adquiere,
en ocasiones, tanta o mayor importancia que la comunicación oral.
Los procesos
Una entrevista en profundidad se puede considerar adecuada en su fase de recogida de información
cuando desarrolla acertadamente estos tres procesos básicos:
1) El proceso social de interacción interpersonal.
2) El proceso técnico de recogida de información.
3) El proceso instrumental de conservar la información, grabando la conversación.
1) El proceso de interacción
La entrevista es un acto de interacción personal, espontáneo o inducido, libre o forzado, entre dos
personas, en el cual se efectúa un intercambio de comunicación cruzada, a través de la cual el
entrevistador transmite interés, confianza y el entrevistado devuelve, a cambio, información personal en
forma de descripción, interpretación y evaluación.
La empatía es la condición esencial y característica para que tenga lugar una interacción social de
auténtica comunicación interpersonal.
El entrevistador debe iniciar su trabajo justificando su proyecto y su modo de actuar, y debe persuadir al
entrevistado del interés utilidad y oportunidad de la entrevista, identificando sus objetivos y condiciones
básicas.
28 de 107
Tanto la sensación de invasión o prepotencia como la de servilismo y adulación, deben ser evitadas por el
entrevistador. Tampoco debe insistir demasiado en caso de no colaboración, así como tampoco debe
aceptar sin un mínimo de crítica todo lo que el entrevistado le diga.
Cuatro tácticas sencillas debe seguir el entrevistador en orden a potenciar la comunicación no verbal, sin
dejar que decaiga en ningún momento el interés de la entrevista:
-Mirar al rostro del entrevistado de forma natural, directa y continua.
-La naturalidad en las posturas y movimientos corporales propios de quien sigue con atención y
satisfacción el desarrollo de la conversación.
-Las respuestas y comentarios del entrevistador deben formularse en tono amable, suficientemente
espaciados, sin crítica, ni adulación, en línea con los propios comentarios del entrevistado.
-Es de singular relevancia saber ejercer el arte del silencio. (para vos colorada)
La comprensión busca entrar en el mundo interior del entrevistado como un alter-ego, para vivir como él
su propia experiencia, definiendo la situación en sus propios términos, atribuyéndole el mismo significado
y jerarquía a las cosas. La comprensión no debe confundirse con una evaluación ética o profesional, y
tampoco puede confundirse con un autoritarismo que determina lo importante y lo superficial. La
comprensión se apoya en la empatía.
El entrevistador nunca enjuicia al entrevistado, pero si es requerido emitirá su opinión sobre lo que le ha
sido comunicado por el entrevistado. El entrevistador es una persona dotada de sentimientos y como tal
debe portarse:
-Debe reflejar sentimiento siempre que el entrevistado exprese alguna emoción.
-Debe captar toda la profundidad y todo el espectro de las emociones del entrevistado y así debe hacérselo
saber directa o indirectamente.
-Periódicamente debe ir resumiendo los sentimientos del entrevistado.
Para resumir podemos concretar en unos puntos-guía las normas concretas para un proceso correcto de
interacción humana de comunicación:
Se trata de una conversación.
La conversación no sigue un esquema rígido de desarrollo.
Aún así la conversación es un intercambio controlado, sistemático, profesional.
La conversación debe ser alimentada continuamente con incentivos que garanticen y fomenten la
motivación, el interés, y la participación espontánea.
La relación entrevistador-entrevistado tiene que ser amistosa, pero no aduladora o servilista, ni
autoritaria o paternalista.
La amistad de la relación no debe suprimir el carácter profesional de la entrevista.
Entre los diferentes paradigmas utilizables en el desarrollo de una entrevista, nosotros optamos por el que
sugiere el Interaccionismo simbólico y, dentro de este enfoque, entendemos que la entrevista equivale a un
encuentro cuyo desarrollo puede asimilarse al modelo dramatúrgico en el que conceptos como escenario,
actor, etc., adquieren una capacidad heurística interpretativa de primer orden. El entrevistador realiza un
papel en una representación a los ojos de su entrevistado (espectador), lo cual implica que el éxito de su
trabajo depende:
- del grado de legitimación que tal papel reciba del entrevistado/espectador.
- Del grado de perfección con el que lo desempeñe, una vez que la representación haya sido
legitimada.
2) El proceso de sonsacamiento
La interacción social de la entrevista no es más que el soporte utilizado por el entrevistador para lograr su
objetivo: sonsacar del entrevistado la experiencia, la definición de la situación, el significado que él sólo
posee.
El entrevistador nunca acude a una entrevista sin haber diseñado previamente un protocolo de
conversación en la que están registrados horario, emplazamiento, guión de temas, hipótesis posibles de
trabajo, estructura de la conversación, ritmo y duración de la misma. Antes de iniciar la entrevista, el
entrevistador debe garantizar, ante su interlocutor potencial, su propio status social y profesionalidad; debe
haber justificado el objetivo y los motivos de la entrevista, así como las líneas generales de la misma.
La entrevista en profundidad reclama una estrategia que puede concretarse en tres elementos: la captación
o lanzadera, la indagación o relanzamiento y la fiabilidad o control.
29 de 107
2.1) La Lanzadera (Esta técnica fue aplicada por el personaje conocido con el apodo de fantasista
cuando lo lleve por primera y única vez a mi ciudad natal, luego de una noche de birra, fernet y vino de
caja mezclado con un delicioso jugo zuko)
Los primeros pasos de la entrevista se desarrollan en forma de comentarios y preguntas de carácter
superficial, general y abierto. Así, de a poco el entrevistador va a ir apuntando su objetivo y va a evitar las
respuestas de tipo si o no.
Ahora bien, es importante aclarar que insistir en el uso de preguntas abiertas no debe confundirse con el
vicio de formular preguntas confusas y ambiguas. Esto último es tan peligroso como las preguntas
sesgadas que le dan al entrevistado el tipo y orientación de respuesta que parece agradar al entrevistador. A
su vez las preguntas abiertas iniciales deben huir de cualquier apariencia de enfrentamiento o de choque.
La estrategia básica de todo el proceso de captación de la información está presidida por la que se
denomina lanzadera-embudo, en donde el entrevistador inicia un tema abordándolo con una pregunta
abierta que luego se va estrechando, explicando.
En esta táctica de captación de la información, el entrevistador debe hacer gala de dos habilidades tanto
opuestas, aunque complementarias entre sí:
- Por un lado debe exhibir una rica sensibilidad
a) Para captar todos los mensajes de su interlocutor.
b) Para seleccionar aquellos de contenido más rico.
c) Para sacar a flote aquellos tímidamente apuntados pero bloqueados por algún motivo.
- Por otro lado, el entrevistador debe exhibir una agresividad creciente que:
a) Elimine preguntas inútiles, repeticiones innecesarias, respuestas de humo que ocultan el
verdadero núcleo del significado.
b) Concretice progresivamente la conversación inexorablemente a datos, personas, aspectos,
sentimientos, cada vez más concretos y significativos.
A su vez esto debe ir acompañado de una receptividad por la que el entrevistador hace saber al
entrevistado que información va captando, que interpretación va elaborando y que sentido va dando a toda
la situación. Este proceso consta de dos ejercicios: el Reflejo, a partir del cual el entrevistador refleja lo
que va captando en presencia del propio interlocutor comprometiéndose a repetir las principales ideas
expuestas, y la Estructuración que posibilita la captación del significado subjetivo y no sólo la
memorización de los datos descriptos.
2.2) El Relanzamiento
Son muchos los motivos que, a lo largo de la conversación, fuerzan a que ésta se interrumpa.
La táctica de relanzamiento equivale a colocar de nuevo en órbita al entrevistador, obligándolo a continuar
su marcha común. Todo relanzamiento está sometido a dos leyes de manejo:
a) La oportunidad: el relanzamiento es un mecanismo de reserva, que no debe ser utilizado hasta que
no se compruebe que la conversación ha quedado realmente bloqueada. Una norma de
oportunidad consiste en no interrumpir nunca al entrevistado.
b) La opacidad: exige que el relanzamiento sea aséptico y neutral. Debe precaverse de orientar en
ningún sentido el resto de la conversación.
Los tipos de relanzamiento pueden ser muchos y muy variados, siendo la norma suprema la de saber
acertar cuando y cual de ellos debe aplicarse en cada momento:
-el silencio: se utiliza como muestra de interés.
-el eco: el entrevistador repite la última palabra o frase del su interlocutor.
-el resumen: es una forma de aprovechar el bloqueo para garantizar que se va comprendiendo
correctamente al interlocutor.
-la insistencia: el entrevistador vuelve a repetir la pregunta inicial que abría la conversación.
-la cita selectiva: se puede entresacar del monologo del entrevistado algún dato, expresión.
-el frigorífico: el entrevistador debe ir provisto de un arsenal de temas a los que recurre en operación
lanzadera.
-la distensión: recurrir a una taza de café sirve para enfriar el momento en el que el bloqueo está presente.
-la distracción: darle libertad en forma de distracción.
-la estimulación: se apela a la memoria del interlocutor, recordando anécdotas que levantan de nuevo el
tono de la conversación.
-la posposición: cuando el bloqueo es tan serio se recure a una interrupción temporal y se pospone la
entrevista a una fecha prefijada por el entrevistador.
30 de 107
2.3) El control
El entrevistador capta toda información de manera mediatizada por la comunicación del entrevistado. Es
por esto que el investigador, aún admitida la buena voluntad y la colaboración del investigado, debe
aplicar algún tipo de control a la información recibida. Exponemos los elementos que deben ser sometidos
a control por parte del entrevistador:
- Citas y datos descriptivos
- Inconsistencias y ambigüedades
- Idealizaciones y fugas
- El desinterés y el cansancio
- El sentido común.
El proceso de sonsacamiento (lanzadera, relanzamiento y control) consta de unos elementos básicos que
deben ser tenidos en cuenta en toda entrevista:
- La conversación funciona a modo de lanzadera (de fuera a dentro y de dentro a fuera) con la que se
abordan sucesivamente los temas, unas veces en forma de embudo (de lo mas general a lo más concreto),
en forma de bola de nieve (cada tema se va engrosando con los datos anteriores), o en forma de calendario
biográfico (la historia es narrada de forma evolutiva).
- La conversación está dirigida por el entrevistador quien lleva en todo momento la iniciativa y que hace
gala de una agresividad creciente a medida que avanza la conversación y recurre constantemente a
relanzamientos sucesivos para iniciar nuevos temas.
- La conversación es un testimonio controlado por el investigador que controla citas, inconsistencias,
idealizaciones, fugas e interpretaciones superficiales.
3) El proceso de registro
El tercer proceso que tiene lugar en la entrevista es el de registro y conservación de la información
obtenida.
La toma personal de notas violenta menos al entrevistado y permiten al entrevistador anotar cosas
importantes que vienen a su mente, pero requiere mucha atención por parte del entrevistador y resta vida e
intimidad a la conversación. La toma mecánica (cámara, grabador) libera totalmente al entrevistador y le
permite trabajar al pleno de sus facultades, pero casi siempre resta espontaneidad al entrevistado y, en
ocasiones, le bloquea por completo.
Una alternativa es también recurrir a la grabación oculta en cuyo caso se plantea un problema de ética.
Finalmente la grabación debe incluir todo aquellos elementos de datación (fecha, lugar, condiciones),
contextualización (personaje, situación) y enriquecimiento convenientes para una mejor interpretación de
la información obtenida.
31 de 107
empiezan a emerger entonces se puede pasar a una utilización intensiva, es decir, centrada en algún
aspecto que parece digno de un estudio en profundidad.
La función analítica
Aquí el objetivo es analizar. Comprende dos momentos: el momento de la comparación de los fenómenos,
de la construcción de una teoría, es decir de una representación mental de lo que ocurre en la realidad
social; y el momento de la verificación o más bien de la consolidación empírica de las proposiciones
descriptivas y de las interpretaciones avanzadas.
Ciertos practicantes del enfoque biográfico se interesan por el sentido, otros por las relaciones socio
estructurales. Los lingüistas utilizan tres niveles: el de los significantes, el de los significados y el de los
referentes.
La segunda orientación, la única a la que nos referiremos en lo que resta del texto, es la que he propuesto
llamar etnosociológica.
Una vez que se encuentre un objeto sociológico se intentará, sistemáticamente, encontrar casos negativos (
en el caso biográfico, estos casos son personas) que pongan en contradicción al modelo. Estas entradas
diferentes nos permitirán confirmar o refutar el modelo elaborado hasta entonces. Por Ej., si se ha entrado
por mediación de un sindicato, busco también a los no sindicados.
La función expresiva
Si se dispone de relatos de vida es posible utilizarlos de dos maneras. Una consiste en ilustrar tal o cual
punto de la argumentación sociológica con un ejemplo tomado de un relato. Este fragmento puede servir
de ilustración, pero no como prueba.
Pueden utilizarse segmentos de relatos de vida para ilustrar tal o cual punto de la argumentación, teniendo
en cuenta que la validez de ésta reside en otra parte, es decir en: a) la saturación alcanzada, b) la
coherencia interna de la argumentación.
El inconveniente de este método es que conduce a segmentar relatos que constituyen por sí mismos
totalidades.
Cuando sólo son publicados fragmentos del relato, su carácter de parte de una totalidad significante se
pierde.
Por el contrario, al publicar los relatos en su totalidad se plantean numerosos problemas: el paso de la
palabra a la lengua escrita, la extensión de los textos, etc.
Hay tesoros de ideas en los relatos de vida. Para elaborar un discurso sociológico no existe una sola vía,
sino al menos dos. La primera, clásica, consiste en apropiarse de esos tesoros y traducirlos al discurso
sociológico borrando sus orígenes: sólo el investigador sabrá de donde habrá sacado sus ideas.
La otra vía, emprendida raramente, consiste por el contrario en trabajar el relato de modo que se ponga de
relieve lo que aporta de conocimientos sobre lo social. Esto puede hacer en interacción con el interrogado,
pero si esto no es materialmente posible entonces la solución es la reescritura.
El trabajo del investigador debe ir en el sentido de poner en relieve los pasajes sociológicos.
MUESTREO TEORICO
MAXWELL
Muestra según propósitos: selección basada en criterios, es una estrategia en la cual los
escenarios particulares, personas o eventos son seleccionados deliberadamente con el fin de obtener
información importante que no puede ser conseguida de otra forma. Sus metas son→ lograr
representatividad de los contextos, individuos o actividades seleccionadas. Captar adecuadamente la
heterogeneidad de la población. Selección de una meta para examinar deliberadamente casos que son
críticos para las teorías que usted ha empezado a estudiar o ha desarrollado. Posibilidad de establecer
comparaciones para iluminar las razones de las diferencias entre contextos o individuos.
FLICK
El muestreo teórico es el proceso de recogida de datos para generar teoría por medio del
cual el analista recoge, codifica y analiza sus datos conjuntamente y decide que datos recoger después y
donde encontrarlos, para desarrollar su teoría a medida que surgen. Este proceso esta controlado por la
teoría emergente.
Los individuos, grupos , etc. se seleccionan según su nivel (esperado) de nuevas ideas
para la teoría en desarrollo, en relación con el estado de elaboración de la teoría hasta ese momento.
32 de 107
El tamaño de la muestra y la extensión de la población no se decide de antemano. La
cantidad de caso no esta predeterminada y se decide por la saturación teórica. (diferencia con el muestreo
estadístico)
Los rasgos de la población no se conocen de antemano (diferencia con el muestreo
estadístico)
Puede haber una extracción repetida de los elementos de muestreo (datos) (recordemos
investigación circular, vuelve al campo) (diferencia con el muestreo estadístico)
El muestreo termina cuando se ha alcanzado la saturación teórica (diferencia con el
muestreo estadístico, culmina cuando se ha estudiado la muestra entere).
Si bien este muestreo deriva de una muestra estructurada aquí no se define antes de
recoger e interpretar los datos, sino que se desarrolla durante ese mismo momento y se completa por
nuevas dimensiones o se limita a ciertas dimensiones o campos.
Desde una perspectiva histórica, los grupos de discusión muchos autores encuentran muchos
procedimientos que fueron aceptados como prácticas comunes en las entrevistas grupales fueron dados a
conocer en trabajos de Robert Merton (1946/56). Si bien, otros autores advierten que la técnica descrita
por Merton y colaboradores ha ido cambiando y adoptando nuevas formas en la diversidad de campos
donde se ha aplicado. Además, los grupos de discusión (o focalizados) se han desarrollado y aplicado
mayormente en el campo de la investigación de mercados que en la investigación social.
Algunos autores, entienden que el enfoque y las contribuciones de técnicas cualitativas tan difusas
como las de grupo de discusión han de ser necesariamente integradas juntamente con los aportes
convergentes de una gran diversidad de perspectivas y técnicas –censos, documentales, análisis históricos,
encuestas estadísticas, observación participante, estudios de casos, etc.-. El hecho de que los grupos de
discusión se hayan desarrollado y aplicado, durante muchos años, en el contexto de los estudios de
mercado ayuda a entender la teoría y la práctica transmitida sobre esta técnica.
Para precisar a los grupos focalizados o de discusión se les suele considerar como “una técnica
específica dentro de la categoría más amplia de entrevistas grupales” orientadas a la obtención de
información cualitativa. Interesa, sin embargo, centrarse en la clasificación de entrevistas grupales
realizada por Frey y Fontana, que desde la investigación social comparan cuatro tipos:
a) Grupos focalizados. Se reconoce la diversidad de aplicaciones de esta técnica (en los estudios de
mercado, en la elaboración de cuestionarios de encuestas sociales o en la evaluación de programas) y
la relación con los “grupos terapéuticos empleados por los psiquiatras. Sin embargo, su definición
típica sigue haciéndose desde la experiencia en el campo de la investigación de mercados: se destacan
por el carácter exploratorio o preparatorio; la realización en lugares habituales, en escenarios formales
33 de 107
(no naturales) de entrevista; estilo de moderación semidirigido o dirigido, generalmente siendo el
formato de entrevista y la interrogación “algo estructurado”.
b) Brainstorming (“inspiración”, “idea genial”, “tormenta de ideas”. Esta técnica de entrevista
grupal pone el acento en la creatividad y en la generación de nuevas ideas, a partir de un tema o
cuestión que el entrevistados (moderador, investigador) plantea a un grupo de personas. También tiene
carácter exploratorio, pero se realiza tanto en escenarios formales como naturales, y el moderador
adopta un papel pasivo y no exuste una estructuración de preguntas.
c) Grupos nominal y Delphi. Se trata de técnicas cuyo carácter grupal y de entrevista resulta sui
generis, pues las “entrevistas” suelen realizarse sin que se vean físicamente los miembros de dichos
grupos (de ahí su denominación como grupos nominales, sólo de nombre). Generalmente el
investigador hace una ronda de entrevistas individuales con cada miembro. Luego, en sucesivas
rondas de entrevista individual, ofrece a cada entrevistado un resumen de las respuestas dadas por los
otros miembros del grupo. Hay otra modalidad, en la que se reune a los miembros del grupo, pero se
les exige responder por turnos las respuestas del investigador, sin permitir que interactuen
espontáneamente.
La técnica Delphi sería una “aplicación especializada de la técnica del grupo nominal, usada con
propósitos de desarrollar pronósticos de sucesos y tendencias futuros basados en la opinión colectiva de
expertos”. En oponión de Frey y Fontana, ambas técnicas se caracterizan por la formalidad (no
naturalidad) del contexto y los canales empleados en su realización –por el estilo dirigido que imprime el
investigador, el carácter estructurado y la mínima interacción entre los entrevistados-. Sin embargo, es
necesario mantener un cierto talante abierto respecto a las distintas técnicas.
d) Entrevistas grupales de campo, naturales y formales. En cualquier trabajo de campo de tipo
cualitativo, se sabe que las “entrevistas” en grupo suelen surgir espontáneamente. En general, esto sucede
cuando el investigador va buscando sobre el terreno a informantes o entrevistados potenciales y los
encuentra agrupados, en su ambiente, en mayor o menor número. Ahora, si en lugar de aprovechar este
encuentro sólo para concretar entrevistas individuales, se improvisa una conversación en grupo, informal e
in situ, el investigador habrá practicado una forma de entrevista grupal natural.
En tanto forma de investigación cualitativa, los grupos focalizados son básicamente entrevistas de grupo,
aunque no en el sentido de una alternancia entre las preguntas del investigador y las respuestas de los
participantes de la investigación. En vez de ello, hay una dependencia de la interacción dentro del grupo,
basada en los temas que proporciona el investigador, quien típicamente adopta el papel de moderador.
Podemos quedarnos con tres ideas que sirvan de resumen y complemento de lo expuesto sobre la
definición comparadas de los grupos de discusión:
1. Que los investigadores sociales vienen haciendo desde hace tiempo entrevistas de grupo.
2. Que la técnica de los grupos focalizados o de discusión ocupa un lugar a caballo entre los dos
modos principales de obtención de información cualitativa en las ciencias sociales: las técnicas
de entrevista individual y las técnicas de observación participación.
3. Que el grupo de discusión no es equiparable a ninguna de sus modalidades próximas: no es
una conversación grupal natural, no es un grupo de aprendizaje, tampoco un foro público. Sin
embargo, parasita y simula (parcialmente) a la vez, cada una de ellas.
Pueden diferenciarse dos clases de combinaciones de los grupos de discusión con a) los métodos y
técnicas cuantitativas y b) con otras técnicas cualitativas.
a) La combinación de grupos de discusión y encuesta puede darse de distintas maneras (antes de la
encuesta, después del campo de la encuesta, después del análisis de la encuesta y al mismo tiempo
que la encuesta). La realización de grupos de discusión antes de una encuesta ha sido la práctica más
extendida. El fundamento tiene que ver con el desarrollo y la mayor aplicación de esta técnica
cualitativa en la investigación de mercado y en el marketing comercial (no social). Además, el uso
de grupos de discusión en el diseño de cuestionarios esta técnica cualitativa puede desplegar
también su potencial encauzándolo hacia la anticipación y prevención de problemas de rechazo de
una encuesta.
b) Los grupos de discusión pueden combinarse también con otras técnicas cualitativas. Cada
técnica tiene sus puntos fuertes y débiles, y otra cuestión a apreciar es que dicha combinación se
haga de madera más o menos acertada, de manera más o menos forzada.
34 de 107
A su vez, autores como Morgan creen necesario poner el énfasis potencial de los grupos de discusión
por sí solos, como modo autocontenido de investigación social.
Veamos ahora las ventajas y limitaciones de los grupos de discusión. Con respecto a las ventajas:
a) Facilidad, abaratamiento y rapidez –econimía de tiempo y dinero. Si bien es
necesario saber que los grupos foalizados sólo pueden hacerse rápidamente en circunstancias muy
inusiales. Aunque el grupo en sí dure sólo 1 ó 2 horas, lleva tiempo crear un conjunto efectivo de
pregundas, localizar a los participantes apropiados y entender la información que proporcionan.
b) Flexibilidad. Se pueden indagar una gran variedad de temas, con personas diversas
y en diversidad de ambientes. Sin embargo, la téncica de los grupos exige reunir en el mismo lugar y
al mismo tiempo entre 6 y 10 personas, lo cual precisa así mayor espacio y coordinación.
c) Interacción grupal. La situación de grupo hace que las respuestas o intervenciones
surjan como reacción a las respuestas o intervenciones de otros miembros presentes en la reunión.
Otros preparativos. Hay que decidir cómo se va a contactar con los participantes y cuál va a ser el
lugar de reunión. Es decir, que hay que establecer condiciones precisas de selección y mecanismos de
filtrado o supervisación de la labor de los contactadores. Tradicionalmente, los mecanismos para el
contaco en los grupos de discusión han sido utilizar redes personales (privadas) de comunicación o
relación social; evitar revelar al participante potencial cualquier información que pudiera influir en sus
respuestas posteriores; evitar la participación de amigos o conocidos. Sobre el lugar de reunión, la
selección de un espacio apropiado adquiere relevancia especial en este tipo de técnicas.
35 de 107
Sobre las actuaciones del moderador y los participantes en la reunión.
Las actuaciones del moderador se agrupan en dos momentos fundamentales de la dinámica del grupo
denominados “provocación inicial” y “provocación continuada”. Se advierte la necesidad de trascender la
dinámica de pregunta-respuesta y llevar la situación hacia una interacción grupal, característica de la
técnica.
La forma de proponer un tema de conversación al inicio de una reunión de grupo puede variar desde el
extremo de “entradas directas y patentes”, hasta el extremo de las “entradas indirectas o latentes”. El
moderador debe provocar en el grupo el deseo de discutir sobre el tema. Éste suele ser el momento más
crítico, sobre todo si se produce una situación de silencio o la primera intervención se dirige al moderador
para preguntarle que concrete el tema.
La “provocación continuada” del moderador para el mantenimiento y el control de la discusión implica
que la conversación no se aleje en exceso del tema previsto. El grupo formado y puesto en marcha con un
propósito de trabajo concreto corre el riesgo de desmembrarse, de perder la palabra y resultar inoperante
para el propósito de estudio. Por ello, al moderador se le conoce como el “motor del grupo”.
36 de 107
Un aspecto a tener en cuenta es que la observación no solo consiste en el uso del sentido de la visión, sino
también es importante tener en cuenta olores, tacto y sonidos. Estas percepciones no proveen de datos que
también son importantes.
Es una técnica con origen en el positivismo. Vinculado con las ciencias naturales. Aparece en la
antropología. La observación se utiliza como técnica para incorporarse en una cultura o sub.-cultura.
Mimetización. En la observación hay un recorte teórico. Se elije que ver, orientado hacia el objetivo que
se tiene en mente. La observación es un proceso de contemplar sistemática y detenidamente como se
desarrolla un fenómeno de la vida social, sin manipular ni modificar los sucesos. Observarla tal cual
ocurre.
La observación debe estar orientada hacia un objetivo concreto de investigación formulado de ante
mano. Debe ser planificada sistemáticamente en fases, aspectos, lugares y personas. Se comienza
seleccionando un grupo, un tema o un fenómeno como objeto específico de la tarea de observación. Esto
se lleva de manera sistemática. Se ordenan las piezas, anotando resultados, describiendo, relacionando y
sobre todo tratando de interpretar su significado y su alcance. La observación no consiste solo en el uso
del sentido de la visión, sino también es importante tener en cuenta el olfato, el oído y el tacto. Estas
percepciones nos proveen de datos que también son muy importantes para la investigación.
TRADICIÓN OBSERVADORA
1- La escuela formalista. Principal exponente: Simmel, quien, en lugar de analizar el contenido de las
interacciones sociales, estudiaba sus formas o estructuras, y los modos como constituía patrones de
comportamiento. Su interés residía en constatar la importancia de la socialización como base de los modos
en que quedaba cristalizado el orden social. No recurría a experimentos.
2- La escuela dramatúrgica. Goffman, su estudio de cómo el individuo presenta su yo individual en el
escenario social de los otros. Su enfoque concebía la interacción social como una representación teatral en
sentido estricto, en la que, por consiguiente era posible encontrar un guión, protagonistas, escenarios,
papeles, audiencia, etc.
3- La autoobservación Son investigadores que han orientado sus análisis hacia el comportamiento propio
en situaciones críticas o límite, apelando al postulado de q las experiencias fundamentales y el significado
de tales experiencias habría de ser fundamentalmente el mismo para ellos q pa cualquier otro sujeto, con la
ventaja de q el propio investigador podría conocer de este modo, de primera mano el contenido y el
significado de tales experiencias.
TIPOS DE OBSERVACIÖN
Podemos distinguir 4 tipos de observación. En cada una de ellas se puede observar el rol que el
investigador asume.
En este tipo de observaciones, la panorámica participativa, suelen utilizarse tres tipos o estilos de
recolección de la información:
1) Estilo Holístico: a la hora de producir información lo hacen sobre la base del supuesto de que toda
cultura es particular, elaborada a lo largo del tiempo y compuesta de materiales dispersos, y a través
de estos se trata de buscar parámetros culturales universales, o sea criterios culturales que puedan
estar presentes en cualquier cultura del mundo aunque su contenido expreso difiera (Ej. La idea de
una deidad o varias deidades esta presente, sostienen estos, en toda cultura del planeta, solo que
cambia el dios o los dioses: ala, dios, buda, un zapallo, etc.)
2) Estilo semiótico: Busca el punto de vista del nativo. Tratan de acceder al mundo al
mundo conceptual del nativo y así pensar e interpretar como el.
Hay que adoptar el modo de pensar del informante, mientras se conserva el uso pleno de las
facultades críticas propias.
3) Estilo Conductista: Se trata de buscar la forma y la función, más q el significado y buscar
preposiciones deductivas.
37 de 107
Hay un plan, hipótesis a probar, datos concretos pa encontrar patrones de covarianza.
C) Selectiva- Participante:
Este tipo de observación se realiza por ejemplo cuando un investigador se enrola en la policía o toma un
trabajo determinado en una empresa a la cual pretende estudiar, pero no revela nunca su identidad de
investigador.
Se selecciona un determinado grupo y se selecciona que se quiere observar. Existe siempre un plan o guía
previa que contiene que es lo que se desea observar.
Como el investigador pretende pasar desapercibido y mantener su identidad oculta, la recogida de datos se
vuelve más compleja y por esto se debe realizar un trabajo mas intenso.
En todas las observaciones participantes (panorámicas y selectivas) se corre el riesgo de “convertirse en
nativo” y así el investigador pierde su punto de vista crítico, lo cual limita lo que pueda ver.
En esta clase de observación el investigador puede verse obligado a asumir actitudes y comportamientos
arriesgados para su integridad física, psíquica y moral. Ej. Un investigador infiltrado en la policía ve como
un policía delante de el maltrata a un joven inocente.
El hecho de pasar desapercibido lo limita temporal y espacialmente. Ej. pensemos en el mismo
investigador infiltrado en la policía, le tocaran hacer turno de recorrida, lo cual no le permite ver cosas que
pasan en la central
D) Selectiva- No participante:
Esta observación es la que menos riesgo presenta ante el problema de volverse nativo o ante riesgos
físicos, Psíquicos o morales. Uno mantiene, su libertad de movimientos y su distancia para con el
fenómeno y con respecto a las personas observadas.
Uno selecciona su objeto y lo que desea ver de el, y se presenta en el lugar como observador.
Uno de los riesgos es el “apriorismo intelectual” o el etnocentrismo cultural que puede sesgar la
observación, a través de los cuáles intenta explicar con categorías propias, y no con las del grupo social
observado los fenómenos q ocurren..
Estos 4 tipos de observación casi nunca se dan en estados puros, los anteriormente expuestos son tipos
ideales de formas de observar, en la practica suelen darse usos combinados de los mismos.
Más allá del tipo de observación que se utilice, para que la producción de datos sea buena es fundamental
cumplir 4 requisitos:
A) Forma de la interacción (Participación del observador)
B) Protocolo de recogida de datos (selección o muestreo)
C) El control de los datos (controles)
D) El correcto tratamiento de los 3 puntos anteriores.
38 de 107
La sola presencia y conducta del observador, sea que se presente claramente como tal o no, crea una
imagen de si mismo y los demás utilizan esta imagen como base para su relación y comunicación con él.
El observador puede ser tomado como un colega, un amigo, un protector o también como un enemigo, un
intruso o un impostor.
La presencia del observador altera la situación social preexistente, esta modificación puede ser mínima
e intrascendente o puede alterar sustancialmente el fenómeno que se pretende observar.
El observador debe definir la posición que tomara ante el grupo, la misma debe ser clara y plausible. Es
importante tener en cuenta que lo que el investigador ve depende de la posición social en la q se encuentra,
su comportamiento hacia el grupo y el de los miembros de éste hacia él, está condicionada por esa
posición.
39 de 107
Estas 5 fases ofrecen diferentes alternativas de acceso al contenido de la info, asi como imponen
condiciones diferentes pa acceder a ella.
Los informadores: son algunos de los actores sociales de la situación q se pretende estudiar, a quienes el
investigador va a solicitar su colaboración ya q necesita de “introductores de significado” interpretes de la
situación q le ayuden a entrar en el mundo de aquellos significados q los diferentes actores sociales
atribuyen a sus actos y q el investigador no puede captar.
(Lo que sigue es INCREIBLE) “Naturalmente no todos los informadores son de la misma calidad”. La
selección de los mismos constituye un elemento decisivo en la observación. Un criterio para la selección
de un “buen informador” es el de su sensibilidad. Hay ciertas personas especialmente cualificadas pa esta
tarea: “el extraño”, el novato, el desclasado!!!, (esta es la mejor) “el sujeto reflexivo por naturaleza”, el
pequeño intelectual, el q ha viajado. Otro criterio es el relativo a la predisposición mayor de lo normal a
hablar y revelar información. Clases de personas: el ingenuo, el frustrado!, el desbancado, el viejo lobo, el
necesitado!!! (y asi sigue con otros criterios, pero fue)
Para realizar una observación, primero se debe tener un plan general de investigación, donde se decidirá
que tipo de observación y que tipo de participación se llevara a cabo.
Luego deberán tomarse decisiones sobre el muestreo.
Muestreo:
Como no es posible observar todos los focos de interés, todos los escenarios y todos los actores, hay que
seleccionar, hacer un muestreo de estas cuestiones.
Para el muestreo hay que tener en cuenta
- Que tanto personas, escenarios y focos de interés, sean los más inmediatos, que no necesite
intermediarios ni intérpretes para poder acceder y observar estos.
- Que posean la máxima riqueza de contenido, que sean los que posean la mayor información.
O sea, seleccionar los de mayor riqueza de contenido y de significatividad para los fines que se persiguen.
Hay que tener en cuenta a la hora de observar, seleccionar y recoger los datos, que la observación es un
proceso en forma de espiral. El investigador llega con un bagaje teórico, con un puñado de hipótesis;
selecciona sus actores, sus escenarios, sus focos y se pone a trabajar. Luego regresa con la información, la
ordena, la clasifica, la sistematiza, la reflexiona y así puede comprobar, por ejemplo, que sus suposiciones,
las personas elegidas, su información previa o sus focos de interés no eran los adecuados o selecciono mal.
Todo esto le conduce a un replanteamiento de los planes iniciales. Así reelaborara y saldrá nuevamente.
Cuando se concibe a los planes previos, guías y muestreos de una observación, como a los de cualquier
otra técnica cualitativa, como flexibles, es en el sentido que anteriormente expusimos.
C) Controles
Como todo proceso de producción de datos, necesita controles y precauciones, que se deberán tomar, para
conseguir una información de buena calidad, no sesgada, ni contaminada.
Los problemas difieren si la observación es participante de si no lo es, por tanto los controles también
serán distintos.
Los controles se realizan principalmente con la confección del protocolo de observación. También se logra
un control, y muy importante, con la decisión de como se encarara la interacción social.
Controles sobre la observación no participante:
En este caso los sujetos observados saben cuales son los objetivos del observador y frente a esto ponen en
marcha mecanismos de defensa frente el observador.
40 de 107
-Los observados suelen sentirse incómodos, sienten que es una situación embarazosa y creen no saber
como comportarse.
-Muchos sienten que dar información es traicionar a otros, por ejemplo en una fabrica.
-Suelen creer que la observación concluirá en un informe que puede alterar su situación laboral (miedo a
que lo despidan)
Ante estas y muchas situaciones mas, los sujetos suelen ocultar la información, disfrazarla, cambiarla o
mentir. También se suelen difundir rumores que desprestigian al observador (se lo suele tratar como un
informante de la patronal).
Para evitar esto es importante tener en cuenta:
-Como se presenta uno ante los observados, que postura tomara
-Como explicara que es lo que esta haciendo. Es recomendable no dar mucha información, pero si por
ejemplo dejar en claro que esta haciendo una investigación científica que nada tiene que ver con los
directivos o patrones del lugar y aclarar que se preservara la identidad de ellos.
-No relacionarse demasiado con ninguno en particular, no hacer amistad con ninguno, pero tampoco estar
absolutamente distante de todos.
Ventajas de la observación
-La observación no interfiere en el desarrollo del fenómeno social, lo estudia tal como ocurre sin ningún
tipo de modificación ni interferencia.
-Es una técnica de producción de datos natural e inmediata.
-Es fácil de utilizar en lugares en que no se puede utilizar otro método.
-Reduce al mínimo los efectos que provienen de la presencia del investigador.
-Es fácil de realizar y rápida, se evitan perdidas de tiempo en contactar a entrevistados por ejemplo
Desventajas de la observación
-Muchos fenómenos no son observables directamente, están latentes a nivel demasiado profundas y solo
una entrevista en profundidad serviría.
-Otros no son observables por que están muy dispersos, separados en piezas que hay que unir y ensamblar
-Los fenómenos a observar pueden generar una reacción emocional del observador
-Hay acontecimientos como los no públicos que pueden quedar sin observar
-El observador puede experimentar un volverse nativo.
-Pueden existir reacciones hacia el observador y la información se oculte o limite.
Lo que más distingue a las observaciones de los investigadores científicos de las observaciones
espontáneas de cada día es el carácter intencional y sistemático de aquellas. La observación no solo
incluye la vista, sino también el tacto, oído, olfato.
La observación (a diferencia del experimento) se caracteriza por su política de no injerencia, de no
interferir en el desarrollo de un fenómeno social. La observación pretende examinar la realidad tal como
ocurre sin ningún tipo de manipulación o modificación. Se prima la naturalidad y la inmediatez. Una
ventaja de la observación es su capacidad de poder ser realizada sin la conciencia explícita de los
interesados. De hecho, hay situaciones y procesos q no podrían ser estudiados de otro modo. Además,
reduce al mínimo los efectos que provienen de la presencia del investigador. También es fácil de realizar y
rápida, se evitan perdidas de tiempo en contactar a entrevistados por ejemplo
41 de 107
También hay desventajas: muchos fenómenos no son observables directamente (por estar latentes o a
niveles demasiado profundos), El observador puede experimentar un volverse nativo. También pueden
existir reacciones hacia el observador y la información se oculte o limite. O a veces el observador
establece una relación emocional con lo q observa, q lo “ciega”. Se suele criticar la falta de validez de la
observación porq, al no poder interferir personalmente en la situación, el observador debe apoyarse en sus
propios criterios personales y los participantes y protagonistas de la situación no pueden aportar sus
puntos de vista ni sus críticas correctoras.
42 de 107
social que estudia y los diferentes roles pueden ir cambiando en el curso de loa interacción que tiene lugar
durante el trabajo de campo
TIPO DE PARTICIPACÍÓN EN LA OBSERVACION : SPRADLEY
No participación: Ausencia física del investigador en la situación social a estudiar, Por ejemplo
Estudio etnográfico de programas de televisión. Completo observador
Participación pasiva: presencia en la escena pero con interacción o participación mínima, solo se
dispone de roles periféricos. Es ventajoso en el aprendizaje de las reglas culturales seguidas en la vida
cotidiana, lo negativo es que no se puede sostener esta situación mucho tiempo. Completo observador
Participación moderada: se puede definir como el balance entre un miembro y un extraño, entre
participación y observación: Su punto positivo es que facilita el acceso del investigador al significado que
dan los actores a su actividad, puesto que permite pedir aclaraciones, esto permite olvidar la presencia del
observador.
Observador como participante
Participación activa: supone implicarse en la actividad estudiada.
Participante como observador
Participación completa: Autobservación. Completo participante
La observación participante resulta apropiada cuando: 1- Se sabe poco de los fenómenos que vamos a
estudiar. 2- Hay grandes diferencias entre los puntos de vista de los miembros y de los ajenos. 3- el
fenómeno se oculta a la luz publica
La observación participante resulta apropiada sobre todo en estudios exploratorios, descriptivos y
aquellos orientados a la generación interpretaciones teóricas.
Ángulos diversos de la observación según los filtros teóricos de las distintas perspectivas
sociológicas
La sociología formal (Simmel) debe su adjudicación a el especial interés de por la forma de
interacción social (subordinación del conflicto) y a los tipos de ínteractores.
La sociología dramatúrgica (Goffman) esta basada en la una sugerente visión de la escena y
ritualizada en las relaciones sociales entre personas. Las técnicas de observación participante se encuentra
esencialmente ligadas a esta perspectiva atenta a la exterioridad teatral y al juego de roles de la vida social.
Los estudios de la esfera publica constituyen una gran ampliación de la línea dramatúrgica de
Goffman.
El uso de la autobservación fue utilizada como herramienta de la cobertura teórica de la sociología
fenomenológica (Schutz) y la sociología existencialista (Douglas). Inmersión del observador en la vida
real donde tiene lugar el fenómeno
Por su parte la Etnometodologia opto por el estudio de lo fenómenos empíricamente observables.
Interés en la video grabación que registran las actividades de la vida cotidiana. Observación participante.
Las técnicas de observación participante deben ser evaluadas a la luz de los criterios de
validez, en el caso de la validez externa se resuelve mediante el análisis intensivo de los casos y la
búsqueda de casos negativos que el investigador de campo ha de evaluar la tipicidad o la atipicidad de sus
casos adecuando el alcance de sus generalizaciones teóricas a la heterogeneidad encontrada.
Respecto a la cuestión de los sesgos y los efectos distorsionadores de la observación
participante, lo que sería validez interna, existen siete fuentes de invalidez posible 1- Historia, alude a los
factores relevantes que han ocurrido antes del inicio de las observaciones o durante estas y cuyo
desconocimiento puede llevar al investigador a interpretaciones erróneas. 2- Maduración de los sujetos
estudiados, debido a la relación de éstos con el investigador. 3- Efectos reactivos de la observación. 4-
Cambios en el observador. 5- Situaciones donde se obtienen las observaciones, los derivados de las
observaciones no contextualizadas lo suficientemente.
Las críticas a la investigación observacional giran entorno a los problemas de validez y
fiabilidad, y que estos problemas tienen solución si se adoptan las siguientes medidas: la utilización de
varios observadores con características demográficas diversas que puedan contrastar sus puntos de vista, la
búsqueda deliberada de casos negativos en el proceso de refinado y fundamentación de las proposiciones
teóricas, el diseño de observaciones sistematizadas teniendo en cuenta la variabilidad de los fenómenos
43 de 107
estudiados en el espacio y tiempo, y por último la escritura de relatos de investigación que transmitan
verosimilitud y autenticidad.
En los aspectos de diseño hay que tener en cuenta las técnicas de observación
participación, tipos de participación, decisiones maestrales y cómo organizar la observación.
En este sentido, toda observación debe estar guiada por notas de campo, estas no cumplen
solamente la función de recogida de datos sino que ayuda a crearlos y analizarlos encausando y
reorientando la investigación.
Notas condensadas – Notas observacionales: Tomadas en el momento o
inmediatamente después de la sesión de trabajo de campo. Son exposiciones sobre sucesos presenciados a
través de la observación visual y auditiva, deben contener la menor interpretación posible.
Notas expandidas – Notas teóricas: Escritas a partir de las anteriores. Representan los
intentos autoconcientes controlados de derivar significados a partir de una o varias notas de observación,
el investigador interpreta, infiere, hipotetiza, conjetura, en fin desarrolla nuevos conceptos.
Notas del diario de campo – Notas metodológicas: Donde se vaya registrando el lado
personal del trabajo de campo. Es un comunicado que refleja un acto operativo planteado o planeado, un
recordatorio, una crítica de las técnicas propias, podría considerarse como notas observacionales sobre el
investigador y el proceso metodológico del mismo.
Notas de análisis e interpretación: Junto entre las notas anteriores y la redacción final.
La relevancia de las notas de campo no deben hacer olvidar otros instrumentos como las
hojas de registro, guiones de observación y codificación en forma de listados, casilleros o fichas aplicados
según un protocolo de observación con instrucciones específicas.
44 de 107
- Estas posibilidades trasformarían al GD de un dispositivo de control en un dispositivo de
promoción. Lo cual apunta hacia las metodologías participativas o a la llamada investigación
acción participativa.
- Los grupos focalizados o de discusión se les suele considerar como una técnica especifica
dentro de la categoría más amplia de entrevistas grupales. Se pueden reconocer cuarto tipos de
entrevistas grupales:
1- grupos focalizados: se reconoce la diversidad de aplicaciones de esta técnica (en los
estudios de mercados, en la elaboración de cuestionarios de encuestas sociales o en la
evaluación de programas).
45 de 107
investigador en el proceso de entrevistas y por el carácter generalmente estructurado de estas;
además por la mínima o inexistente interacción entre los entrevistados.
4- Entrevistas grupales de campo naturales y formales: una modalidad muy frecuente de
esta clase de conversaciones informales suele darse cuando el investigador va buscando sobre el
terreno, a informantes o entrevistados potenciales y los encuentra agrupados en su ambiente. Si
en lugar de aprovechar este encuentro sólo para concertar entrevistas individuales, se improvisa
una conversación en grupo, informal e in situ, el investigador habrá practicado una forma de
entrevista grupal natural. Se recomienda optar por la entrevista de grupo natural después de
agotar las posibilidades de las técnicas de observación participación, y habiendo establecido una
cierta relación en el campo. Este tipo de entrevistas grupales naturales suelen ser importantes
en los estudios sobre los movimientos sociales.
46 de 107
estudio y en parte se completan durante el trabajo de campo. Dependerá del carácter más
emergente o más proyectado desde el diseño.
Como en las entrevistas individuales, en los GD no se persigue la representación estadística, sino
la representación tipológica, socioestructural de acuerdo con los propósitos de la investigación.
Por tanto el número de grupos y su composición dependerá de forma conjunta de dos criterios
maestros de muestreo básicos, uno es la heterogeneidad entre grupos y al interior de cada
grupo, y otro es la economía en relación con los medios que se disponen.
Tratamiento de los grupos de discusión, análisis y presentación de la información
- Primeo que el análisis comienza con el diseño de los grupos, sigue en la fase de campo,
durante la reunión e inmediatamente después de esta (análisis preliminares); y concluye en la
fase final del estudio cuando tiene lugar el análisis más completo, que culmina en la redacción
del informe final.
- El tipo de análisis e informa debe decidirse teniendo en cuenta los objetivos y
circunstancias de cada investigación.
- No es posible un programa explícito de descripciones y prescripciones que acoten y
regulen el trabajo de análisis. El criterio maestro para el analista consiste en organizar la
información dándole sentido, lo cual supone seleccionar los datos pertinentes e integrarlos en
esquemas teóricos conceptuales.
- Durante la fase de campo se recomienda después de finalizada cada reunión, elaborar un
análisis preliminar, consistente en un resumen sobre hallazgos, interpretaciones, observaciones
acerca de la dinámica de la reunión, modificaciones del guión a tener en cuenta en grupos
posteriores.
- Una vez finalizado el campo, el proceso analítico entra en la fase de análisis intenso y más
completo, a partir de los resúmenes preliminares y las trascripciones de todos los grupos.
- Dentro de esta tradición se reconocen dos vertientes: la historia de vida, que se destaca
por la interpretación de la vida del sujeto por parte del investigador y el relato de vida, que se
realiza minimizando la intervención del investigador.
47 de 107
- Los estudios a partir de biografías e historias de vida, sea como método, sea como
enfoque, sea como instrumento de investigación, sea como estudio de caso, han revalorizado la
tradición cualitativa desde diversas perspectivas y orientaciones. Este tipo de estudios forman
parte de una nueva manera de hacer sociología desde principios del siglo XX.
- Los autores plantean que la elaboración de una historia de vida pueden distinguirse tres
momentos (analíticamente, dado que en la práctica pueden darse simultáneamente): preparación
de la historia de vida (muestreo, eje temático y guía); momento de hacer la entrevista y momento
de sistematizar y analizar la información. (introducen también la clasificación que otros autores
hacen pero no la desarrollan, no me pareció importante pero está en la página 7 del cuadernillo).
48 de 107
- Es importante recolectar todo tipo de testimonios, sean escritos, visuales o relacionales, a
fin de completar y enriquecer el relato.
Desafíos y perspectivas
- Así como la figura del individuo aislado es una ficción, la producción de un relato libre de
influencias de otros actores e instituciones también lo es.
Aporte a la sociología: “las historias de vida […] sitúan de nuevo a la investigación sociológica
en sus orígenes y en su objetivo primario: el análisis empírico, conceptualmente orientado, de los
hechos humanos como fenómenos en constante tensión, como realidades fluidas productoras de
sentido, relativamente determinadas y al mismo tiempo como imprevisibles, y por esta razón,
dramáticas” (Ferrarotti) pág. 17
Bertaux, D: Los relatos de vida en el análisis social: Historia oral
- Toda investigación empírica pasa necesariamente por diferentes fases: de la ignorancia al
descubrimiento, a la formación de una representación mental de los procesos y a la
comprobación de las observaciones, y por último a la expresión oral y escrita de esta
49 de 107
representación. Estos tres estados: la exploración, el análisis y la síntesis no se encuentran
enteramente separados en la práctica.
- Según la perspectiva cuantitativa sólo la primera fase sería adecuada para los métodos
cualitativos, Bertaux por el contrario, considera es posible conducir una investigación empírica
pasando por las tres fases, sin acudir a técnicas cuantitativas.
- En este sentido el autor quiere mostrar en el desarrollo del texto que los relatos de vida,
técnicas del enfoque cualitativo, pasan por las tres fases (o cumplen con la tres funciones) de
todo conocimiento empírico:
4- Función exploratoria: se hace del relato una utilización extensiva, se busca cubrir el
máximo de aspectos de la vida social, dado que no se sabe aún los que van a ser relevantes.
Cuando estos últimos empiezan a aparecer, se puede pasar a una utilización intensiva.
5- Función analítica: comprende dos momentos: el de la construcción de teoría y el de la
verificación, o consolidación empírica de las proposiciones descriptivas y de las interpretaciones
avanzadas. En tanto los relatos de vida constituyen significantes, se reconocen dos orientaciones
entre los practicantes del enfoque biográfico: 1. Los que se interesan por los significados
(“hermenéutica”) y 2. los que se interesan por los referentes, por la relaciones, normas y
procesos que estructuran la vida social (“etnosociológica”).- esta última es a la que refiere
Bertaux en este texto-
La teorización es un proceso que se desarrolla en la duración, para ir construyendo paso a paso
una representación mental de los procesos sobre los cuales se ha elegido concentrar la atención
después de la fase exploratoria. Si una vez delimitado el carácter de lo que se encuentra en la
repetición, parece que se trata de un objeto sociológico, se alcanzado entonces el primer nivel
de saturación. Entonces se encontrará sistemáticamente encontrar casos negativos. Si la teoría
esbozada resiste este proceso entonces se habrá alcanzado la verdadera saturación. Sin que se
trate de una cuestión de muestra representativa se habrá alcanzado igualmente una descripción
convincente de los fenómenos estudiados. Así se resuelve el problema de la generalización sin
muestra representativa.
6- Función expresiva: pueden utilizarse segmentos de relatos de vida para ilustrar tal o
cual punto de la argumentación, teniendo en cuenta que la validez de ésta reside en: a) la
saturación alcanzada y b) la coherencia interna de la argumentación. La narración tiene el valor
de síntesis, es decir que incluye la fase analítica y la supera tomando la forma totalizante de la
autobiografía. “La utilización de relatos de vida como artificio para introducir ideas sobre lo
social, me parece adecuada para regenerar el estilo de la escritura sociológica , que desde hace
mucho tiempo se quedó encallada en los callejeros simétricos del cientificismo y del ensayismo
literario” (pág. 148)
50 de 107
Unidad 2.4 Tipología
MC. KINNEY, J Tipología constructiva y teoría social, Cap 1: Conceptos, construcciones mentales y tipos
constructivos
Todos los conceptos son construcciones mentales que se han desarrollado sobre la base de la experiencia.
Los seres humanos natural y necesariamente clasifican en categorías y estructuran su experiencia en
términos de conceptos. El hombre de ciencia ignora necesariamente lo único, lo extraño y no recurrente, y
por tanto se aleja de la experiencia perceptiva. Este alejamiento es el precio que debe pagar por el logro de
la generalidad abstracta.
Todos los conceptos son generalizaciones y toda generalización implica una abstracción. La abstracción
puede tener lugar de dos modos íntimamente relacionados, que contribuyen al carácter general del
concepto.
Primero se encuentra la abstracción de la cualidad común entre los particulares que difieren (Árbol es la
unidad conceptual en la cual quedan captados el pino, la palmera, etc.) El concepto es abstracto en el
sentido que las diferencias específicas se pierden en el proceso abstractivo. En segundo lugar, hay
abstracción en la forma de selección basada en el interés teórico particular del hombre de ciencia. La
semejanza es generalmente compleja e involucra una pluralidad de cualidades más simples. Esto permite
distinguir entre los atributos esenciales y los que no lo son, pero dejando nuevamente un carácter artificial
en el concepto por las exclusiones que le han sido impuestas.
Ningún concepto es jamás símbolo perfecto de aquello que simboliza. Porque inevitablemente su
contenido será menor.
A los conceptos comunes se les da precisión de construcciones mentales por medio de la selección y la
limitación a los tipos construidos se les da precisiones por medio de la selección, la limitación, la
combinación la acentuación. El tipo construido organiza la experiencia de modo algo diferente del
concepto común en cuanto ordena una serie de atributos en una configuración que no se experimenta
necesariamente en forma directa u da énfasis a uno o varios de los atributos con fines teóricos. En
contraste con el concepto, el tipo construido es determinado, en gran parte, por la actividad selectiva y
creativa del hombre de ciencia. La distinción fundamental, sin embargo, es que su valor como componente
del conocimiento no se debe medir por la precisión de su correspondencia con la experiencia perceptual,
sino en términos de su capacidad explicativa. Una de las funciones científicas del tipo construido es el
ordenamiento de los datos concretos de manera que puedan ser descriptos en términos que los hagan
comparables; de este modo la experiencia obtenida en un caso, a pesar de su unicidad, puede ser llevada a
revelar con cierto grado de probabilidad lo que se puede esperar en otras experiencias. El tipo construido
es un tipo especial de concepto que se desarrolla con fines descriptivos, comparativos y predictivos. Pero
no intenta retener todos los aspectos singulares del mundo empírico. La comparación y medición de las
aproximaciones empíricas solo revela las desviaciones con respecto a la construcción mental. Este
procedimiento puede llevar a la cuantificación en términos del grado de desviación. Si se ha de determinar
respectiva y comparativamente el grado de desviación se debe mantener constante la base de medida (el
tipo). Las relaciones entre los elementos (criterios) del tipo son relaciones postuladas; por lo tanto es
posible y legítimo mantenerlas constantes.
Desde el punto de vista lógico, el tipo habrá de contener en su estructura todas las propiedades o
elementos esenciales de una estructura concreta o de un curso de acción, pero no necesariamente en la
proporción exacta de un suceso empírico dado. Estas propiedades o elementos constituyen las variables
dentro del tipo. La eliminación de una o más variables, o la alteración de la relación entre ellas, implica el
desarrollo de un nuevo tipo.
Es esencial que el tipo sea formulado como objetivamente probable. Por ejemplo, el concepto de un
hombre racional denota la adaptación de medios a fines. Es evidente que ningún hombre real es racional
en todos los aspectos de su conducta. La comparación del grado en que un hombre real satisface la
expectativa sirve de base para explicar las diferencias en su conducta.
El tipo se concentra en la uniformidad y solo por medio de ella alcanzamos la comprensión de las
variaciones o desviaciones.
Las mismas observaciones que hizo Max Weber acerca de lo que no es un tipo ideal, se puede aplicar para
el tipo construido:
1. No es una hipótesis (no puede ser verificada concretamente). 2. No es una descripción de la realidad (es
abstracto). 3. No es un promedio. 4. Tampoco es una formulación de rasgos concretos comunes a una clase
de entes concretos.
Se le pueden agregar al tipo construido los siguientes límites negativos:
1. El tipo construido no es un universo homogéneo.
51 de 107
2. El tipo constituido no se refiere necesariamente a la forma más común de un fenómeno, sino en
general a la forma más significativamente representativa.
3. El tipo constituido no es un estereotipo, en cuanto el estereotipo carece con frecuencia de un
referente empírico y constituye una exageración efectiva impremeditada que no es empíricamente
útil porque le faltan criterios explícitos que la hagan comparable a casos concretos.
El tipo construido es representativo de una distribución de modo diferente, en cuanto ha sido formulado en
forma deliberada como un caso limite cuyo grado de desviación es mensurable.
Muchos científicos sociales no consideran que el tipo construido sea indispensable. Esto puede atribuirse
al hecho de que, comúnmente, se da un uso casual a la tipología, así como a una carencia de codificación y
rutinización del método tipológico. El empleo inequívoco más difundido de la tipología implica la
objetivación injustificable de los tipos. Hay que recordar que se trata de una herramienta para el
ordenamiento de los fenómenos concretos.
Otra área problemática n la interpretación tipológica es el hecho de no reconocer el carácter condicional de
las generalizaciones predictivas basadas sobre abstracciones tipológicas. El tipólogo crea simplemente el
tipo, no la conducta real.
52 de 107
las interpretaciones del investigador tienen la intención de dar una conceptualización con más distancia
con respecto a la realidad.
Otros investigadores están preocupados por construir teoría, ellos implica interpretar los datos, porque los
datos deben ser conceptualizados y los conceptos relacionados para formar una rendición teórica de la
realidad.
¿Qué es una teoría construida desde los datos?
Es cuando uno no comienza con una teoría y luego la prueba. Más bien, uno comienza con un área de
estudio y permite emerger lo que es relevante para esa área.
¿Por qué construir teoría a partir de los datos?
Una bien construida teoría desde los datos debe cumplir cuatro criterios centrales para juzgar su
aplicabilidad de la teoría a un fenómeno: fiel (que se ajuste a un fenómeno o a un proceso), comprensión,
generalidad y control.
Porque ella representa la realidad, ella va a ser también comprensible y a hacer sentido tanto para las
personas que son estudiadas como para aquellos que practican en dicha área. La teoría debe ser
suficientemente abstracta e incluir suficiente variación para hacerla aplicable a una variedad de contextos
relacionados con ese fenómenos. Finalmente, la teoría debe proveer control con respecto a la acción hacia
ese fenómeno.
¿Qué es la aproximación llamada teoría desde los datos?
Es un método de investigación cualitativo que usa un sistemático conjunto de procedimientos para
desarrollar una teoría derivada desde los datos inductivamente sobre un fenómeno. El propósito es,
generar teoría que sea fiel y que ilumine el crea bajo estudio. (¿?)
¿Cuáles son los requisitos para aprender esta aproximación?
1) Se debe estudia, no meramente leer, los procedimientos que son descritos en los varios libros y
estar preparados para seguirlos.
2) Es sólo practicando los procedimientos a través de investigación continua que se gana suficiente
comprensión acerca de como estos funcionan.
3) Una cierta apertura y flexibilidad son necesarias para ser capaz de adaptar los procedimientos a
diferentes fenómenos y situaciones de investigación.
¿Es la teoría basada en los datos sólo una aproximación sociológica?
Puede ser utilizada por personas de muchas disciplinas efectivamente. Lo que importa son los
procedimientos.
¿Es Teoría Basada en los Datos un “Método Científico? ¿Si lo es, que lugar ocupa en la creatividad?
Efectivamente la teoría basada en los datos es un método científico. Sus procedimientos son diseñados de
tal manera que, si son llevados a cabo cuidadosamente, el método llena los criterios para hacer “buena”
ciencia.
Creatividad es también un componente vital de esta teoría. Se manifiesta en la habilidad del investigador
para hacer con amplitud categorías; y también para dejar la mente vagar libremente y hacer las
asociaciones que son necesarias para generar preguntas estimulantes, y para irrumpir con las
comparaciones que llevan a los descubrimientos.
¿Cuál es la diferencia entre teoría y descripción?
La teoría una conceptos. Los datos similares son agrupados y le son otorgadas etiquetas conceptuales. Esto
significa colocar interpretaciones de los datos. Segundo, los conceptos son relacionados por medio de la
afirmación de relaciones. En la descripción, los datos pueden ser organizados de acuerdo a temas. Estos
temas pueden ser conceptualizaciones de los datos pero es más probable que sean un sumario de palabras
tomadas directamente de los datos. Hay muy poca, si hay alguna, interpretación. No hay tampoco ningún
intento de relacionar los temas en la forma de esquema conceptual.
¿Es necesario transcribir todas sus entrevistas y notas de campo?
La regla general es transcribir solamente lo necesario. Aunque esto no puede hacerse hasta que se esté bien
sumergido en el curso del estudio. La transcripción que puede representar considerable tiempo y dinero
debe ser selectiva. En general las primeras entrevistas o notas de campo deben ser transcriptas enteramente
y analizadas antes de pasar a las siguientes entrevistas u observaciones. Esta primera codificación
proporciona guías para la nueva etapa de observaciones. Luego, cuando su teoría se vaya desarrollando,
puede querer transcribir sólo aquellos párrafos que estén relacionados con su teoría. Una nota final: mejor
más que menos. Pero finalmente, la responsabilidad y el juicio final son suyos.
Sumario:
Teoría a partir de los datos es una aproximación cualitativa de investigación desarrollado por Glaser y
Strauss. Sus técnicas sistemáticas y procedimientos de análisis permiten al investigador desarrollar una
53 de 107
teoría substantiva que llene los criterios para hacer “buena ciencia”: significatividad, compatibilidad entre
observaciones y teoría, generalización, reproductibilidad, precisión, rigor y verificación. Mientras los
procedimientos son diseñados para darle al proceso analítico precisión y rigor, la creatividad es también
un elemento importante. Porque es esta última la que permite al investigador hacerse las preguntas
pertinentes sobre los datos y hacer los tipos de comparaciones que obtienen de los mismos datos nuevas
perspectivas del fenómeno y nuevas formulaciones teóricas. Esta aproximación puede ser usada por
personas de cualquier disciplina u orientación teórica deseosa de desarrollar una teoría a partir de datos.
Perspectiva cualitativa
La investigación cualitativa es un campo de indagación por derecho propio. Entrecruza disciplinas,
campos y problemáticas. Una compleja familia de términos interrelacionados y presupuestos rodea el
término investigación cualitativa.
La investigación cualitativa se puede definir como un multimétodo focalizado, incluyendo
interpretaciones y aproximaciones naturalistas a su objeto de estudio. Los investigadores estudian las
cosas en su situación natural, tratando de entender o interpretar los fenómenos en términos de los
significados que la gente les otorga. La investigación cualitativa incluye recolección y el uso estudiado de
una variable de materiales empíricos que describen la rutina, los momentos problemáticos y los
significados en la vida de los individuos. Los investigadores cualitativos despliegan un amplio rango de
métodos interrelacionados, esperando siempre conseguir fijar mejor el objeto de estudio que tienen entre
manos.
Se reconstruye el campo social. Hay procesamiento más artesanal de los datos. Un motivo para
elegir esta perspectiva es para ver la mirada que tienen los actores. La significación que los actores le
ponen a su acción. Todos los tipos de creencias, vivencias, pensamientos que poseen, se interpretan.
Recuperar la perspectiva del actor. La realidad no es prefijada como se hace en la perspectiva cuantitativa.
No hay una construcción teórica de las variables por nosotros. La realidad en lo cuantitativo la
construimos nosotros. Creamos variables y las ponemos a prueba. Ej.: sexo, edad, nivel educativo, etc.
En lo cualitativo tratamos de ver como los actores ven la realidad. Buscar que den su pensamiento.
Captamos esta realidad y luego le damos un sentido. Recuperar los ¿Por qué?, los motivos por los que
realizan una acción.
54 de 107
La pregunta problema en lo cuantitativo tiene que ver con una relación de variables. Lo cualitativo
se pregunta como ven los actores investigados ciertos aspectos o maneras de vivir. Ver su significación a
determinado fenómeno. Nos centramos en las voces de los actores. En lo cuanti se hace relación de
variables, hacemos un diagnóstico.
Hay un fenómeno que afecta a todos, por ejemplo, una contaminación. En lo cuanti hacemos
nuestra mirada mientras que en lo cuali estamos abiertos a la mirada de todos los actores. Ver sus
símbolos, creencias, costumbres, perspectivas, etc. El investigador debe aislar sus juicios valorativos.
Análisis
El proceso de análisis en lo cualitativo se da activamente con la recolección de los datos. Se ha
recolectado mucha información y hay que procesar todo esto. Se busca almacenar y concentrar. Se arma el
desgravado, la codificación, los memos, episodios de análisis, etc. Del campo surgen análisis que van a ir
a parar a un texto. En lo cuali siempre se va y se viene. En lo cuanti es lineal, primero se recolecta y
después se hace todo el análisis. Se delimitan las partes de un texto.
El dato es resultado de una elaboración de la realidad. A partir de ciertos registros de la realidad el
investigador toma datos. Los datos son de naturaleza descriptiva. Tienen una amplia y variada
información. Densos en significado.
Codificación: manipulo la información poniéndole un código. Hago una especie de clasificación.
Esto hace que se generen categorías. Las categorías son elementos conceptuales por los cuales uno
clasifica las unidades.
Categorías comunes: las que usan los actores. Son categorías locales. Como conceptualizan los
que indagamos.
Categorías especiales: expresión de un grupo particular. Jerga en particular.
55 de 107
Categorías teóricas: el investigador trata de tomar las categorías comunes y transformarlas en
teóricas.
3) ANALISIS CUALITATIVO
-Enfoque cualitativo:
Cualitividad significa no reductible a la cuantificación. Estos tipos de estudios tienden a focalizarse en
universos de una o muy pocas unidades de análisis. Principalmente se caracterizan por el manejo de
variables no cuantificables o de un bajo nivel de cuantificación, y mediante técnicas que no enfatizan los
registros no cuantificados.
El investigador opta por revelar múltiples características cualitativas sobre pocas unidades. Los estudios
cualitativos buscan la cualidad de los fenómenos por ende su muestra es no probabilística, no se interesa
por la cantidad.
La muestra generada en el enfoque cualitativo tiene relación con el muestreo teórico.
En el método cualitativo los instrumentos de recolección son instrumentos abiertos, no estructurados:
como por ejemplo la entrevista y la observación. Por ende, la tarea de campo es fundamental, el rol del
investigador va a ser muy importante debido a la utilización de instrumentos abiertos.
Se entiende de esta manera que la investigación cualitativa se centra en la compresión de las acciones de
los actores y la influencia social sobre los actores. Se toma en cuenta la perspectiva del actor. Por lo cual
se entiende a la realidad por medio de la perspectiva de los actores. Se estudian las cosas en su situación
natural. Por lo cual implica que haya una intima relación entre el investigador y su objeto de estudio.
Produce distintos tipo de conocimientos como descripción, interpretación, teoría, generalización y
evaluación (se usa en combinación con el enfoque cuanti).
Consideraremos al dato como una elaboración, de mayor o menor nivel realizada por el investigador o
cualquier otro sujeto en el campo de estudio, en la que recoge información da la realidad externa e interna
a los sujetos y que se utiliza con propósitos indagativos. El dato soporta una informaron sobre la realidad,
implica una elaboración conceptual de esa información y un modo de expresarla que hace posible su
conversación y comunicación.
Los datos no son más que el material bruto a partir del cual el investigador debe realizar operaciones
oportunas que le permita estructurar el conjunto de información en un todo coherente y significativo. Por
lo tanto el análisis de datos cualitativos se realiza por medio de tratamientos de los datos que se lleven a
cabo generalmente preservando su naturaleza textual, poniendo en practica tareas de categorización.
56 de 107
-Por la gran cantidad de datos que se recogen en la investigación, por su naturaleza verbal hace que el
análisis entrañe complejidad y dificultad
-Otra dificultad es que el análisis de datos cualitativos tiene escaso tratamiento en la literatura
especializada.
-Por último el análisis de datos cualitativo representa una dificultad para el investigador debido a que no
es posible localizarlo en una fase precisa del proceso de investigación. Se realiza de manera simultánea a
otras tareas.
La categorización supone en si misma una operación de síntesis, por cuanto permite reducir un numero
determinado de unidades a un solo concepto que la representa.
De esta manera logramos sintetizar los datos. Pero si de estos, datos, queremos llegar a conclusiones es
preciso presentarlos y disponerlos de un modo ordenado. O sea, una disposición, esta es un conjunto
organizado de información, presentada de forma ordenada, abarcable y operativa de cara a resolver las
cuestiones de la investigación.
Uno de los procedimientos de disposición usados con frecuencia son los gráficos, los cuales no solo
permiten presentar los datos sino advertir relaciones y descubrir su estructura profunda. Los gráficos son
los diagramas, que son representaciones graficas de relaciones entre conceptos.
Otro procedimiento son las matrices, que consisten en tablas de doble entrada en cuyas celdas se alojan
una breve información verbal, de acuerdo con los aspectos especificados por filas y columnas. Es
frecuente construirlas para sintetizar los fragmentos codificados en una misma categoría (columna) para
diferentes sujetos, situaciones, casos, etc.
57 de 107
Una vez alcanzada las conclusiones deben ser verificadas, es decir confirmar que los resultados
correspondan a los significados e interpretaciones que los participantes atribuyen a la realidad. Es
necesario verificar la validez de la investigación, en la investigación cuali la validez es menos precisa que
en la cuanti.
-Diferencia entre hacer una descripción y una teoría (a partir de investigación cualitativa)
Básicamente se diferencian en dos puntos;
Primero la teoría usa conceptos. Los datos similares son agrupados y les son otorgadas etiquetas
conceptuales. Esto significa interpretar los datos. Segundo los conceptos son relacionados y comparados
para obtener conclusiones.
Por otro lado en la descripción los datos pueden ser agrupados según los temas. Hay muy poca
interpretación, si la hay de los datos. Y no hay ningún intento de relacionar los temas en la forma de
esquema conceptual.
Unidad 5
MC. KINNEY, J
Tipología constructiva y teoría social, Cap 1: Conceptos, construcciones mentales y tipos
constructivos
58 de 107
Todos los conceptos son construcciones mentales que se han desarrollado sobre la base de la
experiencia. Los seres humanos natural y necesariamente clasifican en categorías y estructuran su
experiencia en términos de conceptos. El hombre de ciencia ignora necesariamente lo único, lo
extraño y no recurrente, y por tanto se aleja de la experiencia perceptiva. Este alejamiento es el
precio que debe pagar por el logro de la generalidad abstracta.
Todos los conceptos son generalizaciones y toda generalización implica una abstracción. La
abstracción puede tener lugar de dos modos íntimamente relacionados, que contribuyen al
carácter general del concepto.
Primero se encuentra la abstracción de la cualidad común entre los particulares que difieren
(Árbol es la unidad conceptual en la cual quedan captados el pino, la palmera, etc.) El concepto
es abstracto en el sentido que las diferencias específicas se pierden en el proceso abstractivo. En
segundo lugar, hay abstracción en la forma de selección basada en el interés teórico particular del
hombre de ciencia. La semejanza es generalmente compleja e involucra una pluralidad de
cualidades más simples. Esto permite distinguir entre los atributos esenciales y los que no lo son,
pero dejando nuevamente un carácter artificial en el concepto por las exclusiones que le han sido
impuestas.
Ningún concepto es jamás símbolo perfecto de aquello que simboliza. Porque inevitablemente su
contenido será menor.
A los conceptos comunes se les da precisión de construcciones mentales por medio de la
selección y la limitación a los tipos construidos se les da precisiones por medio de la selección, la
limitación, la combinación la acentuación. El tipo construido organiza la experiencia de modo
algo diferente del concepto común en cuanto ordena una serie de atributos en una configuración
que no se experimenta necesariamente en forma directa u da énfasis a uno o varios de los
atributos con fines teóricos. En contraste con el concepto, el tipo construido es determinado, en
gran parte, por la actividad selectiva y creativa del hombre de ciencia. La distinción fundamental,
sin embargo, es que su valor como componente del conocimiento no se debe medir por la
precisión de su correspondencia con la experiencia perceptual, sino en términos de su capacidad
explicativa. Una de las funciones científicas del tipo construido es el ordenamiento de los datos
concretos de manera que puedan ser descriptos en términos que los hagan comparables; de este
modo la experiencia obtenida en un caso, a pesar de su unicidad, puede ser llevada a revelar con
cierto grado de probabilidad lo que se puede esperar en otras experiencias. El tipo construido es
un tipo especial de concepto que se desarrolla con fines descriptivos, comparativos y predictivos.
Pero no intenta retener todos los aspectos singulares del mundo empírico. La comparación y
medición de las aproximaciones empíricas solo revela las desviaciones con respecto a la
construcción mental. Este procedimiento puede llevar a la cuantificación en términos del grado de
desviación. Si se ha de determinar respectiva y comparativamente el grado de desviación se debe
mantener constante la base de medida (el tipo). Las relaciones entre los elementos (criterios) del
tipo son relaciones postuladas; por lo tanto es posible y legítimo mantenerlas constantes.
Desde el punto de vista lógico, el tipo habrá de contener en su estructura todas las propiedades o
elementos esenciales de una estructura concreta o de un curso de acción, pero no necesariamente
en la proporción exacta de un suceso empírico dado. Estas propiedades o elementos constituyen
las variables dentro del tipo. La eliminación de una o más variables, o la alteración de la relación
entre ellas, implica el desarrollo de un nuevo tipo.
Es esencial que el tipo sea formulado como objetivamente probable. Por ejemplo, el concepto de
un hombre racional denota la adaptación de medios a fines. Es evidente que ningún hombre real
es racional en todos los aspectos de su conducta. La comparación del grado en que un hombre
real satisface la expectativa sirve de base para explicar las diferencias en su conducta.
El tipo se concentra en la uniformidad y solo por medio de ella alcanzamos la comprensión de las
variaciones o desviaciones.
Las mismas observaciones que hizo Max Weber acerca de lo que no es un tipo ideal, se puede
aplicar para el tipo construido:
59 de 107
1. No es una hipótesis (no puede ser verificada concretamente). 2. No es una descripción de la
realidad (es abstracto). 3. No es un promedio. 4. Tampoco es una formulación de rasgos concretos
comunes a una clase de entes concretos.
Se le pueden agregar al tipo construido los siguientes límites negativos:
1. El tipo construido no es un universo homogéneo.
2. El tipo constituido no se refiere necesariamente a la forma más común de un fenómeno,
sino en general a la forma más significativamente representativa.
3. El tipo constituido no es un estereotipo, en cuanto el estereotipo carece con frecuencia de
un referente empírico y constituye una exageración efectiva impremeditada que no es
empíricamente útil porque le faltan criterios explícitos que la hagan comparable a casos
concretos.
El tipo construido es representativo de una distribución de modo diferente, en cuanto ha sido
formulado en forma deliberada como un caso limite cuyo grado de desviación es mensurable.
Muchos científicos sociales no consideran que el tipo construido sea indispensable. Esto puede
atribuirse al hecho de que, comúnmente, se da un uso casual a la tipología, así como a una
carencia de codificación y rutinización del método tipológico. El empleo inequívoco más
difundido de la tipología implica la objetivación injustificable de los tipos. Hay que recordar que
se trata de una herramienta para el ordenamiento de los fenómenos concretos.
Otra área problemática n la interpretación tipológica es el hecho de no reconocer el carácter
condicional de las generalizaciones predictivas basadas sobre abstracciones tipológicas. El
tipólogo crea simplemente el tipo, no la conducta real.
Unidad 5:
Operacionalizacion
1- ¿Que es la operacionalizacion?
2- Aclaraciones: ¿Que es un concepto?, ¿para que sirve? y ¿como se lo define?
3- Definición Nominal o conceptual de la variable:
4- Definiciones Reales de las Dimensiones y Subdimenciones
5- Indicadores
6- Construcción del Índice.
1- ¿Que es la operacionalizacion?
En cualquier investigación empírica cuantitativa, tendremos variables. Las variables son
propiedades, características o atributos de los objetos de investigación, o sea, de las unidades de
análisis.
En la investigación uno pretende medir, o sea, asignar un valor de variable a las unidades de
análisis o lo que es lo mismo, colocar las unidades de análisis en una de las categorías de la
variable.
Para lograr esto podemos tomar distintos caminos, uno de estos es operacionalizar la variable.
60 de 107
Las Abstractas son las que en su definición (Nominal o Conceptual) no tienen referencia
empírica precisa o la referencia empírica es indirecta, por tanto no pueden medirse directamente.
Las complejas son las que, en su definición (Nominal o Conceptual) pueden reconocerse más de
un aspecto, o sea, más de una dimensión.
Si la variable contiene solo una dimensión, es una variable simple; si contiene más de una
dimensión la variable es compleja.
Las variables generalmente son ambas cosas Abstractas y complejas.
Ej: La variable edad no necesito operacionalizarla, ya que no es ni abstracta, ni compleja; es solo
una variable simple: Definición Nominal de la variable edad: Cantidad de años transcurridos
desde su nacimiento hasta hoy.
Lo mismo ocurre con la variable sexo.
EJ: La función de ordenación de la realidad, determinan que debe ser observado en una
investigación determinada.
Ej: En la función de comunicación, los conceptos cumplen esta a la hora de transmitir los
resultados de una investigación.
Para que los conceptos puedan cumplir la función de Ordenación y comunicación deben cumplir
3 requisitos:
1: Deben tener acuerdo y continuidad en la atribución de determinados contenidos figurativos a
determinadas palabras, o sea, la definición debe ser coherente y mantener la misma.
61 de 107
Ej: Si tomo el concepto de grupos a que me voy a referir, ¿a pequeños o agrandes grupos? Lo que
decida deberé mantenerlo siempre.
2-Deben estar definidos con precisión.
3-Deben tener una referencia empírica. Deben directa o indirectamente referirse a algo aprensible
u observable.
¿Que es definir los conceptos?
Dijimos que un concepto es un contenido figurativo designado por un término concreto, por tanto
definirlo es indicar cual es el contenido que atribuimos a un concepto.
Definir es enumerar de forma descriptiva el contenido figurativo que caracterizado por una
palabra.
Definiendum: La palabra que significa ese contenido.
Definiens: La enumeración descriptiva de ese contenido.
Ej: Termino: Termo
Contenido: Objeto que se utiliza para mantener líquidos en su temperatura, ya sea esta fría o
caliente. Existen de distintos materiales, plástico, metal o carne.
62 de 107
¿Que es la definición Real?
Si en la definición Nominal de la variable, reconocemos más de una dimensión, debemos definir
las dimensiones.
Si en la definición de las dimensiones, podemos desagregar subdimensiones, o sea, sub. aspectos,
debemos definirlos también.
Las definiciones de las Dimensiones y Subdimensiones se llaman Definiciones Reales.
Las definiciones Reales son enunciados sobre las propiedades estimadas como esenciales del
objeto, son afirmaciones sobre la naturaleza de un fenómeno.
Exigen una validez empírica y por tanto pueden ser falsas. Se supone que las características que
incluye deben existir realmente, deben ser observables o registrables y tomadas de la realidad.
Son definiciones que toman sus componentes de la realidad y deben ser definiciones completas y
exhaustivas. Por tanto a medida que se descubran nuevas cualidades del objeto deben agregarse a
dicha definición.
Lo importante de estas definiciones es que pueda medirse a través de ellas directamente la
variable.
La lógica: Variable- Definición Nominal- Dimensiones- Subdimensiones- Definición Real,
consiste en siempre ir reduciendo la complejidad teórica y poder llegar a medir la variable.
Ejemplo:
Variable: Nivel de educación Sexual:
Definición Nominal: El nivel de educación sexual esta dado por el conjunto de conocimientos
adquirido sobre las enfermedades de transmisión sexual (ETS) y los métodos anticonceptivos.
5-Indicadores:
¿Que son los indicadores?
Los indicadores son variables pero de menor complejidad teórica que la variable original o que
las dimensiones. Son variables de nivel empírico, o sea directamente medibles. Son variables con
una sola dimensión, o sea, variables simples.
Son el último grado de desagregación que va desde la variable original, pasando por las
dimensiones y subdimensiones.
¿Cuales y de donde?
Un una investigación se debe tomar la decisión sobre que indicadores seleccionar, ya que dado el
caso las posibilidades pueden ser muchas, pero siempre es aconsejable revisar el estado de arte de
la cuestión que se investiga.
63 de 107
Los indicadores deben obtenerse de las dimensiones o si tengo subdimensiones, de ellas. Deben
obtenerse de las definiciones Reales.
¿Cuantos?
Hay que tener en cuenta que la relación de los indicadores con el concepto original (definición
Nominal y Real) siempre es probable, por tanto es aconsejable tener un gran numero de
indicadores. Si poseo un solo indicador para una dimensión dada, puedo caer en sesgos o ese solo
indicador me puede condicionar la clasificación de las unidades de análisis. Pero tampoco es
bueno tener una gran cantidad de indicadores que no sirvan para medir lo que deseo. “la cantidad
no significa calidad” (Igual que el sexo)
64 de 107
Ahora, si pretendo medir “Nivel de educación sexual”, la relación es inversa a la variable
anterior.
0= Bajo nivel
100= Alto nivel.
1º- Primero deberá desidirce si se construirá un índice sumatorio o de otra clase. Luego se
decidirá si el mismo será Ponderado o simple, esta ultima decisión se toma en base a la definición
de la variable. Ej: si en la definición de la variable “clase” dijese que es “fundamentalmente” la
posición que ocupa en el proceso productivo y el nivel de educación; seguramente el índice
ponderara la primera dimensión.
El índice sumatorio ponderado: Es aquel que asigna mas valor o pondera mas algunos aspectos
que otros. Por ejemplo que en una variable con 3 dimensiones, por una desición teórica en base a
su definición, se considerara que sumara mas puntos o tendrá mas valor una dimensión en
especial. Lo mismo sucede con los indicadores de cada dimensión, si la definición Real de la
dimensión pondera algún aspecto.
Pueden estar ponderas las dimensiones, lo cual implicaría que los indicadores sumen mas puntos,
pero los indicadores entre si tendrían el mismo valor, o seas los indicadores no estarían
ponderados.
El índice sumatorio simple: Es el índice en donde todos sus aspectos y dimensiones valen lo
mismo, suman lo mismo, pesan lo mismo. No hay ponderación de ningún aspecto sobre otro.
Estro sucede tanto para las dimensiones como para sus categorías.
2º- Lo primero que debe hacer el investigador, luego de tomar las decisiones anteriores, es
construir los rangos de puntaje para cada categoría de la Variable principal. Deberá distribuir los
100 puntos, en distintos rangos según la cantidad de categorías que la variable posea.
Esto consiste en estipular entre que puntajes deberá obtener una unidad de análisis para quedar
clasificada en una determinada categoría.
Esta es una decisión teórico metodologiíta.
Ej: Variable:
Alto: 68 a 100
Nivel de educación sexual: Medio: 34 a 67
Bajo: 0 a 33
Así las unidades de análisis que adquieran un valor entre 0 y 33 quedaran catalogadas como de
nivel de educación sexual bajo, las que sumen entre 34 y 67 puntos serán de nivel medio y las que
sumen entre 68 y 100 serán de nivel alto.
3º- Luego deberá distribuir los 100 puntos entre las dimensiones.
65 de 107
La variable posee dos dimensiones las cuales le asignamos un valor de 70 puntos a la primer
dimensión y 30 a la segunda, por que...... (Explicar por que)....
-Conocimiento sobre enfermedades de transmisión sexual: 70 puntos
-Conocimiento sobre métodos anticonceptivos: 30 puntos
4º- Llegado este momento se deberá asignar valores a los indicadores, y deberá tener en cuenta si
se ponderara algún indicador sobre los demás, o si será simple.
En el caso de ser simple se dividirá el total de puntos de la dimensión, por la cantidad de
indicadores:
Ej: La dimensión “conocimiento sobre enfermedades de transmisión sexual” vale 50 puntos y
contiene 4 indicadores; el puntaje máximo que asumirá cada uno será de 12,5 puntos y
corresponderá a la categoría Alto; la categoría Medio sumará 6 puntos y la categoría Bajo no
sumará puntos.
Alto 20puntos
1- Conocimiento de ETS Medio 6 puntos
Bajo 0 puntos
Alto 10 puntos
2- Conocimiento sobre métodos de prevención de las ETS Medio 6 puntos
Bajo 0 puntos
Igual a este ultimo los otros 2 indicadores, con 10 como máximo.
20 del 1º indicador + (10 x 3 de los otros 3 indicadores) = 50 (esto es por si alguno no entiende)
Unidad 6
Producción de datos en la estrategia cuantitativa
Técnicas e Instrumentos
1-¿Que es la Encuesta?
2- Errores que se pueden cometer en el desarrollo de una Encuesta
3- Ventajas de la Encuesta
4- Desventajas de la Encuesta
5- Modalidades de Encuesta
6- Diseño del cuestionario
7- Tipos de preguntas
8- La formulación de Preguntas
1-¿Que es la Encuesta?
66 de 107
La encuesta es una estrategia de investigación basada en las declaraciones verbales de una
población concreta.
La encuesta se define como la aplicación de un procedimiento estandarizado para recabar
información (oral o escrita) de una muestra amplia de sujetos.
La Técnica o Estrategia es la Encuesta, el Instrumento es el Cuestionario.
Puede ser utilizada sola o en conjunto con otras estrategias, siempre es aconsejable triangular.
¿Sola o triangulada?
Pueden utilizarse con otras técnicas, ya sea antes de la ejecución de la encuesta, como por
ejemplo se puede realizar un Focus Group, o entrevistas individuales para poder diseñar el
cuestionario y así prever incongruencia semántica (esto se explica mas adelante) o otros motivos
de no respuesta.
También puede combinarse con otras estrategias después de realizada la encuesta, por ejemplo
para la validación e interpretación de los resultados de la encuesta.
67 de 107
3- Ventajas de la Encuesta
-Es flexible: puede utilizarse para obtener información diversa, de un conjunto amplio de
personas ubicadas en lugares diversos.
-Es muy fiable: alcanza un elevado grado de fiabilidad por la alta estandarización de las
respuestas y por la claridad de las preguntas. Se supone que un instrumento es fiable si lo aplico
reiteradamente a distintas unidades de análisis y obtengo los mismos resultados, la encuesta se
basa en el supuesto de estimulo homogéneo, las mismas preguntas, de la misma forma y orden
para todos, si sumamos la claridad de las preguntas, siempre se obtienen los mismos resultados.
-Permite comparar: se pueden comparar datos obtenidos en fechas pretéritas, de otros países o
áreas geográficas distintas.
-Permite la generalización: Si aplicamos la teoría de la probabilidad y un buen muestreo, permite
calcular la significatividad estadística de la encuesta.
4- Desventajas de la Encuesta
-No se aconseja aplicar la encuesta a personas con dificultades para la comunicación verbal, por
ejemplo a niños pequeños, personas analfabetas o con escasos recursos lingüísticos (Sordos y
mudos se complica)
- La información que se obtiene esta condicionada por la formulación de las preguntas y por la
veracidad de las respuestas. Están condicionada por la variedad de opciones de respuestas, por la
redacción de las preguntas (si son muy largas, si poseen lenguaje que el entrevistado no conoce,
si el entrevistado no entiende la pregunta, si la pregunta es vaga o ambigua etc.)
-La presencia del entrevistador puede generar reacciones del entrevistado y provocar no
respuestas o respuestas sesgadas.
-Es muy costoso en tiempo y dinero, si se pretende encuestar una muestra muy amplia,
especialmente si la encuesta es personal.
5- Modalidades de Encuesta
Existen 3 modalidades de encuesta, según la forma de administración del cuestionario.
Aplicación del cuestionario mediante entrevista “personal”, “Telefónica” y “por correo”
68 de 107
-Otro problema de la entrevista personal, es la localización de las personas. Si voy por la mañana,
voy a encuestar muchas amas de casa, ya que los maridos trabajan. O no encontrar a nadie por
que todos trabajan. O Encuestar muchas amas de casa y sus correspondientes amantes (por que el
cornudo esta trabajando), así existirá una sobrerepresentacion de amas de casa, jubilados,
desocupados y patas de lana.
Ventajas:
-Se obtiene mayor cantidad de respuestas.
-Es mejor para tratar temas complejos
-Se obtienen respuestas de mayor calidad y espontaneidad.
-Se puede recabar información ajena al cuestionario.
Desventajas:
-Es más costoso en tiempo y dinero
-Se dificulta el acceso a determinados domicilios y determinados grupos sociales (por la
localización o por la inseguridad)
-La presencia del entrevistador puede provocar reacciones adversas.
B- La Encuesta Telefónica
La diferencia con la anterior es que la relación entrevistado entrevistador ocurre a través del hilo
telefónico.
Ventajas:
-Reduce el coste de tiempo
-Se requieren pocos encuestadores, los cuales en poco tiempo hacen muchas encuestas.
-Permite abarcar núcleos de población dispersos.
-Facilita el acceso a domicilios, que personalmente seria difícil
-Se puede insistir hasta encontrar a alguien, y esto puede hacerse en poco tiempo y sin moverse
-Permite que se supervise en el mismo momento que se esta realizando la encuesta
-Inhibe menos al entrevistado que la entrevista personal
-Puede realizarse la encuesta y directamente cargarse en un sistema digital (en la compu). Este
mismo sistema tira los números (muestreo), llama y te va dando las preguntas en orden.
Desventajas:
-En cuanto a la encuesta por medio de Compu. Sucede que la pantalla es chica, o se mira
cortantemente el teclado, los espacios para escribir son chicos Etc.
-Se excluyen de la muestra a los que no tienen teléfono.
-Que te puede atender un contestador o dar ocupado
-No se le pueden dar ayudas visuales al entrevistado (como tarjetas de respuestas)
-Exige que el entrevistador sea muy capaz para motivar al entrevistado, ya que la comunicación
es solo verbal y no presencial.
-Le exige al entrevistado una mayor capacidad de memoria para retener las preguntas y las
opciones de respuestas.
-No se puede recabar información suplementaria
-El cuestionario debe ser mas corto por que la entrevista debe ser corta.
69 de 107
-Incluir una carta de presentación
-Enviarle un sobre con contrareembolso (el tipo no tenga que garpar el reenvío)
-Enviar continuos recordatorios, con copias del cuestionario.
Ventajas:
-Alcanza áreas aisladas y de difícil acceso o localización
-Abarata los costes del trabajo de campo
-Evita los sesgos que se producen por la presencia del entrevistador
-Ofrece privacidad para responder el cuestionario, es bueno para temas delicados.
-El encuestado dispone de más tiempo para reflexionar sus respuestas y comprobar la
información.
Desventajas:
-Elevado numero de no respuestas
-No se puede asistir o aclararle dudas al encuestado
-Muchos cuestionarios incompletos o mal completados
-El que respondió el cuestionario puede no ser la persona seleccionada.
2º- Luego de tener en cuenta esto, se decide sobre que tipo de encuesta se realizara (Telefónica,
por Correo o Personal)
7- Tipos de preguntas
Existen 2 clases de preguntas, las Cerradas y las Abiertas.
A- Preguntas Cerradas
Las preguntas cerradas (o precodificadas o de respuesta fija) son aquellas cuyas respuestas ya
están acotadas, cuando se diseña el cuestionario.
El investigador determina previamente cuales son las diversas opciones de respuesta posible.
70 de 107
Las categorías de respuesta deben cumplir los requisitos de Exhaustividad, Precisión y Exclusión.
Si el investigador prevé la posibilidad de que existan otras opciones de respuestas, deberá incluir
la opción “Otros” y pedirse la “Especificación”.
En cuanto a las opciones “No sabe” “No contesta”, es aconsejable no incluirlas (salvo que se
estime de interés formularlas). Es mejor no poner esta opción, ya que el entrevistado poco
motivado responderá siempre esta opción.
La codificación: Cada pregunta deberá tener un código, se aconseja de que este sea alfanumérico
(letras y números). El código de preguntas se pone a la izquierda de las preguntas.
Las opciones de respuestas también se codifican, con números. Si las opciones son menos de 10,
beberá ponerse números de una cifra (1, 2, 3, 4 etc.). Si las opciones son 10 o mas, se ponen
números de dos cifras (01, 02, 03, 04 etc.).
Es aconsejable seguir siempre las mismas pautas durante todo el cuestionario (Ej: “Si”= 1; “No”=
2)
El código de opciones de repuestos se coloca a la derecha de las respuestas.
Ventajas:
-La comodidad y rapidez para anotar las respuestas.
-Se pueden centrar las respuestas en aquellas opciones consideradas relevantes y relacionadas con
la cuestión que se investiga.
-La facilidad y rapidez para pasar las respuestas a la computadora.
-Elimina la vaguedad y ambigüedad de las respuestas.
-Permite una mayor comparación.
Desventajas:
-Coartan las opciones de respuesta (las opciones no siempre se ajustan a la variedad de respuestas
posibles)
-El diseño de preguntas cerradas es bastante mas laborioso que una abierta.
B- Preguntas Abiertas:
Son preguntas en donde no hay opciones de respuestas previamente estipuladas.
El entrevistado debe expresarse con sus palabras.
Las preguntas Abiertas se utilizan cundo:
-Son estudios exploratorios y no se conoce mucho el tema que se investiga
-Cuando el investigador no prevé todas las opciones de respuestas o enumerar todas las opciones,
arrojaría una lista muy larga de opciones.
-Cuando se busca una mayor especificación de una respuesta.
El cierre de las preguntas abiertas: Una ves completados los cuestionarios, las respuestas beben
cerrarse ya que existirán muchas clases de respuestas posibles.
71 de 107
Para esto, se extraerá una muestra de cuestionarios (entre el 20% y el 50% de los cuestionarios).
De cada pregunta se observará, en las distintas clases de respuestas, buscando categorías,
conceptos o términos comunes a varias respuestas. Y Así se clasifican todas las respuestas bajo
esos conceptos que comparten.
1º-Se saca una muestra de cuestionarios
2º-Se transcriben, de cada pregunta, las distintas respuestas
3º-Se buscan conceptos, categorías o términos comunes
4º-Se agrupan las respuestas bajo esos conceptos comunes
5º-A los grupos de respuestas cerradas bajo un mismo concepto se le asigna un código numérico
igual al de las preguntas cerradas.
Las categorías de respuestas que así quedaran conformadas (cerradas) deben cumplir con el
requisito de exhaustividad, exclusión y precisión.
Ventajas:
-Proporcionan una mayor información y mas especifica
-Su formulación resulta más sencilla
-Suelen ocupar menos espacio en el cuestionario
-Ofrece al entrevistado la posibilidad de expresarse en sus propias palabras
Desventajas:
-La codificación es más costosa y laboriosa
-Están más expuestas a errores en el registro de la respuesta
-Para contestarlas se necesita mas tiempo y esfuerzo por parte del encuestado
8- La formulación de Preguntas
72 de 107
-Evitar que las preguntas queden cortadas por un salto de página
-Poner instrucciones para el entrevistador a lo largo de todo el cuestionario
-En los filtros (deben ser claros y ponerles flechas)
-Los pases deben ser claros y ponerse inmediatamente después de la respuesta. También poner
flechas.
-Dejar espacio para que el entrevistador anote el tiempo de duración de la encuesta y para otras
anotaciones.
-Codificar las preguntas y las respuestas
-Siempre terminar el cuestionario con un gracias
Universo: Conjunto total de unidades de análisis que pretendemos estudiar y que coinciden en
determinadas características. La unidad de análisis delimita el universo de observación y, por lo
tanto, recortan el problema a investigar. Si la referencia es a individuos, el universo será la
población total de la humanidad, de un país, de un área, etc. Pero uno puede referirse a naciones,
objetos, etc.
Población: Conjunto de unidades de análisis que se va a estudiar. Puede coincidir con el universo
(ej: censo) o con una muestra.
Muestra: Subconjunto del conjunto total –universo- que debe satisfacer dos condiciones:
- en ella debe ser posible poner a prueba hipótesis.
- debe ser posible poner a prueba hipótesis de generalización –de la muestra al universo- sobre las
proposiciones establecidas en la muestra. (Tiene que ver con la posibilidad de establecer
generalizaciones. Para eso es necesario una muestra probabilística).
La muestra se extrae cuando el universo a estudiar es demasiado grande, y cuando se dispone de
tiempo y presupuesto escasos. Es más rápido, más económico, se obtiene mayor cuidado en la
precisión de las observaciones, mayor entrenamiento y supervisión.
Tipos de muestras
Muestra predispuesta: Se seleccionan para probar hipótesis
Ventajas: La comprobación o refutación de la hipótesis pasa a ser resultado de procedimiento de
muestreo
Desventajas: Exigen conocimiento previo del universo y del tipo de análisis que se utiliza. A
veces no se puede generalizar.
Ejemplo: Para comprobar una hipótesis acerca del comportamiento político de todos los votantes,
usamos sólo individuos que por pertenecer a un grupo específico presentan peculiaridades que no
son típicas del conjunto de la población.
Muestras probabilísticas: Todos los elementos que componen el universo tienen una posibilidad
conocida de ser incluidos en la muestra. Veremos cuatro tipos: 1) muestra simple al azar, 2)
muestra sistemática, 3) muestra estratificada, 4) muestra por conglomerados.
1) Muestra simple al azar: Todas las combinaciones tienen igual probabilidad de darse en la
muestra. La probabilidad depende del tamaño del universo.
73 de 107
Procedimiento: Lista completa del universo y asignar un número a cada individuo.
A través de una tabla de números aleatorios, o algo similar se seleccionan los individuos de la
muestra. El tamaño depende de la disponibilidad de recursos y la precisión deseada.
Ventajas: Técnicas: Igual probabilidad de inclusión de todos los individuos en la muestra. Permite
la generalización. Proporciona base para calcular el grado de disparidad entre las medidas de la
muestra y el universo. Económicas: Las derivadas de no tomar al universo entero.
Desventajas: Técnicas: No hay un número suficiente de casos de grupos especiales. Puede haber
distorsiones en cuanto a la representatividad. Económicas: Alto costo monetario y de tiempo.
74 de 107
agregar más escalones, puede seleccionar dentro de las provincias, algunas ciudades… y así
seguir. Lo importante es que una vez que definimos los conglomerados, en su interior tomamos
todas las unidades.
1) Muestra casual: Es la técnica preferida por los reporteros y algunas agencias de investigación
de mercado.
Procedimiento: Entrevistar a individuos de formas casual, hasta cierto número. Por ejemplo, uno
de cada 8 que pasan caminando por esta esquina, durante determinada cantidad de tiempo.
Ventajas: Exige personal menos entrenado, y por ende de menor costo.
Desventajas: Es casi imposible hacer una generalización válida que vaya más allá de las
características de los individuos que, de casualidad, dieron su testimonio.
3) Muestra por cuotas: Son en alguna medida muestras estratificadas, y son muy usadas por
agencias de investigación de mercado.
Procedimiento: A una serie de entrevistadores le es fijado un grupo de individuos, con sus
características especificadas (hombres, casados, menores de 50, propietarios de auto) Cada
entrevistador selecciona por su cuenta y entrevista según un cuestionario, hasta completar su
cuota.
Ventajas: Exige personal menos entrenado, y por ende de menor costo.
Desventajas: Es casi imposible hacer una generalización válida que vaya más allá de las
características de los individuos que dieron su testimonio. Puede aparecer el sesgo del
entrevistador.
MUESTREO
Universo o población refieren al conjunto total de elementos que constituyen una area de interés
analítico. Estos elementos NO necesariamente tienen que ser personas (naciones, edificios, bla).
Se denomina muestra a un subconjunto del total (universo o población). La teoría del muestreo
tiene como propósito establecer los pasos o procedimientos a través de los cuales sea posible
hacer generalizaciones sobre la población a partir de un subconjunto de la misma, con un grado
minimo de error. No toda muestra tiene como propósito obtener conclusiones a cerca de la
población.
Los parámetros poblacionales caracterizan las distribuciones en la población o universo. Los
valores muestrales son los estadísticos computados a partir de las muestras y con los cuales se
buscara estimar los parámetros poblacionales.
75 de 107
Según Galtung una muestra debe satisfacer dos condiciones:
1) Debe ser posible poner a prueba hipótesis sustantivas, es decir que la muestra sea lo
“suficientemente buena” para permitirle al investigador extraer conclusiones en cuanto a las
relaciones entre sus variables.
2) Posibilidad de establecer generalizaciones (de la muestra al universo) sobre las proposiciones
establecidas en la muestra; es decir inferencias validas con un grado de incertidumbre conocido.
Para esto es necesario que las muestras sean probabilísticas, ya que la determinación del grado de
incertidumbre (o de “confianza”) que pueda atribuirse a las inferencias depende en sus computos
de la teoría de las probabilidades.
El problema del muestreo surge cuando la población a estudiar es demasiado numerosa como
para implicar costos en energía y dinero insuperable. Se trata entonces de seleccionar a un
subconjunto que minimice esos costos al mismo tiempo que no se produzca perdida de presicion.
La teoría del muestreo establece las condiciones mediante las cuales las unidades o las muestras
son seleccionadas de manera tal que el subconjunto (la muestra) contenga el minimo de sesgos
posibles.
Muestras predispuestas: Son aquellas que han sido seleccionadas de manera tal que la
comprobación o la refutación de las hipótesis pasa a ser el resultado de procedimientos de
muestreo.
Muestras no predispuestas: Son aquellas cuya de probabilidad de extracción es conocida. Hay dos
muestras de este tipo: muestras cuya probabilidad de ser extraídas es cero o uno (finalistas); o
muestras cuya de probabilidad de ser extraídas es diferente de cero o uno (probabilísticas).
A) MUESTRAS PROBABILÍSTICAS
En este tipo de muestra todos los elementos que componen el conjunto total o universo, tienen
una probabilidad conocida de ser incluidas en la muestra.
76 de 107
Ventajas y desventajas del muestreo aleatorio simple:
Ventajas:
A) No supone el conocimiento previo de ninguna de las características de la población de la cual
se va a extraer la muestra. Esta libre de los sesgos que se pueden introducir por el uso de
ponderaciones incorrectas en las unidades muestrales como en el muestreo estratificado.
B) Es relativamente simple determinar la precisión de las estimaciones que se hacen a partir de
las observaciones muestrales porque los errores estándar de los estimadores siguen distribuciones
de probabilidad conocida.
C) Tiende a reflejar todas las características del universo (muestra mas grande, mas representa
población).
Desventajas:
A) Supone un listado completo de todas las unidades que componen la población. Y si no se
cuenta con esta lista no se puede emplear este diseño muestral.
B) Aun cuando se cuente con este listado su numeración requiere mucho tiempo y trabajo.
C) Supone un tamaño de muestra mayor que otros diseños para obtener un mismo nivel de
confiabilidad.
D) Es probable que las unidades muestreadas (si son individuos que viven en una ciudad por
ejemplo) queden muy distantes unas de otras con lo cual el costo para obtener la información de
estas unidades crece con la dispersión espacial de las mismas.
2-Muestreo sistemático.
Es muy similar al muestro aleatorio simple. También hay que confeccionar un listado de todos los
elementos que incluye la población; una vez hecho el listado, la diferencia estriba en el método
para la selección de los casos. Aquí la selección de los casos se realiza por un procedimiento más
mecánico que representa un gran ahorro de tiempo.
Copio literal el ejemplo sino no se entiende: Supóngase que la población sea de 50 mil casos. Una
vez hecho el listado y determinado el tamaño de la muestra (supóngase q sea de mil casos) se
procede de la siguiente manera: a) se selecciona al azar un número comprendido en la cantidad q
resulte de dividir el tamaño de la población entre el tamaño de la muestra (en nuestro caso entre
01 y 50) y a partir de ese número se seleccionan las unidades de la siguiente manera: b)
supóngase que el número seleccionado haya sido el número 15; entonces voy a extraer los casos
15, 65, 115, 165, 215…etc. (es decir cada 50 casos) hasta completar las mil unidades. Si
estuvieran utilizando el directorio de teléfonos , enumeraría todos los sujetos listados;
seleccionaría una primera fracción que incluya todas las páginas con personas listadas, y a partir
de la primera página extraería mis sujetos con un número fijo (cada 20, cada 87, o cualquier otro),
hasta completar la cantidad de casos.
VENTAJAS:
a) las ventajas técnicas son similares a las del muestro aleatorio simple,
b) tiene una gran ventaja económica ya que facilita la selección de la muestra, sobre todo en
aquellos casos donde ya existe un listado.
DESVENTAJAS:
a) No es estrictamente probabilístico ya que si bien una vez iniciado el muestreo las
probabilidades son las mismas para la primera selección, una vez elegido este número, la muestra
pasa a ser finalista (en el ejemplo la probabilidad de q los sujetos 15,65,115,165, etc, es 1,
mientras la probabilidad de cualquier otro sujeto del listado es 0).
77 de 107
b)Puede haber sesgos en el listado utilizado (por ej la guía telefónica)
3- Muestreo estratificado:
Este es conveniente cuando la población puede ser dividido en categorías, estratos o grupos que
tienen un interés analítico y que por razones teóricas y empíricas presentan diferencias entre
ellos. Por ej se puede estratificar una población según sexo, edad, status socioeconómico, bla. La
estratificación en sí, la definición de cada uno de los estratos, es un problema de propósitos de
investigación, tipo de preguntas q se quiere responder y teoría sustantiva. Una vez definidos los
estratos y dividido el universo en estratos o valores según una o varias variables, es posible
diferenciar dos tipos de muestra estratificada: LA MUESTRA ESTRATIFICADA
PROPORCIONAL en la cual la fracción de muestro es igual para cada estrato; si existen
diferencias en las fracciones de muestreo llamamos a esta NO PROPORCIONAL. Es decir que la
muestra no respeta las proporciones originales del universo. Una vez seleccionada la proporción
se seleccionan las muestras DENTRO DE CADA ESTRATO según los procedimientos del
muestreo aleatorio simple.
DESVENTAJAS:
A) supone el conocimiento PREVIO de las características de la población, a partir de las cuales
se estratifica,
B) son de costo más elevado en dinero y energía,
C) la proporcional a veces puede no proveer de un número suficiente de casos pa análisis
comparativos inter-estratos, etc.
Hay q tener claro q una vez determinados los cong, se procede a una selección aleatoria ENTRE
cong, y una vez seleccionados estos, tomamos todas las unidades al interior de cada
conglomerado seleccionando. Esta es la diferencia con la muestra estratificada, en la cual, una
vez determinados los estratos seleccionábamos los casos al interior de cada estrato.
VENTAJAS:
78 de 107
la principal es la concentración de unidades en áreas, lo q evita el desplazamiento a lo largo de
áreas muy extensas, representando consecuentemente una economía de gastos en términos de
energía, costos y tiempos.
DESVENTAJAS:
A) exige tratamientos estadísticos algo complejos,
B) en comparación al muestreo aleatorio simple o al estratificado, representa perdidas en
precisión,
C) la muestra pierde carácter de probabilística, en la medida q una vez seleccionados los cong, en
la medida q una vez seleccionados los cong primeros, la probabilidad de ser extraídos q tienen los
individuos del resto de los cong es cero.
B)MUESTRAS NO PROBABILÍSTICAS:
1-Las muestras casuales: consiste en entrevistar a sujetos de forma casual, por ej uno de cada 10
individuos q pasan por determinada esquina. Es simple, más barato, pero es casi imposible hacer
generalizaciones válidas.
2- Las muestras intencionales. Son el producto de una selección de casos según el criterio de
algún experto, q selecciona casos q son “típicos”
3- Las muestras por cuotas. A una serie de entrevistadores le es fijada una cuota de individuos a
entrevistar, especificándole sus características (ej: varones, solteros,20 años, trotskos come
panchos)y cada entrevistador selecciona por su cuenta a los entrevistados. Desventaja: sesgo del
entrevistador q selecciona..
Estas deben ser seleccionadas de un modo tal q contengan el tipo de elementos sobre los cuales
hacen referencia las proposiciones en q el investigador está interesado. Es decir en este caso, el
investigador no esta tan interesado en la generalización como en la relación específica entre
variables, de manera q quiere garantizar q su muestra contenga unidades suficientes de un tipo
determinado. Es decir q la muestra debe ser lo suficientemente heterogénea. En
general para Galtung, el investigador para elegir el tamaño de su muestra debe responder A)
¿cuántas variables quiere el investigador analizar simultáneamente?
B) ¿cuál es el número máximo de valores q desea analizar por variable?
C) dadas las técnicas analíticas a utilizar, ¿cuál es el valor mínimo por celda q necesita?
Por medio de las 2 primeras, va a establecer el tamaño de la matriz de datos y por la última va a
satisfacer los requisitos de las pruebas de hipótesis estadísticas. Entonces hacer la matriz de datos
depende de la cantidad de variables y del número de valores en cada variable.
Unidad 8
Organización y ejecución del trabajo de campo
79 de 107
1- La formación de los entrevistadores
La administración de los cuestionarios (excepto por correo) exige la preparación de los
entrevistadores.
La calidad de la recogida de datos depende de como los entrevistadores hayan cumplido su
trabajo.
Las funciones del entrevistador son:
- Localizar a los entrevistados
- Motivar a los entrevistados. Logre empatia y confianza.
- Leer las preguntas en su exacta formulación y orden.
- Comprobar si la respuesta se adecua al objetivo de la pregunta, si no es así deberá volver a
formular y hacer las aclaraciones pertinentes.
- Anotar las respuestas lo más exactamente posible.
En la formación de los entrevistadores, se los preparara en todos los aspectos del trabajo de
campo, desde como seleccionar a los entrevistados hasta como registrar las respuestas.
El periodo de formación no debe ser corto, generalmente dura entre 2 y 5 días, dependiendo del
cuestionario.
Análisis e interpretación
El análisis es para resumir las observaciones para que den respuesta a los interrogantes de la
investigación. Gran parte del análisis se hace antes de recoger los datos, y se anticipa lo que se va
a concluir.
La interpretación busca un significado más amplio a las respuestas mediante la relación con otros
conocimientos disponibles. Es esfuerzo por la continuidad de la investigación social a través de la
conexión entre estudios, por un lado, y además establece conceptos aclaratorios.
Los procedimientos en el análisis e interpretación son: establecimiento de categorías;
codificación; tabulación de respuestas; análisis estadístico de los datos; extracción de relaciones
causales, y el uso de datos no cuantificados.
1. Establecimiento de categorías
80 de 107
Además, se sumas otras series de categorías, ya que la anterior no es suficiente para determinar su
conocimiento de los negros. Hay que tener en cuenta qué grupos nombró, diferenciar entre grupos
nacionales, raciales…
2. Codificación
Es el procedimiento técnico para categorizar los datos, que son transformados en símbolos
numéricos que pueden ser tabulados y contados. La transformación supone un juicio por parte del
codificador, que no es el mismo que encuesta o entrevista.
Para que el juicio sea fiable, hay que controlar dificultades que provienen de los datos:
exhaustividad (que no haya ítems en blanco), legibilidad (letra clara), comprensión (explicación
clara), uniformidad (en el seguimiento de las instrucciones). Otras dificultades surgen de las
categorías: se deben distinguir con exactitud las fronteras de las categorías.
3. Tabulación de respuestas
Su operación esencial es el recuento para determinar el número de casos que encajan en las
distintas categorías. Los términos tabulación cruzada o encuentro son usados para referir a los
casos que ocurren en más de una categoría. Es un paso esencial para descubrir relaciones entre
variables.
La tabulación manual suele ser menos costosa y laboriosa cuando son pocos casos o pocas series
de categorías. A medida que aumentan, los tabuladores mecánicos son más económicos.
a- descripción de los datos: se debe hacer una o varias de estas cosas: determinar lo que es típico
en el grupo (indicación de la tendencia central); indicar con qué extensión varía los individuos
(medidas de variación); describir diferencias entre dos o más grupos de individuos; etc.
X es causa de Y
Como no hacemos estudios experimentales, no podemos seleccionar un grupo, exponerlo a x, y
otro no…
En estudios no experimentales el investigador recoge información sobre un número de variables
que podrían ser determinantes alternativas de y (variables de control).
Así se considera que pueden haber sido otras las causas de y, o se confirma la relación original, o
se especifica.
81 de 107
Los datos que no fueron cuantificados se pueden usar en el análisis e interpretación. Aun en el
caso de que toda la información haya sido convertida en categorías, el volver al texto original
hace posible conocer los contextos. Pero normalmente no todos los aspectos de la información se
categorizar. En estos casos el material no elaborado tiene la ventaja adicional de no conocerse.
Esos datos sirven a lo largo del análisis para:
- ilustrar el rango de significación adjudicado a cualquier categoría
- estimular nuevos puntos de vista.
82 de 107
VENTAJAS:
• Los DS constituyen un buen arranque para buscar ideas, hipótesis, mejorar su propio
proyecto, así como descubrir vacíos, lagunas para tratar de clarificarlos con los resultados de la
investigación.
• Los DS posibilitan estudios transculuturales, en los que las sociedades enteras son su
unidad de análisis. Ej: Investigación transnacional, en los que un investigador aislado se ve
imposibilitado de recolectar el mismo los datos.
• Muchas veces cuando fuimos nosotros mismo los recolectores de los datos, podemos
recurrir a DS para poder ver el nivel de representatividad de la muestra. EJ: Si queremos ver el
nivel socioeconómico de una población, para poder vislumbrar si es representativa o no
recurrimos a investigaciones de tipo demográfico (es decir utilizaremos los recursos brindados de
otra investigación).
• Siempre que necesitamos comprender el presente, en ciencias sociales recurriremos al
pasado. Dado que los estudios longitudinales, muchas veces son complejos de llevar a cabo
utilizando fuentes primarias, recurriremos entonces a DS.
• A su vez la facilidad que tiene el investigador al acceso de investigación por la existencia
de bancos de datos. Sumado a que su costo es menor, y muchas veces la calidad de los datos es
mas fiable si recurrimos a organizaciones especializadas.
• Evitamos la “no reactividad o el efecto conejillo de indias”. Cuando los sujetos saben que
están siendo estudiados, el proceso mismo de mediación puede distorsionar los resultados
gravemente. El investigador se ve libre se este efecto teniendo tmb que examinar examinar
críticamente los datos con los que realizara su investigación desde este punto de vista.
• El investigador tiene la posibilidad de replicar y reanalizar los mismo datos desde
perspectivas diferentes, desde marcos teóricos distintos, y que con técnicas analíticas diversas
enriquecer a la disciplina científica que le compete.
• Progreso científico, por la existencia, desarrollo y utilización de grandes bases de datos.
Aparece la posibilidad de que los teóricos utilicen datos existentes para incorporarlos al
desarrollo de su teoría.
DESVENTAJAS:
* Sucede que muchas veces la información que uno necesite no este disponible.
* Muchas veces es duradero el proceso en términos temporales de la localización de DS, y tmb
problemas burocráticos pueden obstacularizar la investigación . Otra consideración es que los DS
están por definición desfasados en el tiempo, y esto muchas veces es conflictivo.
* Hay que tener en cuenta que los DS que han sido generados para unos determinados fines de
investigación, pueden no resultar útiles para otros. También el investigador tiene que ser
conciente de lo que elige y no tener la estrategia “cuanto mas mejor” o “cruzo los datos todo con
todo para ver que sale”.
* Tmb tiene que poseer requisitos mínimos de calidad, en términos de fiabilidad y validez. Por lo
tanto no esta de más poder corroborar y contrastar los datos.
* Puede existir un supuesto peligro de que si los investigadores de limitan a utilizar
sistemáticamente los mismos datos, sin incorporar nuevos índices, se corre peligro de repetir lo
mismo, con lo que no tendrían cabida ni la creatividad, ni la intuición, ni la innovación.
* Problema de la interpretación, cuando muchas veces las definiciones por ejemplo de un
cuestionario no están claras, y los integrantes de esa muestra interpretan cosas distintas, y por
ende los datos no son fiables, con lo cuál no nos servirán.
83 de 107
A) marco teórico: Se refiere al “que” de la investigación. Se debe definir cual es el problema
concreto de la investigación, cuales son las hipótesis mas importantes, que tipo de hipo son,
cuales son los conceptos que se intentan relacionar, definición de conceptos.
B) La medida: El investigador debe reconstruir el proceso que generó los datos
originalmente: cómo, cuándo, por quien fueron recogidos los datos.
C) Búsqueda y evaluación: El éxito de la investigación depende del cuidado que se ponga en
recoger datos serios, sólidos y de confianza. Para ello tiene que ser fiable y valido. ¿Cómo se
obtiene fiabilidad?:
• Tener buena familiaridad con la institución que proveerá la información
• Cual fue el objetivo de la información que recogeremos, para ver si es coincidente o no
con nuestro estudio.
• Quien es el responsable del estudio, ya que hay fuentes mas fidedignas que otras.
• El factor tiempo: para poder ver si los datos son valiosos o no.
• Como se obtuvieron los datos en relación al muestreo (tipo de muestra, etc)
• Que tan completa es la información recogida. Que es lo que desde nuestro de punto de
vista esta ausente.
84 de 107
TECNICAS DE LA INVESTIGACION
INVESTIGACION: es un proceso que nos brinda conocimiento científico (cierto y provisional,
público y transmisible).
DISEÑOS DE INVESTIGACION: El diseño de investigación consiste en la planificación de
los procedimientos necesarios para responder a tres preguntas: ¿Desde qué perspectiva teórica se
abordará el asunto?, ¿Qué metodología se utilizará para producir la evidencia? Y, ¿Cuál será la
estrategia de análisis? Estas tres preguntas son la tarea central del diseño en Ciencias Sociales.
El diseño es el protocolo e el cual se especifican las tareas que demandará la ejecución de una
investigación; con un propósito, el objetivo de estudio, el diseño combina teoría metodología y
técnicas. Las tres primeras etapas de un diseño son: la construcción de un marco teórico, la
deducción de objetivos a partir de ese marco y la elección de una metodología que articule teoría
y objetivos para la producción de la evidencia empírica.
CLASIFICACION
Según el grado de cumplimiento de los supuestos de la experimentación
Ejemplo: encuesta usual (no la encuesta panel) en la que se produce una única medición de la
realidad social.
2. Diseños experimentales: cabe definirlos como “observación controlada”, gracias a una serie de
actuaciones del investigador dirigidas al control de posibles fuentes de invalidación de la investigación.
Entre las actuaciones destacan:
a) La manipulación experimental: el investigador puede manipular a priori (antes de recoger la
información) las variables cuya influencia en la ocurrencia de determinados fenómenos trate de medir
b) La formación de grupos de control q sean equivalentes al grupo experimental. Los individuos se
asignan de forma aleatoria a los grupos experimentales y de control.
Estas actuaciones favorecen las relaciones causales al cumplirse la exigencia de validez interna:
el control de las explicaciones alternativas a las analizadas pero tiene una desventaja: la mayoría
de estos diseños carecen de validez externa debido a la manipulación experimental ( a la
alteración que el investigador introduce en la realidad que analiza)
(Texto Hayman): El modelo científico para el estudio de relaciones causa-efecto es el
experimento controlado. En este se comparan las respuestas de un grupo experimental
expuesto a un estimulo con las de un grupo control equivalente que no ha sido sometido
al estimulo.
3. Diseños cuasiexperimentales: están n el medio de los dos anteriores. Puede haber (o no)
manipulación experimental de la variable independiente pero se distancia de lo experimentales en que
en general acontecen en un contexto de la vida real y no en el marco de un laboratorio y en que la
85 de 107
distribución de las unidades de observación (la muestra del estudio) al grupo experimental y al de control
no se realiza de forma aleatoria. Por lo cual no puede garantizarse esa equivalencia.
2. Diseños longitudinales: esta modalidad se caracteriza por plantear el análisis del problema de
estudio a lo largo del tiempo, con el propósito de estudiar su dinámica. La re-cogida de información se
planifica en varias fechas que el investigador especifica en el proyecto de investigación. la amplitud del
periodo de observación y su cronología se halla relacionada con el objetivo. Obviamente el n° de
personas en la muestra disminuirá cuanto mayor sea el periodo de tiempo considerado. Un problema de
este diseño es el costo económico.
a. De tendencias: el estudio se enfoca a la descripción de la población total, no de una parte de ella.se trata
de analizar su evolución prestando atención a las tendencias y cambios de tendencias. Ej: cuando se
comparan los datos registrados en los censos de población (1960, 1970, 1981 y 1991) para analizar su
evolución. Ej 2: cuando se cotejan las respuestas emitidas a una misma pregunta e diferentes encuestas
hechas en fechas diferentes.
b. De cohorte: el interés no se halla en la población total sino en una subpoblación o cohorte. La cohorte
estará constituida por individuos que comparten misma características. La más común, es la edad pero la
cohorte puede fijarse a partir de una experiencia concreta (mujeres que estuvieron en prisión 10 años).
Ej: si se desea analizar como varían las relaciones e/padres e hijos a medida q se van independizando, se
elige una cohorte compuesta por personas q nacieron en el año 55 y se pasa una encuesta cada 5 años a
personas que integren la cohorte seleccionada.
c. Panel: la atención se dirige a analizar la evolución de unos mismos individuos que se eligieron al inicio de
la investigación. Por lo que no se procede a nuevas selecciones muestrales en cada fase posterior de la
investigación. Este diseño es de gran utilidad para indagar en causas de cambio. Las personas son las
mismas, lo que cambian son las circunstancias. 2 problemas del diseño: el desgaste de la muetsra con el
consiguiente aumento de la no respuesta y que el proceso de medición puede sucitar sesgos en
mediciones posteriores por efecto del aprendizaje (esto lleva a la no veracidad de las rtas)
Ej: si se quiere comprobar como incide la situación económica de n país en los habitos de consumo el
diseño sería:
Transversal: si se hiciera una encuesta aplicada una vez en varios países y de forma simultanea
Longitudinal: si se hiciera la misma encuesta en fechas diferentes. El obj seria estudiar la evolucion de los
habitos en el tiempo.
Una misma investigación puede incluir objetivos de diverso rango, en consonancia con las distintas fases
en su desarrollo.
1. Diseños exploratorios: este tipo de diseño se lleva a cabo para cubrir alguno de los siguientes proposits:
familiarización con el problema de investigación para deducir (a partir de la info reunida) que aspectos
requieren un análisis pormenorizado, comprobar que estrategia se adecúa mas a su análisis y verificar la
factibilidad de la investigación.
86 de 107
2. Diseños descriptivo: al igual que el anterior constituye un paso previo en cualquier proeso de
investigación. Antes de indagar en la explicación de cualquier evento hay que proceder a su descripción
mediante alguna o varias estrategias de inv (encuesta, estadísticas, etc) Ej: censo de población (en els e
describen características sociodemograficas de una población determinada)
3. Diseños explicativos: después de la descripción procede la explicación: buscar posobles causas o razones
de los hechos, acciones o cualquier fenomneo que se analice. Ej: describir el perfil de una población
delincuente juvenil es decriptivo pero analizar las causas que convergen en la delincuencia juvenil implica
un diseño explicativo.
4. Diseños predictivos: la predicción forma un objetivo en si mismo aunque lleva consigo a uno o varios de
los objetivos anteriores. Para poder predecir cual será la evolucion futura de un determinado fenomento
habrá que previamente analizarlo en su vertiente descriptiva y explicativa.
Tiene una lógica articulatoria enter la teoría , el método y la metodología. Estos delimitan o
problematizan determinada cuestión. Importancia de la coherencia interna en el proceso de
investigacion.
ETAPAS DE LA INVESTIGACION
87 de 107
Busqueda de antecedentes: Estado del arte: es lo que hay hasta ahora sobre la hipótesis. Es diferente al
marco teórico que tiene que ver con los conceptos que toma de todo eso, hay que tomar una decisión. El
marco teórico constituye mi definición de las variables. Dentro de esta búsqueda encontramos el primer
elemento que se debe tener en presente a la hora de elaborar teorías es la Revisión bibliográfica, es
decir deben tener en cuenta la elaboración teórica y la evidencia empírica anteriores sobre la cuestión, ya
que una de los objetivos esenciales de una investigación es contribuir al conocimiento ya acumulado. La
revisión crítica de la literatura es el cimiento sobre el que se construye cualquier trabajo de investigación
y contribuye a delimitar el problema de investigación, elaborar un marco teórico adecuado (donde
juegan un papel relevante las teorías elaboradas por otros) e identificar posibles hipótesis alternativas,
definir conceptos y medir variables, organizar una estrategia de investigación y obtener datos.
Inducción y deducción
b) Claridad en la elaboración conceptual: la claridad exige que los conceptos que forman
parte de la teoría estén concreta y claramente definidos, de manera que sean fácilmente
observables empíricamente.
a) Conceptos y Variables
88 de 107
Un CONCEPTO consiste en tres elementos relacionados entre sí: término, significado y
referente y su relacion viene dada por el consenso entre los miembros de una comunidad. La
utilidad de los conceptos depende de que cumplan dos condiciones fundamentales: ser
inequívocos y claros. Los conceptos ambiguos y vagos impiden la comprensión.
Los conceptos constituyen una teoría bien definida de forma tanto:
- Declarativa: términos que se encuentran en el lenguaje coloquial (como organización,
cultura, clase social) no son lo suficientemente inequívocos ni claros sino que requieren
una definición mas detallada.
Una vez formulados los objetivos los conceptos contenidos en las hipótesis o proposiciones que
los conforman deben ser transformados en variables, las que pueden ser definidas como aspectos
o dimensiones de los fenómenos o procesos estudiados.
Una VARIABLE es una característica empíricamente observable de algún concepto que puede
tomar más de un valor. Cuál es su utilidad? Las variables, constituyen un atributo de las unidades
de análisis que permiten pasar de la teoría, que relaciona dos o más conceptos a la observación
empírica de los datos con los que se espera contrastar la teoría formulada y Permiten además
estructurar la investigación, según el papel que desempeñen las hipótesis.
- Al igual que los conceptos pueden ser relativamente sencillas (género) o complejas
(gobernabilidad de un sistema político, nivel de desarrollo económico, discriminación por
sexo)
Luego el investigador es libre de definir las categorías que se incluyen en cada variable
siempre respetando los criterios de exclusividad y exhaustividad.
. Según la hipótesis (ver mas adelante)
a) Dependientes
b) Independientes
c) De control (condicion) contextuales (solo en tal -...)
b) Hipótesis
Para poder contrastar una teoría empíricamente es necesario formular una HIPOTESIS es decir,
un enunciado declarativo que indica explícitamente las relaciones que se esperan encontrar
89 de 107
entre las variables. Las hipótesis constituyen el vínculo entre teoría y datos. Ej: “ cuanto mayor
es el nivel de proporcionalidad de un sistema electoral mayor es la fragmentación del sistema de
partidos”. Ligado a la pp damos una posible hipotesis: supuesto que guia la investigacion Una
hipótesis debe contar y relaciona como mínimo una variable dependiente y otra independiente a
través de un nexo. Esta es su estructura básica, luego debe contener. las variables, las UDA,
recote espacio temporal y nexo logico
Nexo: influye en- depende de- condiciona a- se relaciona con 8asimetrica)
- Una relación puede ser reversible (si X, entonces Y; y si Y entonces X) o irreversible (si
X, entonces Y; pero si Y, entonces ninguna conclusión acerca de X). Ejemplo reversible: cuanto
mayor la frecuencia de interacción entre dos o más personas, tanto mayor su simpatía, y
viceversa, cuanto mayor la simpatía entre dos o más, tanto mayor la frecuencia de interacción.
90 de 107
- Una relación puede ser determinista (si X, entonces siempre Y) o estocástica (si X,
entonces probablemente Y). Las relaciones deterministas parecen ser muy raras en sociología, las
estocásticas son más comunes. Ejemplo determinista: si hay un aumento en el número de
miembros de un grupo completamente inestructurado, siempre hay un aumento en el anonimato
de as acciones del grupo. Ejemplo estocástica: Si una persona debe elegir entre conformarse a una
norma y abandonar una alta posición, lo más probable es que quede con alta posición.
- La relación puede ser de secuencia (si X, entonces mas tarde Y) o coexistente (si X,
entonces también Y). Ejemplo secuencia: si los votantes están sujetos a influencias
contradictorias de sus grupos primarios durante una campaña electoral, posiblemente demores en
tomar una decisión. Ejemplo coexistente: cuanto mayor es el porcentaje de movilidad social,
menor es la medida en que las clases bajas aceptan ideologías clasistas militantes. Las relaciones
de coexistencia reversibles se han llamado muchas veces “funcionales”.
- Una relación puede ser suficiente (si X, entonces Y, independientemente de cualquier otra
cosa) o contingente (si X, entonces Y, pero sólo si Z).
- Una relación puede ser necesaria (si X, y sólo si X, entonces Y) o sustituible (si X,
entonces Y; pero si Z, entonces también Y).
- Los sociólogos se toman el trabajo de identificar un tipo adicional de relación, que es una
combinación de atributos reversibles, secuenciales y coexistentes. Son relaciones
interdependientes, entonces un pequeño incremento de una variable tiene como resultado un
pequeño incremento de una segunda variable; luego el incremento sobre la segunda variable hace
posible un ulterior incremento en la primer variable, que a su vez afecta a la segunda y el proceso
continua. Una variación importante en una relación interdependiente se produce a través de una
serie de cambios pequeños que interactúan.
- Proposiciones funcionales. Muchas veces los sociólogos usan la palabra “función” para
significar solamente “resultado”, y el término “prerrequisito funcional” para significar solamente
“determinante”. En un marco más estricto, “función” tiene un significado más específico: “Son
aquellas consecuencias observadas que contribuyen a la adaptación o ajuste de un sistema dado”.
- La especificación del tipo de relacion que se espera encontrar entre esas variables: se es
positiva o negativa, lineal o no,
91 de 107
- En el caso que sea relevante, la especificación de las interacciones que se esperan
encontrar.
4° OBJETIVOS
Es el rumbo que vamos a llevar adelante y que va a determinar el tipo de investigacion.
Las fuentes de inspiración
Procedimiento que se lleva a cabo en la práctica para formular un objetivo de investigación
científica a partir de un tema o problema que se ha planeado el equipo de investigación. El primer
paso para el objetivo de investigación es discutir el contexto socio-histórico. El segundo paso es
definir los términos claves de nuestro estudio para lo cual la búsqueda de bibliografía constituye
la herramienta central.
Es importante llevar a cabo lecturas con dos propósitos: una lectura general informativa y la
forma de abordarlo y la lectura pormenorizada que da lugar al fichado del material. La elección
de la bibliografía especializada es una etapa crucial para la elaboración de los objetivos.
Los objetivos de investigación
La condición del objetivo es que se derive de la teoría y sea factible de ser desarrollado a lo largo
de una metodología. Teoría-objetivos-metodología deben estar articulados entre sí. Las teorías
tienen implicaciones metodológicas. Éstas son dimensiones generales que trascienden las teorías
o posiciones epistemológicas específicas.
Esas dimensiones giran alrededor de la definición de; el enfoque macro o microsocial de la
realidad social, las relaciones entre ambos y las implicaciones metodológicas; segundo, la
construcción del objetivo focalizado en el estudio de la estructura social o la acción social;
tercero, la cuestión del rol que se le asigna al orden social y/o a la agencia en la explicación de la
realidad social.
Clasificación:
Pueden ser:
- Generales: mas bien teóricos y debe abarcar a los específicos
- Particulares: ya eben tener en claro ciertos tipos de análisis. Despliega el contenido del marco
teórico: todo lo discutido en el marco teórico debe estar reflejado en estos obj.
No es lo mismo la Justificacion: “para asesorar al gobierno”, para colaborar, para dar info. Por
qué considero que me tienen que financiar o lo tienen que leer?
5° METODOLOGÍA
Diferencia entre método, metodología y técncias
Metodología: es el estudio de los métodos desde sus fundamentos epistemológicos hasta los
problemas de medición, es una rama de la lógica que se ocupa de la aplicación de los principios
de razonamiento a la investigación científica y filosófica. Discute los fundamentos
epistemológicos del conocimiento: el papel del investigador, el papel de los valores, la idea de
causalidad, el papel de la teoría, etc. Tiene un nivel de jerarquia mas bajo que el método. Son
estrategias que implican 3 preguntas: donde a quien y como voy a preguntar
Método: Es una forma de hacer, un procedimiento regular y ordenado. “son una seria de pasos
que el investigador sigue en el proceso de producir una contribución al conocimiento” .
92 de 107
procedimiento que determina como el proceso lleva o va ahacoa adelante. Implica como
implementas ese enfoque teórico? Que procedimientos van a utilizar para responder a esa
pregunta problema.
La función de los métodos justamente es adecuar los principios generales de las orientaciones
teórico-metodológicas a los requerimientos de la producción de la evidencia empírica.
Técnicas: “complejo mas o menos codificado de normas y formas de proceder reconocido por
una comunidad y transmisible”
Tiene, por lo menos, dos significados más. Ambos tienen una relación instrumental entre su
referente y la ciencia:
a. una técnica se sirve del conocimiento adquirido por las ciencias sobre la realidad para
modificar una parte de esta.
B. la ciencia se sirve de una técnica para estudiar mejor algún aspecto de su objeto
Elección del método:
Enfoques metodológicos:
- Cualitativo (hermeneuta comprensivo)
- Cuantitativo (hipotetico deductivo)
93 de 107
Conceptos abstractos Operacionalización Indicadores observables
Observación/Medición Comprobación validez hipótesis
Variable: Propiedad de la udea que varían de una unidad a otra. Característica empíricamente
observable que puede asumir más de un valor
Indicador: variable observable /empirica.
El proceso de operacionalización incluye varias fases. Un concepto complejo puede desdoblarse
en una serie de dimensiones, que sirven de indicadores del concepto inicial, pero que a su vez
necesitan de operacionalizaciones sucesivas para poder ser directamente observables.
Dependiendo del grado de abstracción de un concepto el proceso de operacionalización es más o
menos largo y dificultoso.
La operacionalización de los conceptos se debe formular por escrito, con una indicación
pormenorizada de los pasos seguidos, de manera que otros autores puedan utilizarla. Es
importante operacionalizar bien los conceptos porque las investigaciones sólo pueden ser exactas
si los indicadores escogidos reflejan adecuadamente los conceptos que se tratan de medir.
Puede que un solo indicadores sea insuficiente para medir un concepto. Qué se hace?
a) Se utilizan diferentes indicadores del concepto “desarrollo eco” y se los utiliza por separado
b) Se construye un índice a partir de varios indicadores. De aquí se obtiene un valor único,
configurado por una serie de indicadores, es decir, un índice compuesto.
94 de 107
Medición de intervalo (intervalar): A diferencia de la medición ordinal, la intervalar sí utiliza
una unidad normalizada de la prop que se mide y asume una equidistancia entre categorías. Por
tanto, las medidas de intervalo proporcionan más info que las ordinales, ya que tmb señalan la
distancia que existe entre dos valores de una variable y se consigue un grado de precisión mayor
en as observaciones.
Tmb en este caso se pueden aplicar códigos numéricos a las categorías, con la diferencia de
que aquí los números adquieren significado cuantitativo, ya que representan la cant exacta de la
prop o variable que posee el caso que se este midiendo.
La ventaja fundamental de este tipo de medición es que los fenómenos pueden ser sometidos a
operaciones matemáticas, y los resultados de estas operaciones tienen significado, no como en el
caso de las variables nominales y ordinales.
Técnicas de Recolección de info: encuesta, entrevista, grupos de discusion /hay cuali y
cuanti)
INDICE
Las informaciones recogidas tienen que ser sintetizadas para reconstruir de alguna manera la
unidad del concepto que interesa. La operación con la que se realiza esta síntesis se llama
CONSTRUCCIÓN DE UN ÍNDICE y es la tarea más delicada de toda la investigación social que
sigue una aproximación estándar.
INDICE: Instrumento de medicion que me permite a partir de una variable compeja seleccionar
un conjunto de indicadores que combinados mne permiten medir otra variable. Indice: combionar
indicadores para poder sacar una variable que sea medible. En el indice hay que asignar valores.
Herramienta cuantitativa. Suma los valores que tiene cada UDA en cada uo de los indicadores y
los resume en una medida. (resume los indicadores).
El análisis de componentes principales tiene tres funciones a las que correspondes tres fases en el
procedimiento:
1. seleccionar en la canasta inicial de indicadores los que resultan tener una estricta
relación empírica con los otros. Y por lo tanto se puede suponer que tengan una apreciable
relación semántica con el concepto que interesa;
2. estimar la fuerza de relación semántica(validez) entre el concepto y cada uno de
los indicadores seleccionados;
3. basándose en esta estimación, proporcionar un coeficiente parar ponderar los
puntajes de cada indicador, teniendo en cuenta las posibles superposiciones semánticas, es decir
el hecho de que dos o mas indicadores puedan representar aspectos muy cercanos de la intensión
del concepto.
95 de 107
Ej: INIDCE ESTANDAR
Mediante el proceso de medición se asignan valores a los casos observados con respecto a cada
una de las variables. Las diferencias en los valores asignados pueden reflejar diferencias reales en
la presencia de variables en cada uno de los casos. Pero dicha diferencia también puede ser
resultado de la elección de indicadores inapropiados o de su aplicación en contextos inadecuados.
Cuando se diseña y lleva a cabo un proceso de medición, el investigador debe intentar
96 de 107
aproximarse lo más posible a la perfección de forma que pueda estar seguro de que la variación
de los valores obtenidos en cada variable responde a diferencias realmente existentes y no son un
artificio producido por el propio proceso de medición.
La validez y la confiabilidad son dos propiedades deben ser tenidas en cuenta en todo tipo de
estudio ya que son las propiedades que se utilizan para establecer la calidad de los indicadores.
Ser consciente de sus implicaciones permite estar alerta ante posibles errores de medición que
puedan invalidar o contaminar los resultados de una investigación.
CONFIABILIDAD: es el grado de precisión con el que el instrumento de medida o indicador
mide el concepto que interesa al investigador. Un instrumento de medición es confiable cuando,
al usárselo reiteradas veces, produce los mismos resultados (fiables). La confiabilidad de las
medidas se incrementa al eliminar el error aleatorio o no sistemático. Es decir que la fiabilidad se
refiere al instrumento independiente del investigador que reiteradamente da resultados fiables.
Correspondencia entre situaciones reales y datos en la matriz
La VALIDEZ es el juicio acerca de la proximidad semántica entre un concepto y su indicador. Se
refiere al proceso de investigación y no al instrumento, se quiere corroborar que efectivamente
estemos midiendo lo que queremos, que los indicadores se refieran a lo que queremos medir. La
validez es una propiedad del concepto X en cuanto posible indicador del Concepto Y en un
ámbito espacial-temporal determinado con una unidad de análisis dada. Validez interna (tener en
cuenta todas las dimensiones que engloban esa variable) y externa (relacionar los resultados con
algo externo). Este juicio se a teniendo en cuenta los conocimientos del problema, de la población
estudiada, los resultados de las investigaciones previas, la literatura científica sobre el tema, etc.
El juicio debe tener en cuenta la fuerza y la forma de relaciona de aquella variable con otras.
2 tipos:
1. Interna: en relación con una variables, tenemos que tener en cuenta todas las dimensiones.
Tiene que ver con la calidad en la Operacionalización y medición de los conceptos y de las
relaciones de los mismos
2. Externa: correlacionar los resultados con el afuera. Tiene que ver con la generalidad de las
conclusiones).
DATO: es el valor que asume una unidad de análisis en la categoría de una variable.
MUESTREO
Tengo que saber a quienes les voy a aplicar los indicadores. En la hipótesis ya determine las UDA pero
ahora tengo que especificar. Pasos del muestreo:
Muestra: Unidades observadas. Definición: subconjunto del conjunto total que es el universo o
población. Su propósito es establecer los pasos o procedimientos a través de los cuales sea
posible hacer generalizaciones sobre la población a partir del subconjunto de la misma con el
97 de 107
mínimo grado de error. Si la muestra está bien hecha el resultado se puede extrapolar al general.
En las muestras probabilísticas sino se puede establecer tendencias.
A la hora de decidir el número de unidades de análisis que han de incorporarse a la muestra, es
decir la determinación del tamaño de muestra se realiza teniendo en cuenta tres aspectos
fundamentales: el error admisible en la estimación, la confiabilidad e información auxiliar para el
cálculo de la varianza estimada y los siguientes:
La magnitud del universo a estudiar: Para el estudio de algunos aspectos es posible conseguir info
sobre muchas unidades, mientras que en otros casos esta posibilidad está más restringida por la propia
naturaleza del estudio.
El objetivo de la investigación
El nro de variables que se incorporan en el marco teórico: Según si el objetivo es describir o
explica, y si se desean considerar muchas o pocas variables, el investigador debe observar o no muchos
casos.
El papel de la variación a través del tiempo: Se distingue entre estrategias de investigación que
analizan variables medidas en un momento en el tiempo (sincrónicas) y estrategias que incorporan
observaciones a lo largo de diferentes momentos en el tiempo (diacrónicas).
Los recursos eco y e tiempo disponible para la realización de la investigación
98 de 107
Conglomerados, Estratificada y Sistemática:
En todos estos casos no todas las combinaciones tienen igual probabilidad de darse en la muestra.
b) Muestreo sistemático: se hace por rango
Procedimientos :
1) Hacer un listado completo del universo.
2) Seleccionar el primer individuo a través de un método aleatorio
3) Seleccionar cada mismo individuo seleccionado a partir del primero (es decir, cada 10-
20 o algún numero)
Procedimientos:
1) Dividir el universo en estratos internamente homogéneos
Procedimiento
1) Dividir el universo en diversos grupos
2) seleccionar primer que grupos deben constituir la muestra
3) dentro de cada grupo seleccionar individuos de la muestra de modo aleatorio.
Ventajas: Las mismas ventajas que en los otros dos puntos. Además ahorra dinero sobre todo
porque permite la concentración de los entrevistadores en áreas próximas.
Desventajas: Exige tratamiento estadístico muy complejos. Se pierde la precisión y el carácter
aleatorio del muestreo.
Muestras NO probabilísticas:
Estas muestras tienen poco valor en términos de estimación ya que no es posible a partir de ellas
calcular el error de estimación de parámetros. Resultan de utilidad en términos de inmersión por
parte del investigador en el tema.
Muestras Causales: Entrevistar a los individuos de una forma causal. Por ejemplo los que pasan
por una esquina, una entrevista televisiva.
Muestra intencional: Seleccionar casos típicos del universo según el criterio de un experto.
Muestreo en Cuotas: Cada entrevistador debe entrevistar a una cierta cantidad de individuos de
cada categoría (por ejemplo hombres y mujeres)
8° ANALISIS
99 de 107
Unidad 4
Introducción (sacado de los dos textos de Cohen que están en la unidad, más apuntes de clase)
“En las ciencias sociales contamos con diferentes métodos y técnicas para pasar de del concepto
definido teóricamente al concepto definido operacionalmente y, de esta manera hacer de un
concepto un instrumento (variable) apto para la producción de datos” (Cohen; pág. 13). Es decir
que contamos con diferentes técnicas que permiten medir, entendiendo la medición en un sentido
amplio, superando la concepción estrictamente cuantitativa de la misma. En clase y en la
bibliografía (Unidad 4) se trabajan tres técnicas de medición: 1) los índices sumatorios; 2) las
tipologías y 3) las escalas de actitudes.
- Medición: no se restringe a la asignación de números a las propiedades de los objetos (como
lo plantea la mirada convencional- Campbell y Stevens), se pueden también representar
cualidades de los objetos mediante categorías cualitativas. Es el proceso por el cual se van
encontrando maneras de reflejar una determinada situación, no solo a través de números, sino
también mediante expresiones, que son categorías de respuesta. Consiste en registrar en qué
categoría de la variable se ubica la unidad de análisis. La medición tiene que cumplir con dos
requisitos:
a) Validez: el registro de medición tiene que registrar aquel concepto que pretende medir. Tiene
que ver con el grado de abstracción del concepto con el cual se está trabajando, y tiene que ser
siempre consecuente con la definición teórica en la cual se basa.
A su vez las variables entre sí se pueden clasificar entre los distintos tipos de variables:
100 de 107
- Clasificación de las variables según el nivel de medición: refiere a la relación que se puede
encontrar entre las distintas categorías de una misma variable.
d) Nivel de cociente o de razón: es igual que el intervalar pero con la particularidad de que tiene
un valor cero absoluto de cociente o razón (el cero implica la ausencia de una determinada
característica).
4) Formación de los índices: consiste en sintetizar los datos obtenidos en las etapas anteriores.
Se trata de estudiar las relaciones entre indicadores, y deducir de ellas algunos principios
matemáticos generales que permitan definir la potencia relativa de un indicador respecto a otro, a
fin de determinar su peso en la medida específica que se intenta llevar a cabo. Al construir los
índices se elige un número de ítems relativamente limitado.
- Los índices poseen un rasgo fundamental: su correlación con las variables exteriores suele
manifestarse sensiblemente estable, cualquiera sea la muestra de ítems escogida. Este fenómeno
se denomina <intercambiabilidad de los índices >
Cohen, Gomez Rojas: Las tipologías y sus aportes a las teorías y la producción de datos
- Las tipologías son un puente, una conexión, entre la teoría, los conceptos y los datos.
Ordenan el corpus teórico a la vez que otorgan coherencia analítica a la compleja y a veces
101 de 107
caótica realidad con la trabaja el científico social. Este recurso metodológico tiene raíz en el
tiempo, ha sido utilizado por ejemplo por Durkheim y Weber.
- Las tipologías permiten ordenar una porción de la realidad a partir de la combinación de las
categorías de los indicadores. Se trata por lo tanto de un orden teóricamente guiado (dado que
las variables, categorías e indicadores son construcciones teóricas).
- Cohen ejemplifica es tipo de tipología con el trabajo de Eric Wright. El cual parte de la
variable: posiciones de clase en la sociedad capitalista, luego la operacionaliza buscando sus
indicadores y estable un sistema dicotómico de categorías para cada uno. De esta manera arma un
espacio de propiedades (tipología), un cuadro, en el cual se combinan las dos categorías de los
dos indicadores. Queda conformada una tipología de cuatro tipos (ya que partió de de dos
indicadores dicotómicos).
- Cada uno de los tipos (en este caso son cuatro) representa una categoría de la variable
original: “posiciones de clase en la sociedad capitalista”.
- Wright agrega luego tres indicadores nuevos (dicotómicos), estableciendo así una tipología
de doce tipos.
- “Wright recorre las tres instancias que nos referíamos como intrínsecas a la producción del
dato: la conceptual- partiendo de la noción de explotación-, la metodológica- optando
estratégicamente por la tipología como recurso- y la empírica- obteniendo los registros de la
realidad en la que se involucra- “ (pág. 54)
- La tipología construida por Wright tiene un carácter gradacional, ya que pretendo no sólo
tipificar situaciones extremas, si no también intermedias.
- La tipología al permitir hacer combinaciones entre las categorías, permite hacer un trabajo
más analítico, es decir de mayor riqueza teórica, para así ir armando tipos empíricos (que existen
como tales).
102 de 107
- “Los tipos no reproducen la realidad, para Bauman lo caótico de la realidad es irreproducible,
sino que facilitan el trabajo interpretativo del investigador y contribuyen a la producción de
teoría” (pág. 54)
- La tipología elaborada por Bauman está emparentada con cierta tradición en las Ciencias
Sociales de tipificar entidades de manera antagónica, es decir que tiene un carácter polar.
Ambas tipologías tienen en común una cosa: hay una decisión de llegar al dato desde el
concepto, en ambos tipos las referencias teóricas son las que dan sustento a las tipologías
elaboradas.
Cohen, Gomez Rojas: Un enfoque metodológico para el abordaje de escalas aditivas
¿Por qué construir una escala?
- Se busca un instrumento como la escala, que pueda ordenar las unidades de análisis, que
establezca diferencias y jerarquías entre ellas, cuando se necesita registrar grados de acuerdo y
desacuerdo respecto de determinados juicios de valor acerca del fenómeno que se estudia. Se
recurre a la construcción de escalas cuando se tiene como objetivo la medición de actitudes.
- La escala de actitudes permite ordenar las unidades de análisis según las variaciones
predisposicionales, constituyéndose este procedimiento en el principal objetivo de un
investigador cuando recurre al uso de esta técnica. Hay que tener en cuenta que no se están
midiendo opiniones ni relatos sobre una experiencia, sino aquellos componentes latentes que para
hacerse manifiestos, no dependen sólo de la voluntad del individuo, sino que es necesario apelar a
un recurso metodológico que los haga visibles.
- El proceso de construcción de una escala de actitudes, no es otra cosa que el de una variable
compleja tanto teóricamente como en cuanto a su abordaje empírico. En el mismo se reconocen
tres etapas:
- En la medida en que una escala de actitudes mide disposiciones –lo que predispone a- las
proposiciones deben expresar juicios de valor antes que juicios de hechos. Para esto Cohen señala
(poniendo como ejemplo su investigación sobre los panes de viviendas) que el mejor camino para
construir juicios o sentencias valorativas, es indagar en el discurso de quienes deberían evaluar
tales juicios, privilegiando el discurso del actor social que se estudia y no el del investigador. Para
acceder al mismo se pueden realizar “entrevistas grupales”.
103 de 107
- Elección del escalograma: la cantidad de alternativas que puede ser planteada a los
entrevistados para responder a las proposiciones puede variar entre una e infinitas. Lo ideal es
que no sean demasiadas, como para que el entrevistado pueda discernir entre unas y otras, pero
tampoco que se trate de una opción dicotómica, ya que se correría el riesgo de agrupar en una
misma alternativa actitudes distintas.
- Nivel diferenciador de las proposiciones: las proposiciones deben tener un alto nivel
diferenciador, ya que si no se corre el riesgo de homologar respuestas que devienen de actitudes
diferentes. Esto ocurre cuando la propuesta del enunciado es de tal naturaleza que conduce a
inexorablemente a responder de un solo modo.
- Una escala es una forma particular de índice, construir una escala implica una seria de
procedimientos mediante los cuales se selecciona ítems y se adjudican números a un conjunto de
ítems (juicios o sentencias), número que va a expresar la intensidad que un sujeto o grupo de
sujetos manifiestan en la variable.
104 de 107
- Las actitudes en el contexto individual representan un estado mental que es un puente entre
estados psicológicos y objetos exteriores. Las actitudes serían entonces procesos claves para
entender las tendencias del individuo en relación con objetos y valores del mundo externo; la
tendencia individual a reaccionar positiva o negativamente a un valor social dado.
- Existe una serie de conceptos relacionados con las actitudes, como por ejemplo: la creencia,
el sesgo, la doctrina, la fe, la ideología, el valor y la opinión (pág. 87)
Algunas propiedades de las actitudes que tienen que ver con los problemas asociados a la
medición de las mismas a través de escalas:
Dirección, intensidad, estabilidad, fortaleza, importancia, visibilidad, relevancia interna,
involucramiento del ego, integración y aislamiento, especificidad o precisión y verificabilidad
- Muchas de las propiedades de las actitudes están correlacionadas. Alta intensidad
frecuentemente significa: estabilidad, fortaleza, alta relevancia externa e interna y alto grado de
ego.
2- Los ítems deben ser administrados a una muestra de sujetos que van a actuar como jueces:
Los jueces deben ser seleccionados al azar, de una población de características similares a
aquella en la cual queremos aplicar la escala final
3- Se asignan puntajes a los ítems según la dirección positiva o negativa del ítem: con este
paso comienza efectivamente el análisis de la escala. Hay que clasificar a cada ítem según
sea positivo o negativo y luego ponderar las alternativas de respuesta. las escala mide a
nivel ordinal y los valores de escala simplemente implican posiciones de rango
4- Se asignan los puntajes totales a los sujetos de a acuerdo al tipo de respuesta en cada ítem
(la suma es algebraica): este paso consiste simplemente en la adjudicación de los puntajes
totales para cada individuo en la muestra de jueces. Esta suma resultara de la división de
los puntajes ponderados para cada ítem.
5- Se efectúa un análisis de ítems: una vez computados los puntajes totales para todos los
jueces, hay que ordenarlos de manera que el sujeto con el puntaje total más alto ocupe el
primer lugar, el segundo puntaje más elevado a continuación, etc. Hasta llegar a la
105 de 107
persona con el puntaje más bajo. Una vez ordenados los sujetos, vamos a operar
únicamente con los cuartiles (25%) superiores e inferiores. Del 50% del centro no nos
vamos a preocupar más. Formamos de esta manera un grupo alto y un grupo alto con
respecto a la variable y a los puntajes totales. Se procede a seleccionar los ítems que
discriminen mejor.
6- Se construye con base en los ítems seleccionados la escala final: la cantidad de ítems
seleccionados de acuerdo a su poder discriminativo, constituirá la escala final a ser
aplicada a sujetos o grupos como versión final. Los puntajes finales a adjudicar a los
individuos serán entonces el producto de la suma de los puntajes obtenidos en cada ítems,
divididos entre el total de ítems.
Desventajas
- Por tratarse de una escala ordinal, no permite apreciar la distancia que hay entre pares de
sujetos con respecto a la actitud.
- Con frecuencia dos puntajes iguales pueden ocultar pautas de respuesta diferentes de los
individuos.
106 de 107
107 de 107