Tecnicas de Investigacion

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 265

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA

UNAD

MODULO TÉCNICAS DE INVESTIGACIÓN

AUTOR

HERNÁN COLLAZOS GARCÍA

FACULTAD DE CIENCIAS AGRARIAS

2006
2

TABLA DE CONTENIDOS

UNIDAD 1 ASPECTOS GENERALES DE LA INVESTIGACIÓN

Capítulo 1. La investigación

Lección 1. Antecedentes

Lección 2. Otros Conceptos sobre investigación

Lección 3. Finalidad de la Investigación Científica

Capítulo 2. Características del proceso de investigación

Lección 4. Propiedades del Proceso de Investigación

Lección 5. Medios Utilizados en la Investigación Científica

Lección 6. La línea de Investigación

Capitulo 3. Elementos básicos de la Investigación

Lección 7. El Diseño

Lección 8. Clasificación de la investigación

Lección 9. El papel de los métodos y técnicas en la investigación


3

Prólogo

Del mismo modo que la profundización y la extensión del bienestar social, en su más
amplio sentido, necesita de los esfuerzos impulsores del desarrollo científico y
tecnológico, las acciones inductoras de esta planificación, gestión y ejecución de la
investigación- requieren del apoyo sistemático y continuado de los servicios de
documentación e información en la medida que se encargan de facilitar la percepción,
asimilación y transferencia de los avances del conocimiento científico y tecnológico,
cualquiera sea el origen, disciplina y forma en que se produzcan.

Así, la satisfacción de los objetivos científicos y tecnológicos que las necesidades


sociales plantean –progreso social, modernización económica, desarrollo cultural, etc. –
va a depender, en gran medida, de la existencia de una adecuada interconexión entre
los órganos institucionales de decisión, administración y producción científica y
tecnológica, y aquellos otros responsables de programar y realizar las acciones de
recopilación, almacenamiento, tratamiento y difusión de la información que se ha
generado.

Puede decirse, en resumen, que este cúmulo de tareas se integra plenamente en lo que
se ha dado llamar Sistema Ciencia-tecnología, o lo que es lo mismo, en el conjunto de
elementos organizados que producen, trasfieren, y aplican los logros científicos y
tecnológicos para los que se aportan los recursos – humanos, financieros e
instrumentales- necesarios en el desenvolvimiento de su actividad, la cual, en definitiva,
se extiende desde las propias percepciones teóricas y experimentales hasta su
transformación en productos operativos del pensamiento, la economía o la producción
industrial.

El sector productivo viene reclamando a la Universidad una mayor vinculación al


quehacer investigativo y tecnológico, para provocar los cambios y lograr un desarrollo
armónico y sostenido que mejore las condiciones de vida de nuestras gentes.

La tendencia universal en este siglo, en sus primeras décadas, es la lucha por el


conocimiento, por la investigación, el desarrollo y aplicación de las TICS, y su diálogo
constructivo. La UNAD, como universidad, a través de la formación en investigación
dinamiza estas metas, con la activa participación de sus actores y los estamentos que la
conforman.

INTRODUCCIÓN
4

En Colombia suele suceder que cuando se escribe sobre investigación se activan


enseguida las posiciones intelectuales que están detrás de cada lector; estas posiciones
a su vez, disparan las actitudes respectivas de aceptación o de rechazo del escrito en
cuestión, según si el lector es admirador de la investigación mal llamada cuantitativa o
de la denominada cualitativa. Pero estas posiciones extremas tienden hoy, de una
manera consistente, a desaparecer.

Todo buen investigador sabe, que toda línea de investigación comienza por ser
cualitativa y que el sustento teórico de una investigación cuantitativa así como el análisis
de los resultados no adquieren significación si no es dentro de un contexto cualitativo.
Por su parte, la investigación cualitativa requiere de la precisión que ofrece la
cuantificación, para ordenar los datos y la información recolectada y así contribuir a la
significación de los contenidos; además, requiere la precisión conceptual que es
facilitada por la llamada investigación cuantitativa..

En consecuencia, adoptar posiciones extremas con respecto a la investigación esta en


desuso. Tal vez, lo correcto científicamente, sea tener un dominio de los dos métodos
aludidos y aplicarlos metodológicamente, con técnicas apropiadas, según el problema o
pregunta que se desea responder y a través de cualquiera de ellos, producir
conocimientos en beneficio del ser humano que es lo que en ultimo término busca toda
ciencia.

En el presente curso se realiza una aproximación a las principales técnicas en


investigación cuantitativa y cualitativa y se espera desarrollarlo y cualificarlo durante su
migración a la PTU de la universidad. Por tanto se agradecen las sugerencias de los
tutores y estudiantes.

OBJETIVOS

El propósito de este curso es aproximarse y profundizar en algunas técnicas de


investigación, relevantes tanto para las ciencias sociales como las naturales. Por lo tanto
en el curso se intenta dar una visión panorámica, de la variedad de técnicas disponibles.
Se pretende apoyar desde este curso la formación para la investigación científica en el
campo de las diversas disciplinas, hacia la excelencia académica con pertinencia social
y dentro de un marco de libertad, privilegiando el enfoque regional, la perspectiva
multidisciplinaria y la colaboración interinstitucional como estrategias principales para
formarse como investigador.

No busques alas prestadas


para adentrarte en la ciencia
Vuela tu solo hacia la sabiduría
Y hallaras la verdad

E.C.
5
6

UNIDAD 1 ASPECTOS GENERALES DE LA INVESTIGACIÓN

Capitulo 1. La investigación

Lección 1. Antecedentes

El eminente premio Nóbel P. B. Medawar y el biólogo F. Ayala coinciden en que “la


investigación científica es un dialogo explicativo que siempre puede resolverse en dos
voces o episodios de pensamiento imaginativo y critico, que alternan e interactúan”. Sin
embargo, en esta exposición se propone una más: la etapa de comunicación. Ello en
reconocimiento a la incontrolable necesidad que siente la mayoría de los científicos por
comunicar sus hallazgos y que además requiere nuevas habilidades no presentes
necesariamente en las etapas anteriores.

Cuando un individuo logra conjuntar estas capacidades, mediante su aplicación práctica,


a la comunidad científica reconoce que se le incorpora un nuevo miembro.

Por tanto, el talento de un científico se encuentra en el encadenamiento creativo de


dichas capacidades, en el que cada una de ellas requiere predominio de ciertas
habilidades y actitudes emprendidas durante el proceso de su formación.

El descubrimiento, por ejemplo, se destaca por encima de los demás por tener una
actitud imaginativa, pero eso no significa que no necesite secundariamente una
capacidad comunicadora para exponerlo de modo convincente, para que la comunidad
acepte que una parte de sus recursos se utilicen para probar esa conjetura. En la prueba
de hipótesis, es decir, la verificación, predomina el desempeño operacional, es decir, la
aptitud científica. Pero esa actitud podría utilizarse para otros fines sino mediara la
actitud crítica. En fin, que seria de la comunicación científica si solo fuera necesario el
dominio del lenguaje científico.

¿Qué es Investigación?

Investigación es un intento sistemático de proveer respuestas a las preguntas. Tales


respuestas pueden ser abstractas y generales como es a menudo en la investigación
básica, o ella puede ser altamente concreta y especifica y es a menudo el caso en
demostración o investigación aplicada. En ambas clases de investigación, el investigador
descubre hechos y luego formula una generalización basada en la interpretación de
aquellos hechos.

La investigación básica esta comprometida con la relación entre dos o más variables. Es
llevada a cabo por identificación del problema, examen de variables relevantes selectas
a través de la revisión de literatura, construyendo una hipótesis donde sea posible,
creando un diseño de investigación para investigar el problema, recolectando y
analizando datos apropiadamente, y sacando conclusiones acerca de las relaciones de
las variables.
7

La investigación básica a menudo no suministra inmediatamente una información útil. Su


propósito, más bien, es desarrollar un modelo, o teoría, que identifica todas las variables
relevantes en un medio ambiente particular e hipotetiza acerca de su relación. Luego,
empleando los hallazgos de la investigación básica, es posible desarrollar un producto, -
el producto aquí usado es, por ejemplo en investigación educativa, un currículo, un
programa de capacitación de un profesor, un texto o una ayuda audio visual.

Lo próximo es probar el producto, la competencia de la investigación aplicada, a menudo


llamada demostración. En efecto, la investigación aplicada es una prueba o ensayo que
incluye una evaluación sistemática.

La investigación científica también la podemos considerar como un proceso dialéctico,


lógico y coherente, de progresivo acercamiento del sujeto investigador al objeto del
conocimiento, para lo cual se requiere una adecuada formación intelectual, científica y
técnica y una planeación rigurosa. Investigar científicamente no es copiar o repetir los
que otros han hecho. Es transitar un camino teórico y practico, de análisis y síntesis,
que permite llegar a nuevos conocimientos en el marco de los conocimientos actuales y
presentes.

Comprender qué es la ciencia implica saber cual es el proceso de investigación científica


propia de un campo de conocimiento. Se requiere también entender que no es lo mismo
ciencia que investigación y que esta palabra tiene un especial significado cuando se
refiere a la investigación científica.

El empleo no siempre riguroso de la palabra investigación lleva a malos entendidos: se


confunde con la investigación científica una revisión o consulta bibliográfica, o un informe
escrito, o se equivale con ella la indagación empírica o búsqueda experimental; o se
reduce la investigación científica a las ciencias fácticas, dejando a un lado las ciencias
humanas y la filosofía.

La investigación pretende extender y desarrollar los conocimientos sobre un tema,


profundizar y precisar tesis acerca de un argumento científico, interrelacionar y sintetizar
el significado y el sentido de los fenómenos (naturales o sociales) mediante la
integración de teorías existentes para establecer principios y ofrecer soluciones para
encontrar los factores mas importantes en relación con un problema y en su caso, llevar
a la práctica los conocimientos adquiridos.

Lección 2. Otros Conceptos sobre investigación

Según Kerlinger: "La investigación científica es sistemática, controlada, empírica y


crítica, de proposiciones hipotéticas sobre las relaciones supuestas entre fenómenos
naturales: sistemática y controlada para tener confianza crítica en los resultados;
empírica, al depositar su confianza en una prueba ajena a él".
8

Afirma Rojas Soriano: "La investigación es una búsqueda de conocimientos ordenada,


coherente, de reflexión analítica y confrontación continua de los datos empíricos y el
pensamiento abstracto, a fin de explicar los fenómenos de la naturaleza".

El mismo autor explica: "Para descubrir las relaciones e interconexiones básicas a que
están sujetos los procesos y los objetos, es necesario el pensamiento abstracto, cuyo
producto (conceptos, hipótesis, leyes, teorías) debe ser sancionado por la experiencia y
la realidad concreta..."

Investigar supone aplicar la inteligencia a la exacta comprensión de la realidad objetiva,


a fin de dominarla. Sólo al captar la esencia de las cosas, al confrontarla con la realidad,
se cumple la labor del investigador. La consecuencia de tal proceso incrementará los
conocimientos científicos.

Lección 3. Finalidad de la Investigación Científica

Un científico se comporta como tal, cuando resuelve satisfactoriamente el contenido de


la investigación científica, es decir, la realiza y la verifica y felizmente la difunde a través
de los medios de comunicación socialmente aceptados por la comunidad científica. De
hecho, miles logran realizar este difícil viaje creativo y critico; sin embargo, no podemos
ignorar que dicho proceso con todo lo difícil y complejo que resulta, tiene por fuerza un
propósito que va mas allá del mero placer de realizar dicho proceso

El enorme esfuerzo individual y colectivo que han desplegado las capas científicas mas
críticas e imaginativas, por tratar de explicar los fenómenos más complejos y disímiles en
todas las disciplinas científicas, cuyos antecedentes modernos se remontan al siglo XVII,
fue lo que permitió consolidar y desarrollar un propósito histórico entre la comunidad
científica contemporánea y los problemas que desea enfrentar. Esta finalidad consiste en
que, retomando antecedentes de la antigüedad griega, la ciencia debe hacer
generalizaciones que puedan ser sometidas a pruebas bajo criterios universales. A nivel
personal, el investigador, frente a un problema científico tiene ante sí el reto de formular
la mejor y más amplia explicación posible. Con la conciencia de que posteriormente
deberá verificarla mediante pruebas de validez universal.

Si alcanzamos a comprender el desafío que significa para la inteligencia y sensibilidad


humana el descubrir, el crear una generalización valida de un problema significativo,
podremos entender porque algunos de los miembros más inteligentes del genero
humano han optado por dedicar su vida a la ciencia.

El científico, por consiguiente, hace un descubrimiento o una invención cuando es capaz


de formular una respuesta que al parecer contiene un alto grado de probabilidad de
responder satisfactoriamente al problema planteado originalmente.
9

La hipótesis, resulta tan relevante para la investigación científica que el astrónomo R. A.


Lyttleton señaló que: “No puede haber hechos ni testimonios dignos de confianza (en la
ciencia) mientras no haya hipótesis ni teorías que someter a prueba “. Esto se debe a
que las hipótesis formuladas adecuadamente, contienen los controles fundamentales
para permitir que el contenido de los resultados de la investigación puedan someterse a
una revisión crítica.

Por tanto, toda generalización, elucubración, idea, supuesto o conjetura que pretenda
explicar un problema de la ciencia empírica, sin importar lo improbable que parezca,
podría formar parte del conocimiento general de la ciencia, si por medio de un proceso
de observación, los hechos le dieran la razón.

De manera más estricta podría sugerirse que la hipótesis científica debiera contener “la
posibilidad de hacer una predicción verificable, privativa de la teoría y que no riña con los
demás datos disponibles”. En consecuencia, toda hipótesis tienen cierto grado de
probabilidad de ser verdadera, y toda teoría (producto de muchas investigaciones que
verifican las consecuencias de sus leyes), por más sólida que parezca, también es una
hipótesis, aunque con mas probabilidad de ser cierta.

En resumen, el trabajo fundamental de los científicos es producir nuevo conocimiento,


por medio de un complejo sistema llamado “investigación científica” mediante dicho
sistema, el científico busca nuevas o más amplias explicaciones de los procesos sujetos
a estudio. Sin embargo, para cumplir con esta finalidad es necesario que el científico o
grupo de científicos logre resolver los tres problemas, que son la esencia de este tema:
el descubrimiento, la verificación o el reconocimiento social del conocimiento y la
comunicación.

Por tanto, en el producir investigación científica se encuentra el entender cuáles son los
factores necesarios que incrementan las probabilidades de tener éxito en tal empresa.
Nuestra aproximación teórica nos señala que estos son tanto de índole social como
individual. El primer aspecto nos enseña que el iniciado debe respetar y practicar tres
acuerdos sociales: actitud critica hacia la ciencia, aptitud científica y capacidad de
comunicar sus hallazgos a la comunidad. El segundo, es la necesidad de que el
investigador asuma un compromiso autentico con la materia investigada, al que hemos
llamado compromiso existencial.

Si estos acuerdos sociales se combinan de manera acertada con el compromiso


existencial, entonces las posibilidades de encarar un problema, descubrir o inventar, se
elevan considerablemente.

Capítulo 2. Características del proceso de investigación

Lección 4. Propiedades del Proceso de Investigación


10

Como se verá posteriormente el método científico constituye la estrategia de la


investigación. En esta estrategia esta comprendido el conjunto de procedimientos que se
utilizan de manera regular para producir el conocimiento de los objetos. Investigar
significa indagar, averiguar, buscar; se constituye como una pesquisa de hechos. La
investigación científica es una actividad que se sigue de manera reflexiva, sistemática,
controlada y critica cuya finalidad es describir o interpretar los hechos, fenómenos,
relaciones y leyes de un determinado ámbito de la realidad. La investigación es la
actividad de indagación, el procedimiento para seguir el camino de esa búsqueda, es el
método; insistiendo: en una investigación se pone en practica el método científico propio
del respectivo campo de conocimiento.

Basado en las discusiones precedentes, es posible hacer un listado de propiedades que


caracterizan un proceso de investigación, al menos en su forma ideal.

1. Es Sistemático

La investigación científica tiene carácter sistemático adecuado a un fin. Se orienta a la


solución de problemas de conocimiento formulados conscientemente como un fin que ha
de ser alcanzado en el curso de una investigación planeada. A la comprensión,
búsqueda y solución de este problema, se subordinan todas las actividades o acciones
de conocimiento del científico o de los grupos de investigación.

Dado que la investigación es un proceso estructurado (esto es, hay reglas que cumplir),
esto hace que sea sistemático. Las reglas incluyen especificaciones en el procesamiento
para identificar y definir las variables o categorías, en el diseño de estudios en los cuales
éstas serán examinadas y sus efectos en otras determinadas, Los datos de este modo
recolectados aportan al estudio del problema e hipótesis originalmente planteados. ( hay
otros procesos para llegar a conclusiones, tales como la deducción que son igualmente
sistemáticos y procesos como conjeturación e intuición que siguen determinados
procesos para alcanzar la validez que caracteriza la investigación).

2. Es lógico

La investigación sigue un sistema que emplea la lógica en muchos puntos. Por el


examen lógico de los procedimientos empleados en un experimento relativo a los
requerimientos de validez interna, el investigador es capaz de chequear la validez de las
conclusiones obtenidas. Aplicando las diversas lógicas de los campos de conocimiento,
él o ella pueden también chequear generalizaciones en el contexto de la validez externa.
La lógica de la investigación la hace una herramienta invaluable para la toma de
decisiones.

3. Es empírico
11

La investigación tiene un referente real. Mucha deducción puede preceder su aplicación,


pero los datos son el resultado final de procedimientos de investigación. La recolección o
acopio de datos es lo que identifica la investigación como un proceso empírico. Para
determinar el grado en el cual los hallazgos empíricos pueden ser generalizados más
allá de la situación inmediata en la cual la investigación tomo lugar, el investigador debe
evaluar el referente de realidad de un emprendimiento particular en términos de su
validez externa. Otros procesos implicados en entender el mundo pueden semejar la
investigación en su lógica pero fallar en igualar su calidad empírica

4. Es reductivo

Cuando un investigador aplica procedimientos analíticos a los datos recolectados, él o


ella reducen de alguna manera, la confusión de eventos individuales y objetos a
categorías de conceptos más entendibles. Al hacer esto el investigador sacrifica parte de
la especificidad y unicidad asociadas con los objetos o eventos individuales, pero gana
en términos del poder identificar relaciones generales, un proceso el cual requiere algún
grado de conceptualizacion. Este proceso de reducción es parte del intento de traducir
la realidad a un estado abstracto o conceptual para entender las relaciones entre
eventos e intentar predecir como estas relaciones pueden operar en otros contextos. El
reducionismo, de este modo, facilita que la investigación juegue un papel explicativo en
vez de uno descriptivo.

5. Es replicable y transmisible

Debido a que es registrada, generalizada y replicada, conforme con los campos de


estudio, la investigación es considerablemente menos transitoria en naturaleza que lo
que son otros procesos de solución de problemas. Así, otros individuos además del
investigador pueden usar los resultados de un estudio, y un investigador puede construir
sobre los resultados de otro. Además, los procesos y procedimientos son ellos mismos
transmisibles, facilitando a otros replicarlos y estimar su validez. Esta propiedad de
transmisión de la investigación es crítica tanto en su papel en difundir el conocimiento
como su papel en la toma de decisiones.

En la actividad científica los elementos básicos del proceso del conocimiento, están
subordinados a la capacidad, manera de pensar y experiencia del investigador. De esta
manera él deberá disponer de estos elementos de un amanera lógica y creativa para
obtener nuevos o más completos conocimientos, en un proceso planeado según el
problema de investigación que se proponga resolver.

En la investigación científica, el proceso de conocimiento que se realiza presenta


algunas particularidades, dado especialmente el hecho que es un proceso consciente, en
el cual se ponen a intervenir herramientas metodológicas que el hombre ha ido
construyendo en el propio proceso de la construcción de la ciencia. Estas herramientas o
12

tareas que son esenciales para lograr el conocimiento científico no son solo de carácter
técnico o empírico; también lo son de tipo teórico y lógico.

La investigación científica esta constituida tanto por actores observables como por
razonamientos, sistemas, pasos intuitivos, representaciones figuradas, etc., no
susceptibles de observación directa. En esta forma de conocimiento, la actividad
cognoscitiva esta orientada a la diferenciación y estudio de los objetos y fenómenos
reales, convertidos en objeto del conocimiento.

Pero la investigación científica no concluye con la diferenciación de determinados


objetos o de sus características; lo que sucede corrientemente es que una vez resuelto
un problema de investigación, aparecen nuevos problemas que requieren ser
estudiados.

Esto explica por que hoy día la tendencia es a que las instituciones que soportan la
investigación científica trabajen sobre líneas de investigación y no sobre proyectos
aislados, esto es, sobre áreas o conjunto de problemas de investigación, que tienen una
misma tendencia de solución.

Lección 5. Medios Utilizados en la Investigación Científica

La investigación científica es un proceso creativo, plagado de dificultades imprevistas y


de asechanzas paradójicas, de prejuicios invisibles y de obstáculos de todo tipo. En el
proceso de la investigación científica los objetos del conocimiento se formulan como
problemas del conocimiento, los cuales generalmente se refieren a partes o aspectos del
objeto general de cada ciencia.

En la investigación científica por ejemplo, a diferencia del proceso empírico-espontáneo


del conocimiento, se utilizan medios especiales y de diferente clase como:

Medios Materiales: aparatos de medición, dispositivos, sensores, cámaras, procesadores


y equipos en general.

Medios Teóricos: métodos de cálculo, métodos de análisis, axiomas, teorías.

Medios Lingüísticos: lenguajes artificiales y símbolos.

Medios Lógicos: reglas lógicas, reglas para la construcción de definiciones, reglas de


demostración y reglas para proponer generalizaciones

Los medios del conocimiento científico se van desarrollando en la medida en que la


ciencia avanza. De igual modo hay áreas del conocimiento científico cuyos medios de
conocimiento tienen mayor grado de sofisticación.

.
13

Lección 6. La línea de Investigación

Concebida la investigación científica como el proceso mediante el cual un sujeto (el


investigador) se encamina hacia los hechos para obtener respecto a ellos un
conocimiento científico, es decir, de cierta naturaleza y características, será preciso
ahora paliar los lineamientos generales de dicha actividad para poder luego
encaminarnos hacia un conocimiento más particular.

La labor investigadora, como proceso encaminado a la obtención de conocimientos


científicos, deberá contemplar en su desarrollo los problemas tratados precedentemente.
Es decir, no ser otra cosa que el desenvolvimiento concreto del acercamiento del sujeto
hacia el objeto que se desea conocer, por un lado, o la confrontación de la teoría
elaborada con la práctica correspondiente para crear a su vez nueva teoría, por el otro.

La investigación científica esta constituida tanto por actores observables como por
razonamientos, sistemas, pasos intuitivos, representaciones figuradas, etc., no
susceptibles de observación directa1. En esta forma de conocimiento, la actividad
cognoscitiva esta orientada a la diferenciación y estudio de los objetos y fenómenos
reales, convertidos en objeto del conocimiento.

Pero la investigación científica no concluye con la diferenciación de determinados


objetos o de sus características; lo que sucede corrientemente es que una vez resuelto
un problema de investigación, aparecen nuevos problemas que requieren ser
estudiados.

Esto explica por que hoy día la tendencia es a que las instituciones que soportan la
investigación científica trabajen sobre líneas de investigación y no sobre proyectos
aislados, esto es, sobre áreas o conjunto de problemas de investigación, con una
misma tendencia de solución.

Capitulo 3. Elementos básicos de la Investigación

Lección 7. El Diseño

Al referirnos al diseño metodológico de una investigación, se explicó que estaba formado


por un diseño básico y un conjunto de procedimientos y técnicas especificas
consideradas como adecuadas para la recolección y el análisis de la información
requerida por los objetivos del estudio.

Básicamente hay dos tipos de diseño de investigación: el diseño experimental y el no


experimental. Esta distinción se hace en base al control que el investigador puede
ejercer sobre los diferentes aspectos y variables que componen el estudio (grupos
14

experimentales y grupos de control) y en el ambiente en el cual se realizarán las


observaciones y la medición de las variables dependientes e independientes. En los
diseños no experimentales esos controles no están en manos del investigador.

Los diseños experimentales son especialmente apropiados para estudios explicativos y


comparativos. En el primer caso es posible relacionar un efecto a una causa producida
experimentalmente (variables independientes); en los estudios comparativos, es posible
establecer cual o cuales variables de un conjunto de variables independientes o factores
causales tienen mayores o diferentes efectos en cierto fenómeno.

Los diseños experimentales se distinguen de los cuasi experimentales (Campbell y


Stanley, 1973) porque en los últimos el investigador controla solo parte de la situación y
de las variables experimentales. este control parcial tiene diversos efectos en la validez
externa del estudio (capacidad de asignar las variaciones observadas al as variaciones
de las variables independientes) y su validez externa (capacidad de generalizar los
resultados obtenidos).

+ Los diseños no experimentales – a los cuales pertenecen las encuestas, los estudios
históricos, etc. – son especialmente apropiados para investigaciones descriptivas y
relacionales, es decir, investigaciones en las cuales se desea establecer las
correlaciones y asociaciones que pueden haber entre diversas variables. Sin perjuicio
de estos usos, es posible acercarse con estos diseños a explicaciones de tipo causal,
mediante los llamados modelos causales.

En relación con el tiempo, se definen dos tipos de diseños: los seccionales y los
longitudinales. Los primeros estudian los fenómenos en un momento del tiempo (por
ejemplo, una encuesta realizada en determinada fecha); los diseños longitudinales lo
hacen en un cierto periodo, con el fin de examinar sus variaciones en el tiempo. A este
tipo pertenecen los estudios de paneles, es decir, conjuntos de las mismas perdonas
estudiados en dos o más oportunidades, así como los estudios de cohorte o de grupos
de personas que tienen una o más características comunes, los estudios de tendencias
en grupos o diferentes muestras de personas, etcétera
15

I
Lección 8. Principales tipos de información en investigación
Definiciones

La información primaria .Es aquella que el investigador recoge directamente a través


de un contacto inmediato con su objeto de análisis. Esta muy relacionada con las
técnicas de investigación cuantitativa y cualitativa

Sucede con frecuencia, tanto en la investigación de las ciencias naturales, como en la


investigación social, que se recoge todo un conjunto de datos y solamente más tarde
estos se someten a un análisis cuidadoso o a un comentario interpretativo. Por ejemplo,
en la investigación clínica o médica, las observaciones que tienen el carácter de historias
de casos, han sido recolectadas durante largo tiempo y sólo posteriormente el médico, el
especialista o el investigador clínico, las analizan y las interpretan.

También puede suceder que un economista desee investigar el problema de desempleo


en Colombia durante los últimos 10 años.

Para ganar tiempo y ahorrar dinero, el economista decide examinar los datos de
desempleo que durante esa década recolectó el DANE a través de sus encuestas sobre
empleo y desempleo. Y en base a esos datos recogidos de antemano, hace su propia
investigación.

(Malagón, R 1985) en su trabajo de grado titulado " Parámetros fisiológicos el cual fue
meritorio, en base a los registros productivos de un hato brahman del fondo ganadero de
Antioquia

Lo característico de estos tres procedimientos investigativos ha sido, que las


observaciones, la información, los datos o las estadísticas, fueron recolectados
previamente con otros propósitos. Los tres investigadores: el clínico, el economista y el
zootecnista pusieron en claro su problema de investigación, plantearon sus hipótesis o
introdujeron sus interpretaciones después de que la información había sido recogida de
antemano y con otros fines.

Quizá la idea quede mucho más clara planteándola de la siguiente forma:

Supongamos que se le plantea al clínico una investigación sobre las causas de la


diabetes en la población joven de 20 a 30 años. El clínico, en vez de examinar las hojas
médicas de los pacientes que han ido al hospital donde trabaja, decide hacer una serie
de entrevistas a un conjunto de pacientes que sufren de esa enfermedad. Es decir,
16

plantea una hipótesis y luego, a través de la serie de entrevistas a los enfermos, recoge
la información indispensable para probar dicha hipótesis. A través de contacto directo
con los pacientes y por información proporcionada directamente por ellos comprueba su
hipótesis.

En el caso del economista, en vez de examinar los datos proporcionados por las
encuestas del DANE sobre el desempleo en Colombia, él decide diseñar su propia
encuesta, escoge un conjunto de desempleados de varias ciudades del país y les aplica
directamente su encuesta sobre el desempleo.

Finalmente, en el caso del zootecnista en vez de proceder a analizar los registros


productivos y reproductivos del hato brahmán, escoge determinado número de animales
de dicho hato y les hace seguimiento por determinado tiempo para obtener la
información directa sobre los parámetros productivos y reproductivos.

Ahora ya estamos en condiciones más o menos favorables para hacer una distinción
fundamental: en los tres casos iniciales, donde existía la información de antemano y se
formularon después las hipótesis, tenemos el caso conocido como análisis secundario o
investigación basada en INFORMACIÓN SECUNDARIA. en las últimas tres
investigaciones estamos ante situaciones exactamente contrarias: los investigadores
plantearon inicialmente su problema o su hipótesis, en relación con un resultado
desconocido y luego procedieron, mediante algunas técnicas como la entrevista, la
encuesta, o el experimento a construir los datos o las observaciones para probar dichas
hipótesis. Este procedimiento se denomina ANALISIS PRIMARIO o investigación basada
en INFORMACION PRIMARIA.
Esta distinción entre información primaria e información secundaria y las técnicas
respectivas que hay que elegir para utilizar uno u otro tipo de información se explicara a
continuación.

Podemos intentar establecer una definición de lo que es información primaria y lo que es


información secundaria.

Información primaria, es aquella que el investigador recoge o genera directamente a


través de un contacto inmediato con su objeto de análisis.

Esta lección proporciona un conjunto de elementos teórico prácticos, que permiten saber
al investigador cuándo necesita utilizar información recogida por él mismo o recogida por
otros investigadores, información primaria o información secundaria; cuándo debe
construir su propio instrumento o técnica de recolección de información o cuándo no
necesita hacerlo; en fin, cuándo su hipótesis exige alto grado de confirmación o cuándo
es conveniente apenas un bajo nivel probatorio.

En el siguiente cuadro se presentan las diferencias principales entre estos dos tipos de
información, quizá se vea con claridad como esa distinción es más profunda en lo que se
cree y tiene consecuencias muy importantes sobre el alcance y validez de una
17

investigación.

INFORMACION PRIMARIA INFORMACION SECUNDARIA


SE OBTIENE mediante el contacto SE OBTIENE a través de un contacto
directo con el objeto de estudio(personas, puramente indirecto, nunca personal, con
fenómenos físicos) los objetos de estudio.
LA HIPOTESIS se infiere primero en
relación con un resultado desconocido o LA HIPOTESIS se plantea en relación con
virtualmente desconocido de las observaciones ya conocidas previamente.
observaciones
LA INFORMACION es prácticamente
LA INFORMACION ya existe de antemano;
inexistente; el investigador debe
ha sido construida o recolectada por otros.
construirla por sí mismo.
EL INVESTIGADOR diseña sus propios EL INVESTIGADOR utiliza información
instrumentos de recolección de recolectada por técnicas o instrumentos
información. diseñados por otros investigadores.
Alto NIVEL PROBATORIO o alto valor de
Bajo GRADO PROBATORIO que
confirmación, que conduce a una
permanece en el nivel de lo admisible.
evidencia que se impone.
SE PUEDE MEDIR cualquier variable en NO SE PUEDEN MEDIR las variables
forma muy refinada. refinadamente.

De acuerdo con las diferencias anteriores, existen técnicas respectivas para hallar o
construir la información primaria o la información secundaria

Técnicas para acopiar Información Primaria y sus Características

Los instrumentos para recabar información son, aparte de las técnicas de investigación
documental (fichas bibliográficas y fichas de trabajo), la encuesta, el cuestionario, la
entrevista, los tests y las escalas de actitudes. Todas estas técnicas sirven para medir
las variables y deben reunir las siguientes características:

1. Validez. Se refiere a que la calificación o resultado obtenido mediante la aplicación


del instrumento, mida lo que realmente se desea medir. La validez de contenido
puede definirse como que el instrumento mida todos los factores de la variable que
se esta estudiando. Para establecer los parámetros de la validez de contenido, es
necesario:

a) Definir operativa y teóricamente las variables que se van a medir.

b) Plantear todas las formas que esta variable se puede presentar para establecer los
indicadores más adecuados; para ello se requiere de una extensa revisión bibliográfica y
de la consulta con especialistas de la materia.
18

c) Efectuar una prueba piloto que contribuya a mejorar la validez del instrumento.

La validez de predicción se relaciona con la eficacia que tiene la técnica para predecir el
comportamiento de los fenómenos ante determinadas circunstancias. Se puede verificar
comparando el resultado obtenido a través de la aplicación del instrumento, con los
resultados en la práctica y con otro criterio diferente, por ejemplo: sí a través del
instrumento, con los resultados en la práctica y con otro criterio diferente, por ejemplo: si
a través del instrumento se predice la productividad de determinado grupo, es
conveniente comparar el estándar obtenido en la prueba con los resultados obtenidos
en el desempeño del trabajo normalmente.

2. Confiabilidad. Se refiere a la estabilidad, consistencia y exactitud de los resultados, es


decir, que los resultados obtenidos por el instrumento sean similares si se vuelven a
aplicar sobre las mismas muestras en igualdad de condiciones.

Técnicas para Acopiar Técnicas para obtener Información


Información Primaria Información Secundaria.
*La observación - Información residual
*La entrevista - Análisis de Documentos
*La Encuesta - Análisis de Registros
*El experimento
*Muestreos.

La Información Secundaria

Es aquella que el investigador recoge a partir de investigaciones hechas por otros


investigadores con propósitos diferentes. La información secundaria existe antes de que
el investigador plantee su hipótesis, y, por lo general, nunca entra en contacto directo
con el objeto de estudio. Veamos ahora un ejemplo de información secundaria.
Tomemos la obra de Emilio Durkheim, “El suicidio”.

Durkheim hizo una investigación sobre el suicidio en la década 1890-1900, época en que
los métodos y técnicas estadísticos todavía no se habían desarrollado. Los datos que
Durkheim tuvo a su disposición fueron historia de suicidios, cuyo análisis estadístico le
permitió, a veces, examinar variaciones en las tasas de suicidios (tasa de suicidios:
medida estadística que indica el numero de suicidios por cada 100.000 personas de una
población dada).Según diversos subgrupos, como, por ejemplo, la región, la
nacionalidad, el sexo, la religión, etc.. Examinando las distintas fuentes de
documentación citadas al comienzo, esta autor francés no tuvo oportunidad de medir sus
variables en forma refinada: con frecuencia las historias de suicidios eran tales que
Durkheim no pudo encontrar ninguna serie estadística para una cantidad de subgrupos
especiales, que se asemejen entre si desde muchos puntos de vista. La índole misma de
19

la investigación acrecentó el peligro de errores en la medición o en la recolección de la


información.

Por ejemplo, uno de los problemas que Durkheim investigó fue la relación entre el estado
civil y la tendencia al suicidio, a partir de la hipótesis de que la soltería aumentaba dicha
tendencia. Para probar esta hipótesis, traro de comparar las persona solteras de 25 a 30
años con las casadas y las viudas de la misma edad, procediendo después en forma
análoga con otros rangos de edad. Lamentablemente, las estadísticas oficiales no
contenían los datos necesarios para efectuar esta comparación, puesto que señalaban la
edad de los suicidios independientemente de su estado civil. En algunas regiones de
Austria las publicaciones oficiales si mostraban, para los años 1871 a 1855, la
distribución de los suicidios por edad para cada categoría de estado civil (soltero,
casado, viudo) considerada separadamente. Pero en estas regiones austriacas solo
hubo 1369 suicidios durantes esos quince años, lo que impedía extraer ninguna
conclusión seria con tan pocos casos.

Antes tales dificultades por la información secundaria de otros países, Durkheim se puso
a recolectar datos para determinar la situación en Francia, con ayuda de documentos
inéditos del Ministerio de Justicia. Después de estudiar los años 1889, 1890 y 1891,
clasifico unos 25.000 suicidios. Loa problemas en la utilización de fuentes secundarias
no terminaron del todo. La tarea de reunir todos esos datos, emprendida por un solo
individuo fue considerable, comparada con la que podían adelantar las oficinas oficiales
de estadística. Solo que esta ultima proporcionaba mucha información carente de valor,
omitiendo la que indicaba cual era el estado de la vida familiar entre los suicidios.

Esta fue, pues, una típica investigación basada en información de tipo secundario.

Lección 9. El papel de los métodos y técnicas en la investigación

En su acepción mas general, el método es la estrategia que guía el proceso de


investigación con el fin de lograr ciertos resultados; específicamente, aquellos definidos
en los objetos de estudio. Esta estrategia, en su planteamiento y desarrollo, incluye la
experiencia practica, técnica y teórica del investigador, guiadas a su vez por las grandes
funciones intelectuales del análisis, la síntesis, la inducción y la deducción. En este
sentido, por medio del método se eligen alternativas de solución para los diferentes
problemas que aparecen en el camino de la creación de conocimientos y se aplican
normas y criterios para aceptar ciertos hechos, compararlos, describirlos, explicarlos o
rechazarlos. Todo proceso esta movilizado, y en ultima instancia conformado, por la
aplicación constante de la duda sistemática.

Si cada ciencia particular, como sabemos, se dirige a un cierto aspecto o nivel de la


realidad dentro de la cual cada investigador plantea sus propios objetivos de
20

indagación, es natural en el trabajo concreto, en el proceso mismo de investigación, que


esa estrategia general (el método) tome características propias de acuerdo con las
preguntas que se formulan, las alternativas elegidas, los procedimientos específicos
aplicados, etc. Sin embargo, el método así especificado, es siempre una especie dentro
de un género que tiene, como lo señalaremos, estrictos criterios para su caracterización
esencial.
Con respecto a las zonas de la realidad –y, agregamos nosotros, a las características
particulares que toman las estrategias de investigación en cada una de ellas-, afirma un
filósofo de las ciencias:
En una hipótesis ontológica contenida en ( y apoyada por) la ciencia moderna de que la
realidad, tal como la conocemos hoy, no es un sólido bloque homogéneo, sino se divide
en varios niveles o sectores, caracterizados cada uno de ellos por un conjunto de
propiedades y leyes propias. Los principales niveles reconocidos hasta el momento
parecen ser el físico, el biológico, el psicológico, y el socio-cultural. Cada uno de ellos
puede, a su vez, dividirse en subniveles. Por ejemplo, los subniveles principales del
nivel físico son el físico propiamente dicho y el químico, y los principales subniveles del
nivel socio cultural, son el económico, el social propiamente dicho y el cultural (Bunge,
1959).
Un conocimiento es científico según Bunge, cuando corresponde a las características
de la vialidad del objeto de estudio. Para el caso de la objetividad del conocimiento
supone, por tanto, que pueda ser verificado, es decir, que pueda ser confirmado o
refutado por otros investigadores. Por otro lado, el conocimiento científico es
sistemático, formado por un conjunto de conceptos lógicamente relacionados entre sí,
condición que permite explicar los hechos mediante causas o leyes. De igual manera,
en cuanto al conocimiento legal, el conocimiento científico es predictivo.
Como concepto general, el método es el mismo en todas las ciencias en cuanto se
refiere a medios para lograr fines. Como lo expresa Bunge (1959):
No hay diferencia de estrategia entre las ciencias; las ciencias especiales difieren solo
en las tácticas que usan para la resolución de sus problemas particulares, pero todas
comparten el método científico. Esto, mas que ser una comprobación empírica, se sigue
de la siguiente definición: una ciencias es una disciplina que utiliza el método científico
con la finalidad de hallar estructuras generales (leyes).
La afirmación “comparten el método científico” debe entenderse en el sentido expresado
anteriormente: porque utilizan estrategias que pueden conducir a conocimientos
científicos con las características básicas señaladas. Esto no quiere decir que exista una
única estrategia que sería el método científico. Como la realidad esta en constante
cambio, también las teorías que se refieren a ella se modifican continuamente, y a su
vez, como la indagación de nuevas características de los objetos se basa en el
conocimiento ya acumulado y sistematizado, es obvio que la estrategia de indagación, el
método, no puede ser siempre el mismo para todos los campos de conocimiento. En el
nivel mas general, los conceptos, las categorías y las leyes de una ciencia
21

desempeñan, sin solución de continuidad, sus principios metodológicos básicos


aplicados a la investigación. Al respecto, (Zeleny,1974) afirma:
Hemos visto que Marx vincula su método: 1. a la materia investigada. 2. Al estadio de
desarrollo de la ciencia que se trata, esto es, de la investigación científica del material
dado. 3. Al estado evolutivo del objeto estudiado mismo.

Einstein supone que la comprensión se alcanza cuando reducimos los fenómenos por
medio de un proceso lógico a algo ya conocido o evidente.
La conceptualización de la palabra "investigación" es una de las más difíciles, y por la
enorme variedad de actividades que se pueden entender por investigación no es fácil de
definir este concepto, asti Vera (1989) lo expresa de la siguiente manera: "El empleo no
siempre riguroso de la palabra investigación ha inducido a algunas identificaciones
abusivas: a) la investigación equivale a la indagación empírica. Quienes así piensan,
olvidan que no sólo se puede investigar en el terreno de las ciencias positivas, hay una
investigación también humanística.

Del método definido anteriormente se distinguen, en un plano mas concreto, los


procedimientos que tienen características formales similares en ciencias diferentes,
como los que constituyen el método experimental, el método comparativo, el método
estadístico, etc. Estos procedimientos, junto con otros de carácter operativo utilizados en
distintos campos científicos, reciben también el nombre de métodos generales.
Por otro lado, en cada ciencia se establecen procedimientos específicos para el
tratamiento de algunos aspectos de la materia de investigación, procedimientos que por
lo general no pueden trasladarse, a otros campos. Así, por ejemplo, las operaciones
que efectúa un arqueólogo para determinar la fecha de una pieza, difícilmente se
utilizan fuera de su disciplina. Otros procedimientos, a su vez, se aplican a tareas muy
limitadas dentro del proceso total de la investigación, como es el caso de recoger
informaciones mediante preguntas, seleccionar muestras de un contexto, etc. Tales
procedimientos específicos reciben el nombre de técnicas de investigación y actúan en
apoyo de un método mas general en el intento de lograr conocimientos objetivos
verificables
También se pueden considerar técnicas aquellos procedimientos específicos utilizados
por una ciencia determinada, en el cuadro de las investigaciones propias de esta ciencia.
De esta manera, hay técnicas asociadas al uso de ciertos tests en laboratorio, a la
consecución, de opiniones de masa, a la recolección de datos estadísticos; hay técnicas
para conducir una entrevista, para determinar la edad en función del carbono, para
descifrar inscripciones reconocidas, etc.

Las técnicas en una ciencia son los medios correctos de ejecutar las operaciones de
interés en tal ciencia. El entrenamiento científico reside, en gran parte, en el dominio de
estas técnicas. Ocurre sin embargo, que ciertas técnicas son utilizadas por algunas
ciencias o por todas ellas.
22

La metodología es parte del análisis y la crítica de los métodos de investigación. Es


decir, debe considerarse como el estudio del método que ofrece una mejor
comprensión de ciertos caminos que han probado su utilidad en la práctica de la
investigación, con objeto de evitar los obstáculos que entorpezcan el trabajo científico.

Por una parte, la metodología es el enlace entre el sujeto y el objeto de la investigación.


Sin ella no se logra el camino lógico para llegar al conocimiento. Por otra parte, en la
relación sujeto-objeto de la investigación, no solo debe tomarse en cuenta la importancia
del uso del método -o los métodos- como el camino que nos acerca al conocimiento, sino
también es necesario considerar el papel que asume el investigador para evitar sesgos
en su labor. (Pardinas, explica las influencias socioculturales que debe evitar el sujeto
(investigador) en el proceso de investigación). Dichas influencias son: etnocentrismo,
subjetividad, autoritarismo, dogmatismo, impresionismo, estereotipos y especialismo
(véase figura 2)
23

ETNOCENTRISMO
Tendencia a erigir valores y
Costumbres del grupo en que
se ha nacido y educado
SUBJETIVIDAD
Tendencia a juzgar los
hechos observados y las
situaciones con base en

AUTORITARISMO
Tendencia a aceptar como
verdadera una afirmación
dicha por otra persona; sin
que este apoyada en
razones, experimentos o
investigaciones aprobadas

Influencias DOGMATISMO
Socioculturales Tendencia a erigir formulas
En el al margen del estudio, de la
investigador critica y de la discusión

IMPRESIONISMO
Tendencia a confundir
experiencias transitorias
con verdades
comprobadas.

ESTEREOTIPOS
Tendencia a aceptar
imágenes no comprobadas
que le forman al individuo
desde la infancia

ESPECIALISMO
Tendencia a devaluar
cualquier conocimiento que
no se encuentre dentro del
area de nuestra especialidad

Fig. 1. Influencias socioculturales que debe evitar el sujeto en el proceso de la


investigación. Tomado de (Zorrilla y torres, 1992)
24

UNIDAD II .INSTRUMENTOS Y TECNICAS DE INVESTIGACION CUANTITATIVA

CAPÍTULO 4. LA OBSERVACION Y LA ENTREVISTA

Podría definirse como el conjunto de procedimientos y recursos de que se vale la


ciencia para conseguir su fin. Sin embargo "El nivel del método o de los métodos no
tienen nada en común con el de las técnicas, entendiéndose, las técnicas como
procedimientos operativos rigurosos. Bien definidos, transmisibles y susceptibles de ser
aplicados repetidas veces en las mismas condiciones
Lección 10. Usos y Características de la observación
Se utiliza para recolectar los datos necesarios para un estudio. La observación es un
método clásico de investigación científica; además, es la manera básica por medio de la
cual obtenemos información acerca del mundo que nos rodea.
A todos nos consta que estamos permanentemente observando en el diario transcurrir
de la vida cotidiana. Este hecho ha llevado a la creencia común de que no es necesario
un aprendizaje especial para hacer una observación científica, es decir, que no existe
propiamente una gran diferencia entre observación cotidiana y observación de carácter
científico. La observación cotidiana puede, en ciertas circunstancias, ser la base de la
observación científica. Pero existen diferencias esenciales entre una y otra.
Principios básicos para realizar una observación:
1. Debe tener un propósito específico.
2. Debe ser planeada cuidadosa y sistemáticamente.
3. Debe llevarse, por escrito, un control cuidadoso de la misma.
4. Debe especificarse su duración y frecuencia.
5. Debe seguir los principios básicos de confiabilidad y validez.

Entre las ventajas de la observación, tenemos que determinada conducta se describe


en el momento exacto en que está ocurriendo. Además, las observaciones se pueden
realizar independientemente de que las personas estén dispuestas a cooperar o no, a
diferencia de otros métodos en los que sí necesitamos de la cooperación de las
personas para obtener la información deseada.

En contraposición, también existen algunas desventajas, tales como la dificultad para


observar un comportamiento específico en el momento de efectuar la observación.
25

Además, las conductas que se encuentran sujetas a observación, generalmente son


limitadas. es difícil poder observar la interacción familiar, por ejemplo, al acostarse o
levantarse.

La observación, debido a su utilidad, es un método que se puede utilizar, junto con


otros, para recabar información. Por ejemplo, se puede emplear la observación en un
estudio exploratorio, y para el estudio final se pueden usar otros métodos tales como
cuestionarios, entrevistas, etc.
Pasos Que Debe Tener La Observación
a. Determinar el objeto, situación, caso, etc. (que se va a observar)
b. Determinar los objetivos de la observación (para qué se va a observar)
c. Determinar la forma con que se van a registrar los datos
d. Observar cuidadosa y críticamente
e. Registrar los datos observados
f. Analizar e interpretar los datos
g. Elaborar conclusiones
h. Elaborar el informe de observación (este paso puede omitirse si en la
investigación se emplean también otras técnicas, en cuyo caso el informe incluye
los resultados obtenidos en todo el proceso investigativo)

Escenarios de la observación
· Público: Cualquier realidad social en donde cualquier persona pueda estar (nos
encontraríamos el problema de la permanencia).
· Privado: El problema es el acceso. Para conseguir el acceso y la permanencia se
necesita un disfraz (Ej.: para analizar un sindicato te afilias). Como ventaja que con el
disfraz te olvidas del problema del acceso, desventaja se pierde privaticidad, si se
enteran que vas disfrazado no confiaran en ti.
Con el acceso privado hay que respetar la privacidad, pero no decirlo todo y así poder
hacer lo que se quiera con la información. Antes de acceder hay que tener a alguien
que nos involucre en el ambiente y dependiendo de ese portero te aceptaran o no. Los
grupos poseen 2 estructuras distintas:
• Estructura formal: Liderazgos, personas influyentes, etc.
• Estructura informal: En el papel mandan, pero en la realidad no
26

Escenario (1ª etapa). La observación participante es larga en el tiempo, por lo que la 1ª


etapa de la observación es para situarnos en el escenario, pero no se deben recoger
datos muy rápidamente. Para situarnos en el lugar
• Conocer físicamente el terreno.
• Conocer los tiempos (actividad local).
• Conocer los lenguajes.
• Tienes que ser aceptado (negociar tu propio rol) como investigador.
• Conectar es lo más importante, ya que de ello depende todo lo demás. Se puede
conectar de la siguiente manera:
· Reverenciar sus rutinas y no imponer ni tu lenguaje, ni tus tiempos, etc.
· Establecer lo que se tiene en común con la gente.
· Ayudar a la gente, colaborar no ser una carga.
· Ser humilde, no ir de sabelotodo, y no hacer uso de la información que te dan.
· Mostrar interés.
Escenario (2ª etapa). Al llevar ya bastante tiempo se pasa a la recogida de
información. Es importante saber de antemano lo que queremos observar (prever) para
ello se utiliza la plantilla de observación. En ella seleccionamos una variable y sus
distintas cuestiones.

La ciencia nace y culmina con la observación. Esta técnica es la más primitiva y la más
actual en el proceso de conocimiento. La observación incluye desde los procedimientos
informales, como la observación casual, hasta los más sistematizados, como son los
experimentos de laboratorio.

En su acepción más general, observar significa mirar con detenimiento; es la forma más
usual con la que se obtiene información acerca del mundo circundante.

Requisitos para que la observación sea considerada científica:

Tener objetivos específicos.


Proyectarse hacia un plan definido y un esquema de trabajo.
Sujetarse a verificación.
Controlarse sistemáticamente.
Reunir requisitos de validez y confiabilidad.
Los resultados de la observación deben plasmarse por escrito, preferentemente en el
momento que están transcurriendo.
27

Durante el proceso de investigación la observación se utiliza desde el planteamiento del


problema hasta la preparación del informe.

La mayoría de los estudios van precedidos de una observación no regulada del


problema, y conforme se avanza en ellos, se usan técnicas de investigación más
precisas.

Lección 11 . Tipos de Observación

Observar forma parte de la realidad que se investiga:


Seleccionamos un escenario (realidad que se quiere investigar), en donde haya una
interacción entre personas.

De acuerdo con los medios utilizados, con el grado de participación del observador, el
lugar donde se realiza y con los observadores, la observación se puede clasificar en
diferentes tipos que se presentan a continuación

A. Observación No participante: (investigaciones clínicas) Es casi imposible a no ser


que hagamos observación participante con un disfraz.
B. Observación Participante: Se la considera como una técnica antropológica y no
sociológica, además es una técnica muy descriptiva, por lo que se utiliza muy poco.

C. Observación Documental

Como su nombre lo indica, se refiere a la investigación bibliográfica realizada en diversos


tipos de escritos, tales como libros, documentos académicos, actas o informes, revistas,
documentos personales (biografías, diarios, cartas, manuales, casos, y archivos), etc.

El procedimiento para realizar la observación documental parte inicialmente de la


revisión bibliográfica; después se integra el fichero bibliográfico, en donde se organiza
toda la bibliografía y documentación. Cuando se han agotado las probabilidades de
conseguir más bibliografía y documentación sobre el tema, se procede a elaborar las
fichas de trabajo para reunir todos los conocimientos teóricos que darán fundamento a la
investigación. Esta etapa es especialmente ardua, por lo que se aconseja realizar
lecturas selectivas de las fuentes, anotando en las tarjetas de trabajo sólo aquellos datos
que se necesiten. Una vez que las fichas se han elaborado con el cuidado y
procedimiento necesarios, se organiza el fichero de trabajo por temas(en orden
alfabético o decimal) y se revisan y analizan todas las fichas para ordenarlas y estar en
posibilidad de estructurar el índice detallado del trabajo, además de verificar si es que no
existen lagunas en cuanto a ciertos temas.
28

La última etapa consiste en complementar las fichas documentales con las de campo y
de laboratorio, para que cuando esté perfectamente recopilado el material, se proceda a
iniciar la redacción del informe de resultados.

Esta observación es básica para construir el marco teórico de la investigación y es la


más utilizada en todo tipo de disciplinas. Implica que las fuentes de información se
utilicen adecuadamente. Para asegurar la imparcialidad en la investigación es necesario:

Acudir a las fuentes primarias.


Utilizar los clásicos de la especialidad de que se trate, tanto antiguos como modernos.
Seleccionar la mejor literatura disponible para plantear el estudio.
No solo recopilar y acumular información, sino valorarla, analizarla y hacer aportaciones
personales.
La calidad de la investigación no se mide por su cantidad, sino por su contenido.
La información deberá referirse al problema y ser actualizada y sistematizada.

D. Observación Monumental

Este tipo de observación es básicamente utilizada en ciencias como la antropología, la


historia, la sociología y la historia del arte. Como su nombre lo indica, consiste en el
estudio de las manifestaciones artísticas y culturales en los monumentos.

E. Observación de campo y de laboratorio

La observación de campo es el recurso principal de la observación descriptiva; se realiza


en los lugares donde ocurren los hechos o fenómenos investigados. La investigación
social y la educativa recurren en gran medida a esta modalidad.
La observación de laboratorio se entiende de dos maneras: por un lado, es la que se
realiza en lugares pre-establecidos para el efecto tales como los museos, archivos,
bibliotecas y, naturalmente los laboratorios; por otro lado, también es investigación de
laboratorio la que se realiza con grupos humanos previamente determinados, para
observar sus comportamientos y actitudes.

Es también la que se realiza en el lugar donde se da el fenómeno observado, por


ejemplo: sise desea estudiar la comunicación informal de un grupo de trabajadores del
campo, el investigador acude al lugar de trabajo y observa su conducta durante algún
tiempo; tiene la gran ventaja de que el fenómeno se describe tal y como sucede en la
realidad.

El realizar la observación de campo requiere contar con una guía de información para
recolectar los datos y para investigar los indicadores y relaciones entre las variables. En
el registro de las observaciones se utiliza un diario de campo y cámaras fotográficas o de
cine, para complementar con material audiovisual la investigación. Después se
transcriben las observaciones a las fichas de campo. Es importante que las anotaciones
29

se realicen en el momento de la observación o poco tiempo después de realizada ésta.


Las observaciones deben ser revisadas y también deben ser lo más objetivas posibles,
cerciorándose de que las fichas se han elaborado con cuidado y precisión.

De ser posible, es conveniente que dos o más investigadores realicen la observación y la


registren, a fin de depurar y controlar la información. Por otra parte, el investigador debe
recordar que la conducta del hombre puede ser modificada por condiciones externas y
que debe tratar de ser lo más objetivo posible.

F. Observación experimental o de laboratorio

En este tipo de observación, el investigador manipula ciertas variables para observar sus
efectos en el fenómeno estudiado. Cuando los recursos lo permiten, el experimento
consiste en reunir a un grupo humano y provocar una situación al introducir determinada
variable, y con un grupo de observadores, medir las consecuencias.

En algunas ocasiones se utiliza el experimento de control, que consiste en la selección


de dos muestras aleatorias. Al grupo experimental se le aplica la variable; de esta
manera se tiene la posibilidad de comparar los resultados obtenidos en ambos grupos.

Existen dificultades para llevar a cabo este tipo de observación; uno de ellos es el costo,
otro, lograr uniformidad en las características de la muestra de control y de la
experimental. Por otra parte, es posible que aparezcan variables extrañas que no
puedan ser controladas por el investigador y que influyan en los resultados.

La realización de un experimento, sobre todo con grupos humanos, es bastante difícil y


costosa.

G. Observación Dirigida o estructurada y Observación no dirigida

Esta observación es sistemática y orientada hacia un objeto preciso. Esta supone haber
hecho anteriormente una elección. Esta elección determina a la vez lo que deber o no
seleccionar (o renunciar) en este tipo de observación.

Estos dos tipos de observación no se excluyen. Pueden ser complementarios. Sin


embargo toda observación no dirigida es incompleta en su proceso y debe estar
necesariamente acompañada de una observación dirigida.

Uno extrae a menudo los elementos siguientes:


. Observaciones no pertinentes: hechos extraídos que no tienen ninguna incidencia, por
ejemplo en el estado del enfermo.
. Observaciones no sistemáticas: prioridades no respetadas, valoración de los detalles
no significativos, etc.
30

. Imprecisiones: utilización de términos que se prestan a interpretaciones diferentes


(menos, más, un poco, ...) o haciendo uso de juicios de valor (bien, mal, amable, ...)
. Ejercitar la observación sistemática o dirigida. A partir de la percepción de algo
concreto, hay una gran cantidad de detalles y aspectos de mayor o menor importancia
que escapan a la atención consciente. Mediante la observación dirigida o sistemática, lo
que se pretende es entrenarnos en captar conscientemente los detalles más
destacados y que ofrecen mayores contrastes centrando también nuestra atención en
aquellos otros que no aparecen de forma tan patente para formarnos una idea lo más
exacta, completa y clara posible.

. Utilizar el método de clasificación. Se retienen mucho mejor los elementos de un


conjunto si procedemos a clasificarlos en grupos que si pretendemos retenerlos
aisladamente.

. Captar el significado de las ideas básicas de un tema. Cuanto más ricas y variadas
sean las relaciones que establezcas entre los conceptos generales y sus principios
básicos, mayor será tu memoria lógica. Debes, por tanto, estructurar y relacionar muy
bien todo el material que deseas retener, ya que nuestra mente es asociativa y
captamos estructuras. De ahí la importancia de la clasificación, visión de conjunto y
asociaciones de los nuevos contenidos con los que ya existen en nuestra mente

H. Observación individual o en equipo

Observación Individual es la que hace una sola persona, sea porque es parte de una
investigación igualmente individual, o porque, dentro de un grupo, se le ha encargado
de una parte de la observación para que la realice sola.
Observación de Equipo o de grupo es, en cambio, la que se realiza por parte de varias
personas que integran un equipo o grupo de trabajo que efectúa una misma
investigación puede realizarse de varias maneras:
a. Cada individuo observa una parte o aspecto de todo
b. Todos observan lo mismo para cotejar luego sus datos (esto permite superar las
operaciones subjetivas de cada una)
c. Todos asisten, pero algunos realizan otras tareas o aplican
LECION 12.
La entrevista
La entrevista se utiliza para recabar información en forma verbal, a través de
preguntas que propone el analista. Quienes responden pueden ser gerentes o
empleados, los cuales son usuarios actuales del sistema existente, usuarios potenciales
del sistema propuesto o aquellos que proporcionarán datos o serán afectados por la
aplicación propuesta. El analista puede entrevistar al personal en forma individual o
31

en grupos algunos analistas prefieren este método a las otras técnicas que se
estudiarán más adelante. Sin embargo, las entrevistas no siempre son la mejor fuente
de datos de aplicación.
Dentro de una organización, la entrevista es la técnica más significativa y productiva
de que dispone el analista para recabar datos. En otras palabras, la entrevista es un
intercambio de información que se efectúa cara a cara. Es un canal de comunicación
entre el analista y la organización; sirve para obtener información acerca de las
necesidades y la manera de satisfacerlas, así como concejo y comprensión por parte
del usuario para toda idea o método nuevos. Por otra parte, la entrevista ofrece al
analista una excelente oportunidad para establecer una corriente de simpatía con el
personal usuario, lo cual es fundamental en transcurso del estudio

A. La recolección y el procesamiento de información.

Si los objetivos de la investigación han conducido al indagador a que crea que la


mejor fuente de la información primaria la va a proporcionar, no ya la observación
directa de ciertos acontecimientos, sino los testimonios y reportes verbales que
proporciona un conjunto de personas que ha participado o presenciado dichos
acontecimientos, entonces la técnica apropiada a utilizar será la entrevista.

La entrevista con fines de investigación, puede ser entendida como la conversación que
sostienen dos personas, celebrada por iniciativa del entrevistador con la finalidad
específica de obtener alguna información importante para la indagación que realiza.

Por tanto, para su aprendizaje es importante: Conocer los elementos constitutivos de


la entrevista, aplicar un tipo particular de entrevista: la entrevista profunda, y
finalmente saber aplicar las guías necesarias para registrar los datos obtenidos
mediante dicha técnica.

Dentro del contenido de este capítulo dedicado al aprendizaje de la técnica de la


entrevista, la presente lección, además de introducir al estudiante en su conocimiento,
busca igualmente darle a conocer los elementos constitutivos principales de esta
técnica de selección de información primaria. Así mismo, en esta lección se conocerán
los tipos más importantes de entrevista.

Sobre esta base se intenta que el estudiante tenga los fundamentos necesarios y
suficientes para aprender a construir y aplicar una entrevista profunda. La información
requerida por los objetivos de un estudio, especificada en un cuestionario, usualmente
es recogida mediante entrevistas personales. Otras formas de obtener respuestas
directamente de las personas, son las entrevistas por teléfono, el envío del
cuestionario por correo, y la implicación del cuestionario en forma colectiva.
32

La entrevista personal puede ser más o menos formal. En el primer caso, tanto las
preguntas como las respuestas se formulan y recogen de manera estructurada. En las
entrevistas informales, la cédula no consiste en un sistema de preguntas, sino en
puntos centrales del estudio a partir de los cuales se realiza la recolección de las
respuestas o las reacciones de las personas entrevistadas. Entre ambos tipos hay
muchas formas intermedias, expondremos cierto número de indicaciones básicas para
la realización de una buena entrevista formal.
1. Una entrevista es una conversación entre un investigador y una persona que responde
a preguntas orientadas a obtener la información exigida por los objetivos específicos de
un estudio.

Para que tal empresa pueda tener éxito, deben cumplirse ciertas condiciones. En primer
lugar, la persona que responde debe "tener" la información requerida para que pueda
contestar la pregunta. Puede presentarse el caso de que no sepa, efectivamente, de qué
se le está hablando, que no entienda la pregunta, que haya olvidado la información, que
la pregunta le produzca una reacción emocional de tal naturaleza que le impida
contestar, etc. En segundo lugar, la persona entrevistada debe tener alguna motivación
para responder. Esta motivación comprende tanto su disposición para dar las respuestas
solicitadas como para ofrecerlas de una manera verdadera

2. El punto anterior indica que la entrevista es un proceso de interacción cuyo


curso puede tomar diversas características, algunas favorables y otras desfavorables
para los fines que se buscan. Por tanto, la conducta del entrevistado es de gran
importancia durante todo el proceso. La conducta adecuada comienza con el
establecimiento, desde el inicio de la entrevista, de una atmósfera adecuada; a esa
situación se le designa con el nombre de "rapport" positivo.

El entrevistador debe comprender que si bien muchas personas no tendrán mayores


inconvenientes en responder a las preguntas de la encuesta, otras no tienen, en el
momento de su ubicación, tiempo para responder, o bien sienten desconfianza, etc.

Cualquiera que sea la situación, además de las acciones iniciales para establecer el
"rapport" (palabras de saludo, etc.), el entrevistador debe explicar cuál es el contenido
general de la encuesta, quién lo realiza o patrocina, en qué se utilizarán los resultados,
etc. Toda esta introducción debe hacerse en forma breve, sin detalles innecesarios. Una
forma común de empezar una entrevista es la siguiente:

"Buenos días, señor(a), yo pertenezco al Instituto de Estudios Sociales de la Universidad


de... Estamos realizando una investigación sobre las condiciones del trabajo en esta
ciudad. Con este propósito desearíamos conocer su opinión sobre varios puntos
relacionados con este tema. Sus respuestas serán de mucha utilidad para nuestro
estudio y permitirán buscar solución a algunos de los diversos problemas que suelen
presentarse en el trabajo."
33

Cuando lo crea necesario, el entrevistador puede explicar al entrevistado la forma en que


fue escogido (selección al azar, el valor de su respuesta para que la muestra sea
representativa, etc.), todo esto en forma sucinta. Por otro lado, si las respuestas deben
ser tratadas confidencialmente, conviene que el entrevistado lo sepa: "La información
que usted nos proporcione tiene carácter confidencial; por lo mismo, no es necesario que
usted nos dé su nombre."

3. En la entrevista estructurada, el entrevistador debe formular la pregunta en la forma


que se le ha dado en el cuestionario; se entiende, también, que debe seguir el orden.
Estas recomendaciones quedan dentro de la intención más amplia de obtener
uniformidad en los estímulos a los cuales son expuestos los entrevistados, con el fin de
obtener la información que se desea (la situación de la entrevista, el entrevistador, la
forma de preguntar, etc.). Por eso, no sólo es importante formular las preguntas con las
mismas palabras empleadas en la cédula, sino también con una entonación tal que no se
dirijan las respuestas del entrevistado en la dirección deseada por el entrevistador. Hay
preguntas o proposiciones en las cuales un simple cambio de voz o de tono en uno u
otro, puede influir en el entrevistado. Quedan comprendidas aquí las preguntas que se
refieren a opiniones sobre situaciones u objetos muy polémicos o controvertidos (la
acción del gobierno, las simpatías por partidos políticos, etc.).

4. A pesar de las precauciones que el investigador toma para que las preguntas que
contiene su cuestionario sean claras para el interrogado, en muchas ocasiones éste
expresa que no comprende lo que se le pregunta. En tales casos, la sola repetición de la
pregunta puede superar la dificultad.

5. Cuando se trata de preguntas abiertas, las respuestas pueden ser incompletas,


irrelevantes, vagas, etc. En esas circunstancias, el entrevistador puede utilizar algunas
preguntas adicionales simples, de prueba (probé), con la finalidad de esclarecer la
respuesta o ubicar al entrevistado, según el caso, en el tema propuesto. Ejemplos de
estas preguntas adicionales son proposiciones tales como "¿qué quiere decir usted con
eso?", "eso es interesante; ¿podría explicarlo un poco más?", etcétera.

Cuidados similares a los anteriores pueden requerir las respuestas "no sé". Debido a la
timidez, comodidad u otras razones, la persona interrogada puede decir que no sabe lo
que se le está preguntando. Si el entrevistador piensa que uno de esos factores es la
causa del "no sé" y no el real desconocimiento del tema que se está investigando,
entonces también puede repetir la pregunta diciendo, por ejemplo: "Con respecto a la
pregunta que acabo de hacerle, tal vez no fui muy claro. Lo que quise preguntar es lo
siguiente (aquí de nuevo la pregunta)."

Algunas preguntas precodificadas, con alternativas de respuestas múltiples, colocan al


entrevistado en una situación difícil ya que debe retener la lista que se le ha leído; esto
ocurre con frecuencia en preguntas de este tipo: "¿Podría decirme a cuál de las
siguientes clases sociales pertenece usted?"

• Clase alta.
• Clase media alta.
• Clase media.
• Clase media baja.
34

• Clase obrera.

Sin omitir la lectura de las opciones de la pregunta, el procedimiento más recomendable


consiste en usar una tarjeta que las contenga y que se entrega al entrevistado para que
éste elija la. Respuesta que expresa su situación.

6. En las entrevistas personales, el entrevistador formula y recoge las respuestas. En


esta última tarea se presentan distintas situaciones, según se trate de preguntas
cerradas o abiertas. En general, no hay mayores dificultades para recoger las
respuestas de aquellas preguntas que contienen las posibles respuestas, especialmente
en las que las opciones precodificadas agotan las posibilidades: "¿Podría decirme si fue
o no al cine ayer?"

- Si
- No.
- No contesta.

Sin embargo, aun en ciertas preguntas cerradas puede presentarse la duda del
entrevistador respecto a cuál de las respuestas señaladas en la cédula corresponde la
del entrevistado. Por ejemplo, en la pregunta: "Comparado con su anterior trabajo, ¿en
su trabajo actual tiene usted mayor responsabilidad, menor o aproximadamente la misma
responsabilidad?"

• Mayor.
• Menor.
• Aproximadamente la misma.

La respuesta podría ser de alguno de estos tipos: "Más o menos", "en algunos aspectos
más y en otros menos", etc. En tales casos, las recomendaciones para el uso de
preguntas de clarificación (probé), en la forma señalada anteriormente, tienen aplicación
aquí.

Las preguntas abiertas plantean al entrevistador la alternativa de copiar todo lo que dice
el entrevistado o de hacer un resumen de lo que éste dice, sobre todo cuando se trata
de personas con gran facilidad de expresión o deseosas de hablar y que, muchas veces,
intercalan temas que nada -al menos aparentemente- tienen que ver con la pregunta
planteada. El peligro de que el entrevistador reduzca las respuestas y seleccione lo que
a él le parece medular, es evidente. De ahí que, con las dificultades que ofrece la
solución, se recomiende copiar las respuestas tal como las proporciona la persona
entrevistada. Si la naturaleza de la pregunta abierta es tal que puede dar origen a.
respuestas largas y circunstanciales, sería útil usar una grabadora, cuyo uso debe ser
explicado al entrevistado con el fin de obtener su autorización.

B. Selección y entrenamiento de los entrevistadores. Supervisión trabajo de


campo

La referencia que se ofrece en la bibliografía de diversos manuales con instrucciones


para realizar la entrevista indica la importancia que se le da a esta fase de la
35

investigación. Si bien hay diversas opiniones con respecto a la forma e intensidad del
entrenamiento de los entrevistadores, puede resumirse en los puntos que se indican a
continuación.

La selección de los entrevistadores comienza con el postulado de que no existe el


entrevistado ideal, y con el convencimiento de que ellos deben poseer algunas
características personales mínimas
Entre ellas se señalan:
1. Honestidad. Si bien reconocemos que es difícil determinar en un primer momento si
una persona es honesta o no, en el curso del trabajo de campo puede detectarse la falta
de esta cualidad. El control de las entrevistas puede mostrar que algunos
entrevistadores no han contactado a la persona elegida y han omitido respuestas. En
otros casos, inventan respuestas a preguntas no planteadas o alteran las respuestas
dadas.

2. Interés. Es natural, aun cuando se trate de un trabajo pagado, que se lograrán


mejores resultados si el entrevistador tiene interés en las tareas que realiza, ya sea por
el contacto con diversas personas o bien por los temas que cubren el estudio. El interés
suele disminuir incluso en personas que demuestran tenerlo en gran nivel al comienzo
del trabajo. Por esta razón, entre otras (por ejemplo, ahorro de tiempo, fatiga, etc.), se
recomienda que la asignación máxima de entrevistas a una sola persona no sea superior
a 15.

3. Personalidad. El término se refiere aquí a aquellas características que, en general,


permiten al entrevistador establecer con el entrevistado un ambiente adecuado para
obtener las respuestas en forma natural, a partir del establecimiento de un "rapport"
positivo. Desde luego, entrevistadores tímidos o muy agresivos quedan fuera de esta
condición.

4. Inteligencia y educación formal. Son también condiciones que debe poseer un


entrevistador. De igual manera, su disposición a trabajar en ambientes ecológicos
distintos (barrios populares y elegantes, etc.), su falta de prejuicios contra grupos
sociales o étnicos, etc., se sumarán como aspectos positivos a las características ya
señaladas.

En lo que se refiere al entrenamiento de los entrevistadores, hay diversos


procedimientos con distintas duraciones e intensidades. El sistema o la forma en que se
elija, finalmente dependerá de la naturaleza misma del estudio, de la extensión del
cuestionario, de las características de la población por entrevistar, etc. De acuerdo con
esto, se hará uso de manuales y una exposición de los objetivos del estudio; asimismo,
la indicación de cómo se hizo la selección de la muestra, discusiones detalladas de las
preguntas de la cédula, adiestramiento en el terreno por entrevistadores con experiencia,
discusión de entrevistas de prueba, etcétera.

No es común comparar el rendimiento de entrevistadores entrenados con


entrevistadores sin experiencia. En uno de los pocos estudios destinados a medir este
aspecto, realizado por Durbin y Stuart (1951) con tres grupos de entrevistadores
profesionales (del Centro de Encuestas Sociales del Gobierno, del Instituto Británico de
36

la Opinión Pública, y estudiantes de la Escuela de Economía de Londres) se obtuvieron


los resultados incluidos en la tabla 8.1
Tabla 8.1. Resultados obtenidos por entrevistadores con y sin experiencia.

Encuestas Instituto

Sociales británico Estudiantes

(%) (%) (%)


Entrevistas realizadas 83.7 # 81.3 # 69.6 #

Rechazos 3.8 # 3.2 # 13.5 #

No se encontró la persona 5.0 6.7 5.8

La persona cambio de domicilio 5.4# 7.5# 10.1 #

Otros 2.2 1.2 1.0

Total 100.0 100.0 100.0

Tamaño de muestra (504) (504) (504)

Las cifras demuestran que hay diferencias de rendimiento apreciables, estadísticamente


significativas, cuando se usan entrevistadores con experiencia frente a otros que no la
tienen.

Supervisión del trabajo de campo


Antes de entregar las entrevistas realizadas, todo entrevistador debe revisar -
preferentemente en el lugar mismo de la entrevista- la cédula que ha utilizado, con el fin
de comprobar si ha formulado todas las preguntas, si hay respuestas ambiguas u
oscuras, etc. En la supervisión, en el momento de la recepción del material, puede aún
encontrar errores u omisiones de distinta naturaleza.

Por otro lado, el control de la calidad de las entrevistas realizadas, la posibilidad de


falsificación de los datos, la errada selección del domicilio o de la persona indicada por la
muestra, los casos de rechazo, etc., requieren de una supervisión en el terreno mismo.
Generalmente, ésta se efectúa tomando una muestra de las entrevistas realizadas por
cada entrevistador (una de dos o de tres, etc., según el caso) y enviando supervisores
37

con experiencia y de confianza para comprobar los aspectos señalados. El control puede
efectuarse mediante dos o más preguntas clave o, si la ocasión lo exige, debe hacerse
toda la entrevista de nuevo. En todo caso, es conveniente realizar la supervisión en el
terreno poco después de empezar a recibir las entrevistas, con el fin de tomar
oportunamente las medidas aconsejables

C. Recomendaciones para realizar entrevistas

Codificación

Las recomendaciones que se dan para realizar las entrevistas formales tienen el objetivo
de lograr una igualdad de situaciones y estímulos para los entrevistados, de tal modo
que, como lo expresan Moser y Kalton (1989):
El investigador puede estar seguro de que si una persona es interrogada por el
entrevistador B en lugar del entrevistador A (o por el entrevistador A en otra ocasión), las
preguntas se harán en la misma forma y se obtendrán las mismas respuestas.
No siempre la naturaleza del estudio proyectado ni las características de las personas de
quienes se obtendrá la información permiten el uso de cuestionarios totalmente
estructurados. Las opciones, en tales casos, se encuentran en las entrevistas informales,
que van desde el uso de una guía de entrevista, en la cual se incluyen los principales
temas del estudio dentro de los cuales el entrevistador formula las preguntas que le
parecen más apropiadas y con el vocabulario que más se adapte a la situación, hasta el
uso de entrevistas con mayor formalización en las cuales hay preguntas previamente
establecidas, pero en menor número y del tipo abierto, que permite al entrevistado dar
respuestas amplias.

La última de las categorías de entrevistas indicadas en el párrafo anterior pertenece a la


llamada "entrevista focalizada" (Mentón, 1956). En esta entrevista, la principal función
del entrevistador consiste en centrar las preguntas en aspectos extraídos del tema de
investigación; aspectos que se determinan con base en el conocimiento que se tenga del
mismo y/o de las hipótesis derivadas del marco teórico que se maneje. La persona
entrevistada -que se sabe, por otra parte, ha estado expuesta a la situación estudiada-
es sometida a una serie de preguntas abiertas dentro de las cuales el entrevistador, de
acuerdo con las respuestas obtenidas, hace preguntas de prueba, explora motivos y guía
al entrevistado en la dirección demandada por los objetivos del estudio. Con la
información recogida no sólo se pretende verificar las hipótesis formuladas, sino llegar a
otras que exigen nuevas investigaciones en áreas problemáticas, según se desprenda
de las respuestas.

Es fácil advertir las potencialidades y debilidades de las entrevistas informales. En el


primer aspecto, es indudable que tales procedimientos son muy valiosos en estudios
"piloto", destinados a exploraciones previas que permitan una mejor orientación de
estudios subsecuentes, más formalizados. Por otro lado, el uso de diferentes preguntas
específicas dentro de la guía de la entrevista, las diferencias de términos utilizados en
ellas por distintos entrevistadores, etc., dificultan el análisis de los resultados y su
generalización. Estos aspectos no invalidan las técnicas informales de entrevista sino
38

solamente llaman la atención con respecto a la habilidad y el cuidado requerido en su


aplicación y a los posibles sesgos de sus resultados.

Una vez que los cuestionarios han sido llenados y se ha hecho el control de calidad de la
información recogida (si está completa o incompleta, si no es ambigua, etc.), se procede
a codificar las respuestas, las cuales deben recibir un tratamiento cuantitativo.

La codificación consiste en asignar números iguales a respuestas iguales o a


características iguales de las personas (todos los hombres reciben el número 1, las
mujeres el 2; todos los que contestan de acuerdo, reciben el 1, etc.).

En preguntas cerradas, las opciones de respuesta van, por lo general, pre-codificadas. Si


la pregunta fuera: "¿Cuál es su estado civil?", las posibles respuestas y los
correspondientes códigos serían:

Solteros 1
Casado 2
Unión Libre 3
Separado 4
Viudo 5
No contesta 0

En tales casos, el entrevistador o la persona que contesta el cuestionario codifica de


inmediato la respuesta obtenida, colocando un círculo o una marca al número o código
que corresponda a la respuesta correcta.

Construcción de un código
La construcción de un sistema de categorías para clasificar las respuestas no es tan
simple cuando se trata de preguntas abiertas e, incluso, de preguntas cerradas que el
investigador supone tienen múltiples posibilidades de ser contestadas.

En general, podemos afirmar que la construcción de un código para preguntas abiertas


comienza con un análisis del contenido de las respuestas dadas con el fin de establecer
las categorías más generales que serán codificadas. Desde el punto de vista formal,
estas categorías deben constituir un sistema exhaustivo (todas y cada una de las
respuestas deben tener ubicación en alguna de las categorías) y excluyente (cada
respuesta debe admitir su clasificación, sin dudas, en-una y sólo una de las categorías
propuestas).

El análisis del contenido se realiza con una muestra de las cédulas completas (10 %
puede ser suficiente). El sistema de clasificación de las respuestas puede incluir "otra"
categoría para ubicar a las que no pueden ser clasificadas en otro lugar.

El problema de clasificar respuestas a preguntas abiertas no es una solución fácil


cuando las personas contestan con diversos grados de generalidad o utilizan diferentes
marcos de referencia al contestar. En cualquier situación, sin embargo, la clasificación
39

de respuestas en categorías debe expresar los objetivos y las necesidades de análisis


del estudio en cuanto al tipo y número de categorías que se van a usar.

El problema mencionado se comprenderá mejor con un ejemplo. Supongamos que se


tiene la siguiente pregunta, formulada para los alumnos de un colegio: "Según tu opinión,
¿cuáles son las principales causas por las cuales muchos estudiantes salen mal en
matemáticas?" Se podrían obtener respuestas muy variadas, que señalarían distintas
dimensiones del problema: algunas relativas a la asignatura de matemáticas, otras a los
profesores y otras a los estudiantes. De acuerdo con esta situación y con los objetivos
de la investigación, tal vez el código más conveniente sería el que estableciera un
sistema de categorías generales y, dentro de cada una de ellas, categorías más
específicas, como en el siguiente ejemplo:

Causas debidas a la naturaleza del ramo:

• Es un ramo muy difícil.


• Es un ramo para el cual se necesitan condiciones especiales.
• Es muy abstracto, "muy árido".
Causas debidas a los profesores:

• Los profesores no son competentes.


• Los profesores son muy exigentes.
Causas debidas a los alumnos:

• Los alumnos prefieren otras ramas.


• No se da importancia a las matemáticas.

La codificación en casos como los anteriores puede aplicarse ya sea a las categorías
generales (causas debidas a la naturaleza del ramo, etc.), a las subcategorías dentro de
ellas, o a ambas. Si es esta última la decisión adoptada, el código para la pregunta del
caso tendría dos dígitos: uno que indica la categoría y otro que indica la subcategoría.

Causas debidas a la naturaleza del ramo: 10


• Es un ramo muy difícil. 11
• Es un ramo para el cual se necesitan condiciones
especiales, etcétera. 12

Causas debidas a los profesores: 20


Los profesores no son competentes. 21
Los profesores son muy exigentes. 22

En general, un código detallado permite su reagrupación en categorías más generales


cuando las necesidades del análisis sólo requieren de esos niveles de agrupación.
Las categorías que constituyen un código no necesitan, desde luego, coincidir con las
palabras o los términos que las personas emplean al responder. Contestaciones tales
como "a mí me parece muy bien", "estoy de acuerdo" cabrían, por ejemplo, en la
40

categoría "respuesta positiva" de cierto código. En la ubicación de las respuestas suelen


presentarse, sin embargo, algunos problemas, ya sea porque las respuestas son
ambiguas o porque las categorías no son excluyentes. Otra situación frecuente consiste
en que faltan categorías para clasificar las respuestas. En tales casos habría que
examinar las respuestas sin ubicación para formular una o más categorías "otras
respuestas". Ahora bien, si esta categoría llegara a tener un porcentaje de respuestas
mayor que los otros códigos, deben revisarse las respuestas incluidas en ella, pues
podría ser posible establecer otra categoría con algunas de las respuestas incluidas en
"otras respuestas".

El código completo se edita en un "libro de código" para facilitar su consulta en las tareas
de análisis o para cubrir otras necesidades. Este libro debe contener las columnas de la
tarjeta IBM asignadas a cada variable, una descripción o el nombre de la misma, y el
código propiamente

Libro de código

Columnas Identificación de la Código


variable

1-2 Número del colegio

3-5 Numero del estudiante

6 Sexo Hombre 1
Mujer 2

7 Origen Urbano 1
Rural 3
Intermedio 4
No contesta 5

PLAN DE ANÁLISIS Y SOFTWARE


La interpretación de la información recogida en una encuesta debe ser presentada en
forma de cuadros o resultados estadísticos, cuyo número y forma dependen
básicamente de los objetivos del estudio. Se obtendrán así:

Cuadros de frecuencias, cuadros de cruces de variables, valores de coeficientes de


correlación, etcétera.

Cuando se trata de pocos casos -digamos de 100 a 200 cuestionarios-, los cálculos
estadísticos pueden hacerse con calculadoras de escritorio. Si el número de casos es
41

mayor, es necesario recurrir a la computadora. Este uso es especialmente apropiado


cuando los cuadros requeridos van más allá del cruzamiento de dos variables o cuando
se necesitan cálculos complicados y de mayor trabajo tales como las determinaciones de
desviaciones estándar, las correlaciones, el análisis de variación, etcétera.

Como decíamos, los objetivos de estudio determinan los cuadros y resultados que se
necesitarán para la interpretación de los datos, por lo cual el investigador, aun antes de
tener en su poder todos los cuestionarios, puede preparar el plan básico de análisis que
indicará las preguntas (columnas de la tarjeta) de las cuales se necesitan las
distribuciones de las respuestas obtenidas, las preguntas a cruzar (columnas), los
coeficientes requeridos, etc. Este plan inicial, generalmente requiere de modificaciones
en el curso de la interpretación de los datos pues el investigador puede necesitar cruces
de variables, otros promedios, etcétera.

Programas de computadora
Desde hace algunos años se cuenta con diversos "paquetes" de programas de
computadora para realizar cálculos estadísticos de muy variado tipo y complejidad
(desde distribuciones de frecuencia hasta análisis factoriales). Un programa es un
conjunto de instrucciones que se dan a la computadora. Entre esos paquetes, los de
mayor uso son:

• Statistical Analysis System (SAS).


• Statistical Package for the Social Sciences (SPSS). ;
• Biomedical Computer Program (BMD).

Por otra parte, hay diversos lenguajes de programación tales como el Fortran (Formula
Translation), Cobol (Common Business Oriented Language), Algol (Algorithmic
Language), PL/I (que reúne los mejores caracteres de Fortran, Cobol e IPL-V) e IPL-V
(Information Processing Language, versión 5). Los tres primeros pueden ser compilados
en cualquiera de los grandes computadores en uso (IBM, etc).

CAPÍTULO 5. LA ENCUESTA

Lección 13.

Definición y Diseño

Es importante que el estudiante aprenda a identificar los elementos que conforman una
encuesta; a construir los indicadores de la encuesta; a organizar el trabajo de campo y la
prueba piloto de la encuesta y a diseñar el libro código, para registrar correctamente la
información primaria obtenida mediante la encuesta.

Asumamos que el investigador, que decidió procurarse él mismo directa y personalmente


los datos requeridos para su proyecto, no va emplear ni la observación científica ni la
entrevista, sino que resolvió estudiar cierto número limitado de personas para sacar, a
42

partir de ellas, consecuencias para un conjunto mucho mayor.

En este caso, en que el investigador traduce su hipótesis o problema a estímulos como


preguntas o pruebas, a partir de las cuales cuantifica el resultado mediante un calculo de
lo que sucediera si cubriese todas y cada una de las personas de una población, se
estaría ante la encuesta.

Desde ya puede advertirse una diferencia clave entre la dos ultimas técnicas y la
encuesta.

Mientras en la observación y en la entrevista el número de unidades de análisis (obreros,


campesinos, empresarios, estudiantes, profesionales) y el número de dimensiones o
variables (edad, sexo, educación u ocupación) eran LIMITADOS, en la ENCUESTA, el
volumen de información sobre las unidades y las variables es mucho mayor y a veces
considerablemente grande, debido a la utilización de técnicas de muestreo y a la
inferencia estadística.

Esta es una gran ventaja en términos comparativos. Económicamente: si bien el costo de


una encuesta es relativamente elevado, a veces se obtiene una mejor información con
una encuesta, casi con el mismo esfuerzo invertido en una observación o una entrevista.
Desde el ángulo de la precisión: Este es justamente el otro punto esencial: Al poder
reducir el problema investigativo al lenguaje de variables, la cuantificación se hace
posible y garantiza al analista una mayor precisión que la brindada por la observación y
la entrevista.

No obstante lo anterior, ni la observación, ni la entrevista, ni la encuesta deben verse


como técnicas competidoras, sino por el contrario técnicas complementarias, pues el
investigador experimentado sabe que combinándolas ágilmente, tomando por ejemplo, la
observación o la entrevista como paso inicial de la encuesta, es mucho lo que se ganará
en conocimientos.

El propósito de esta sección es identificar los elementos metodológicos constitutivos de


una encuesta y distinguir diferentes tipos de situaciones, en las cuales se deberá aplicar
una cierta clase de encuesta. Hay que tener presente en todo lo que sigue, el siguiente
criterio:

Para ser un eficaz diseñador y analista de encuestas, hay que saber relacionar los
principios metodológicos generales de su construcción, con el contexto particular en el
que se desarrolla la encuesta.

Esto significa que una adecuada combinación de estos principios teóricos generales, con
una experiencia constante en la aplicación de encuestas, es la mejor escuela para ser un
excelente investigador por encuesta. Vamos a aproximarnos un poco a esos principios y
a esa experiencia.
43

¿Cuál es la importancia hoy en día de la técnica de la encuesta. Sin duda, es el


instrumento de trabajo de los sociólogos, antropólogos, y aun de los politólogos? Pero
no solo de ellos, ni de los demás científicos de las ciencias sociales. Hoy- cuando
estamos en medio de la Revolución Científico-Técnica- los físicos, los químicos, los
ingenieros y demás profesionales la empiezan a utilizar más frecuentemente, sobre todo
cuando quieren examinar los efectos sociales de los nuevos descubrimientos científicos
e invenciones técnicas. Por ejemplo, 1. Para saber cual es la edad de mayor
productividad intelectual entre los científicos, aplican una encuesta a los científicos de
universidades, institutos y laboratorios de un país. O para saber como se forman los
grupos de investigadores, cómo y porque surgen los líderes intelectuales dentro de esos
grupos. 2. Para determinar cual es la causa de la deserción estudiantil en la universidad,
3. Para saber cual es el perfil del zootecnista, Medico Veterinario, o Ingeniero Agrónomo,
que actualmente necesita el país.

Sea que la encuesta la apliquen los científicos de las ciencias Sociales o de las Ciencias
Naturales, hay un elemento característico común en unos y otros:

Su interés por investigar la naturaleza de las relaciones sociales, sea que estas se den
entre individuos, entre grupos o entre colectividades.

Pero no solo los científicos están interesados por las relaciones y los problemas sociales.
También los periodistas, los políticos, los reformadores, los administradores, necesitan
estar informados.

Esto nos remite al origen histórico de la técnica de la encuesta.

Este instrumento no es actual, ni siquiera de este siglo, como pudiera creerse. A fines del
siglo XVIII, en Francia, los intendentes del Antiguo Régimen, así como los consejeros de
la convención, realizaron encuestas para sondear especialmente en el último caso, la
opinión política de grupos de individuos. En la Inglaterra del mismo siglo XVIII, los
miembros de las Comisiones reales se preocuparon de reunir datos sociales y, un poco
más tarde, se emprendieron celebres encuestas sobre la miseria.

Durante casi todo el siglo XIX se efectuaron, también en Inglaterra y en Francia,


numerosas encuestas principalmente a obreros para determinar sus condiciones de
vivienda, de miseria, de vida, sus actitudes políticas, etc. A comienzos del siglo XX, se
realizaron en Alemania estudios sobre la mano de obra agrícola e industrial, bajo la
dirección del conocido sociólogo Max Weber. Pero, es en Estados Unidos donde, a partir
de 1930, se origina el más conocido y poderoso movimiento de estudios por encuesta,
dando lugar a toda una escuela de investigaciones.

Es posible distinguir tres etapas fundamentales en la historia de la investigación por


encuestas. Hay que poner mucha atención a estas tres fases, porque en cada una de
ellas se van generando y conformando los elementos constitutivos y los principios
generales de la técnica de la encuesta.
44

También es conveniente recordar, para lo que sigue a continuación, los conceptos ya


asimilados anteriormente:

UNIDAD DE ANÁLISIS: Es un elemento que hace parte de un conjunto de elementos


que de alguna manera son del mismo tipo (obreros, campesinos, estudiantes,
profesores, familias, etc.)

DIMENSION O VARIABLE: Característica de una unidad que forma una clasificación(


educación, edad, nacionalidad, etc.).

VALOR: algo que puede provenir de una unidad en una clasificación(educación alta,
media y baja; estudiantes entre 10 y 15 años, entre 16 y 20, entre 21 y 25; obreros
colombianos, venezolanos, ecuatorianos y argentinos).

MEDICION: Aplicación de la variable sobre un conjunto de números, es decir, aplicación


de cada valor de la variable de uno y solamente un numero.

MEDIDA: Clasificación de varias unidades en función de una cuantificación.

Recordados estos conceptos, podemos intentar hacer una primera definición de lo que
es una encuesta:

Técnica destinada a obtener información primaria, a partir de un número representativo


de individuos de una población, para proyectar sus resultados sobre la población TOTAL.

¿Cuáles son esas características y cuáles son esas relaciones o asociaciones entre tales
características?

En principio la gama de características que interesan al encuestador es ilimitada: lo que


la gente piensa, lo que hace, lo que compra, lo que posee, con quién se relaciona:
algunas características son naturales como, por ejemplo: sexo, el idioma; otras son
fáciles de cuantificar como la edad de los individuos o la proporción de votantes en
distintos piase.

La relación entre lo que la gente piensa y lo que hace; entre la edad y el voto; entre con
quién se relaciona y lo que piensa. Etc. son algunos de los muchos problemas dignos de
ser estudiados mediante las encuestas.

Pero, para poder abarcar un espectro tan amplio de problemas, fue necesario que se
efectuara una serie de progresos técnicos en el diseño de las encuestas, a través de las
tres etapas ya mencionadas anteriormente y que se analizan a continuación:

En la primera, durante el siglo XIX, la encuesta se realizaba con el objetivo de aclarar las
45

discusiones acerca de problemas sociales urgentes e inmediatos (condiciones de vida,


de vivienda, creencias), sin olvidar una cuestión metodológica fundamental: la de la
cuantificación. Por ejemplo, se media el sentimiento religioso de las familias examinando
sus presupuestos y viendo cuanto dinero dedicaban a la iglesia; o examinando la
asistencia a la iglesia y las actitudes respecto a la religión.

La medición de actitudes a través de la encuesta dio así su primer paso importante.

Las ACTITUDES son ciertos tipos de conducta humana, no susceptibles de observación


directa (por ejemplo, el sentimiento religioso), cuya existencia o intensidad deben
inferirse de lo que puede ser observable (asistencia a la iglesia, cuanto dinero dan las
familias a la iglesia).
En la segunda etapa, iniciada en los Estados Unidos después de 1930, se realizaron
grandes progresos técnicos en el diseño de encuestas, sobre todo en el área de
encuestas por sondeo, en las medidas de actitud y en los métodos para construir
cuestionarios.

SONDEO: procedimiento basado en entrevistas o encuestas aplicadas a muestras de


individuos, para conocer rápida y aproximadamente la conducta futura o las intenciones
de actuación de tales individuos.

CUESTIONARIO: Instrumento compuesto de un conjunto de preguntas, dispuestas


según un orden riguroso y metódico.

En la tercera etapa, a finales de la segunda guerra mundial, se comenzaron a solucionar


dos problemas metodológicos fundamentales en el diseño de encuestas:

a. La definición de la naturaleza de los conceptos claves para el análisis de d


encuestas; y

b. La determinación, con base en esos conceptos, de la manera de proceder a un


análisis riguroso de las relaciones existentes entre ellos.

Estamos en condiciones ya de identificar los elementos constitutivos y/o etapas


principales de una encuesta.

1. Definición y operacionalización de los conceptos de la encuesta: establecer


referentes observables y medibles de los conceptos inobservables o simbólicos. (Por
ejemplo, la solidaridad social).

2. Diseño del cuestionario de la encuesta: construir las preguntas y disponerlas,


ordenadamente

3. Diseño de la muestra: Definir a que tipo de población se va a hacer la encuesta.


46

4. Diseño de la muestra: Definir a que tipo de población se va a hacer la encuesta.

5. Registro de la encuesta: Construir el libro código para conservar los datos obtenidos
mediante el formulario.

Podemos enseguida, examinar rápidamente, con un ejemplo, como se efectúan y se


cumplen estos elementos en una encuesta determinada.

En una encuesta realizada en la Universidad Nacional en 1981 sobre " la situación de los
campesinos parceleros en Colombia", se partió de la siguiente hipótesis general:

" la propiedad parcelaria campesina en Colombia resiste la descomposición e incluso se


consolida- frente a las grandes propiedades agrícolas- gracias al sobretrabajo individual
del campesino y de su familia y a la organización técnica de su parcela"

A partir de esta hipótesis general, se planteo cómo una hipótesis de trabajo la siguiente:

" El padre de familia continua siendo el principal organizador de la producción de la


parcela, pero debe vender esporádicamente su fuerza de trabajo o permitir que sus hijos
lo hagan, para garantizar la estabilidad económica de su parcela".

Los conceptos principales que se debían investigar eran: Producción, trabajo, relaciones
familiares, estabilidad económica

ETAPAS DE LA ENCUESTA

El diseño total de la encuesta esta constituido por varios diseños parciales. La primera
tarea consiste, desde luego, en formular objetivos generales y específicos de la encuesta
con mayor claridad. A partir de ahí se distinguen las siguientes etapas:

1. diseño de la cobertura de la encuesta.


2. Construcción de los instrumentos para la recolección de la información.
3. trabajo de campo.
4. crítica y procesamiento de la información.
5. análisis e interpretación de los resultados
6. Presentación e informe final.
47

1
Definición
Operacionalización
conceptos

2
Diseños
Cuestionarios

3
Diseño
Muestra

4
Trabajo de campo

Prueba
Aplicación
previa

5
Registro
Encuesta

Etapas de la encuesta

1. Cobertura de la encuesta. El diseño de la cobertura consiste en definir la población


que será estudiada, en términos geográficos. (Lugar donde se efectuara el estudio),
demográficos (personas de tales o cuales edades, sexo, niveles socioeconómicos, etc.) y
temporales (fecha o periodo de recolección de la información). En esta etapa se decide
también si la encuesta será o no de cobertura total. En el primer caso, se recoge
información de toda la población definida; en el otro, se determina el tipo y tamaño de la
muestra que se va a usar y los recursos que se utilizaran para tratar los casos de
48

rechazo por ser entrevistado, casos no encontrados, etcétera.

Construcción de los instrumentos.

La construcción de los instrumentos para la recolección de la información consiste en la


preparación de la cedula o el formulario o cuestionario. Como caso particular, si procede
la medición de variables en forma mas precisa, se elegirá el tipo de escala por usar
(Likert, etc.) con la redacción de los correspondientes itemes. Se decidirá también si la
cedula se llenara mediante entrevista, será autoadministrada o se enviara por correo,
etcétera.

3. Trabajo de campo. Si la información va a recogerse mediante entrevistadores, la


calidad de la entrevista es de especial importancia. Una vez resuelto el problema de la
elección de ellos, se vera la manera de su adiestramiento, la forma de pago, la
asignación de as entrevistas en el terreno, la supervisión del trabajo, etcétera.

4. Crítica y procesamiento de la información. Una vez terminada la recolección de


informaciones, es necesario hacer la crítica, en cuanto a preguntas sin respuestas,
inconsistencias entre unos datos y otros, ambigüedad en las contestaciones, etc. En lo
posible e tratara de remediar estos problemas; cuando no es posible, se eliminaran
estos itemes para su adiestramiento mediante la codificación y el análisis. La codificación
implica preparar el código que se va a usar y su aplicación a las respuestas obtenidas.

5. Análisis e interpretación de los resultados. La última etapa metodologiíta de la


encuesta la constituye el análisis de los datos y su interpretación. El análisis consiste en
dar a los datos un tratamiento estadístico en forma de cálculos de frecuencias,
promedios, cruce de variables, calculo de coeficientes de correlación, etc. La
interpretación, a su vez, compara resultados entre si

6. Informe final. La etapa final consiste en presentar los resultados del estudio, dar
cuenta de la metodología empleada (tipo de muestra, forma de construcción de las
escalas, etc.) y cualquier otra información acerca de estos aspectos. La forma de
redacción del informe parcial dependerá del tipo de lectores a quien este dirigida.

Definición y operacionalización de los conceptos

La primera tarea era idear y construir indicadores observables de los conceptos


anteriores, a fin de poder avanzar en la investigación.

Un INDICADOR es un referente empírico directo, observable y medible, que simboliza y


sustituye a un concepto o variable no observable o medible directamente.

El indicador o signo de la cosa conceptualizada, esta idealmente en una relación directa


con lo que significa. A través del indicador se estudia el concepto o variable. Por
49

ejemplo, de la variable trabajo se tomaron como indicadores:

Tiempo de trabajo en la parcela o fuera de ella.


Distribución de la jornada de trabajo.
División del trabajo en la parcela.
Formas de contratación del trabajo en la parcela o fuera de ella.

Diseño del cuestionario

Sobre la base de la operacionalización de los conceptos, es decir, con base en los


indicadores observables, se paso a construir las preguntas del cuestionario. Siguiendo
con los indicadores de la variable "trabajo", se formularon las siguientes preguntas:

- ¿Cuántos de sus hijos viven con usted?


- ¿Cuántos le ayudan en su parcela?
- ¿ Con qué frecuencia?
- ¿Cuáles de las labores son realizadas por miembros de la familia y cuáles por
jornaleros?
- ¿Trabaja usted ocasionalmente como jornalero en parcelas o fincas vecinas?
- ¿trabajan sus hijos ocasionalmente en fincas vecinas también?
- ¿ Les paga usted a sus hijos por su trabajo?

Diseño de la muestra
Como la encuesta iba dirigida a campesinos de la zona central del país, se escogieron
100familias de las veredas del municipio de Villeta, según un diseño muestral especifico.
La unidad de análisis era la familia.

Trabajo de campo

Comprendió dos fases. En la primera, se sometió a prueba o a PRE-test el formulario


con 15 familias campesinas, con el fin de evitar errores en las preguntas. Por ejemplo,
como las parcelas y fincas de la zona son exclusivamente productoras de caña, con
otros cultivos sólo para el autoconsumo, las preguntas...

- ¿ En qué cultivos ha trabajado usted como jornalero?


- ¿ Cuánto tiempo hace que se siembra caña en esta finca o parcela?
- ¿ Existían antes otros cultivos?
no se justificaban y tuvieron que ser suprimidas, dado el carácter monoproductor de la
zona de la encuesta. De las 200 preguntas iniciales se redujo el cuestionario a 170, de
las cuales 36 eran opcionales.

En la segunda fase, se aplicó el cuestionario ya corregido y reelaborado, mediante un


grupo de encuestadores y supervisores debidamente entrenados, a lo largo de la
semana.
50

Registro de la encuesta

Se construyó el libro código, o sea una guía para fijar un rótulo o código a cada una de
las preguntas de la encuesta. Las preguntas abiertas o de respuesta libre se
decodificaron, es decir, se les fijaron alternativas de respuestas dadas. Así la pregunta

- ¿ Si usted pudiera vender su finca, en que le gustaría trabajar?

Se le fijaron los siguientes códigos con base en las diferentes y numerosas respuestas
dadas por los campesinos;

A. De obrero de fábrica en la ciudad 0


B. de transportador 1
C. Vendedor o comerciante 2
D. Artesano 3
E. Empleado de oficina 4
F. Policía o militar 5

A las preguntas cerradas o respuesta fija, simplemente se le fijo el número (0, 1, 2....) o
se le suprimieron las alternativas de respuesta sobrantes. Después de la codificación
viene la etapa de análisis estadístico de los datos, el cual se contempla en la cartilla
sobre análisis de la información.

Síntesis

La encuesta tiene los cinco pasos o etapas generales antes descritas. Como se
mencionó antes toda encuesta establece relaciones o asociaciones entre las diversas
características de sus unidades y, a menudo, antes de tal operación el analista debe
crear o idear la característica relevante para sus propósitos, es decir, indicadores.
Traducidos los indicadores a preguntas y combinadas estas últimas entre sí, se puede
llegar a un muy completo conocimiento del fenómeno estudiado.

En la encuesta, la recolección de información se produce cuando la unidad de análisis es


una persona que esta expuesta a estímulos y da respuestas. Pero a diferencia de la
observación y de la entrevista, en la encuesta todas las unidades están expuestas
sistemáticamente a los mismos estímulos (preguntas).

La unidad de análisis tiene una o varias características, pero hay que hacer algo con la
unidad, para hacer que un individuo o varios individuos manifiesten sus actitudes, de
manera que puedan ser aplicadas sobre un conjunto de valores, esto es, sobre un
conjunto de respuestas.
Podemos dar ya una definición más precisa de la encuesta:

La encuesta es un instrumento que revela, a partir de cierto número de individuos, las


51

relaciones generales entre las características de un gran número de variables, mediante


un procedimiento estímulo-respuesta homogéneo

Para Munch y Ángeles(1993) la encuesta es una técnica que consiste en obtener


información acerca de una parte de la población o muestra, mediante el

IDENTIFICACION DE SITUACIONES PARA DISEÑAR EL TIPO DE ENCUESTA


APROPIADA PARA UN PROBLEMA DADO.

En la ya mencionada encuesta sobre "La situación de los campesinos parceleros en


Colombia", quedaron claros tres aspectos principales:

1. Se buscó establecer, de manera confiable, una relación entre ciertos fenómenos o


características (variables dependientes) y una o más causas (variables
independientes):
la estabilidad económica de la parcela (variable dependiente) está determinada por la
venta de la fuerza de trabajo (variable independiente) del padre de la familia y de sus
hijos.

2. En esta relación se procuró establecer para una población restringida (zona de


Villeta) y no para una población grande y heterogénea (todos los campesinos
parceleros de Colombia).
3. la encuesta se realizó en un momento determinado: 1988 y en distintos periodos de
tiempo.

Los dos primeros aspectos permiten establecer una distinción muy importante de las
situaciones que debe enfrentar el analista de encuestas para construir su diseño:

a. Situaciones en que es necesario utilizar un DISEÑO EXPLICATIVO de encuesta: allí


donde se desea verificar una hipótesis dada (por tanto, una relación entre una
variable independiente y una dependiente), hipótesis derivada de alguna teoría más
amplia.

Ejemplos: (Nótese la relación entre dos variables):

- Encuesta efectuada a familias de Bogotá, Medellín y Cali, para determinar los efectos
de la inflación sobre el nivel de vida familiar.

- Encuesta aplicada alas obreras de la fábrica de Chocolates Corona para examinar si


la maternidad y las obligaciones familiares inciden sobre el ausentismo.

-Encuesta a los obreros del Distrito para investigar en qué medida los obreros con mayor
educación, tienen mejores posibilidades de encontrar empleo.

b. Situaciones en que es necesario emplear un DISEÑO DESCRIPTIVO de encuesta:


52

allí donde se quiere principalmente la medición precisa de una o más variables


dependientes.

Ejemplos: (nótese el interés en una sola variable);


- Encuesta a tutores de la UNAD para determinar sus niveles de capacitación.

- Encuesta a estudiantes universitarios latinoamericanos de Brasil, Colombia, México y


Panamá, para determinar la preocupación cientifico-técnica, que proporcionan las
instituciones de educación superior.

- Encuesta a empresarios del sector lácteo y derivados para examinar la capacidad de


producción de tecnología autóctona en sus plantas.

Las diferencias fundamentales entre los dos diseños mencionados antes son, en
consecuencia, las siguientes:

DISEÑO EXPLICATIVO DISEÑO DESCRIPTIVO

1. Busca verificar una o varias hipótesis 1. No plantea hipótesis

2. Para asegurar una relación


significativa entre causa y efecto, 2. Explora un gran número de factores
procura excluir factores extraños
distintos de los tomados en la
hipótesis.

3. Restringe la población o universos


3. Población lo más grande posible.
estudiado para excluir otras fuentes de
variación.

4. Población muy homogénea 4. Población heterogénea

Ahora se comprende por qué la investigación sobre "La situación de los campesinos
parceleros en Colombia", utilizó un diseño explicativo de encuesta:

a. Buscaba probar una o más hipótesis


b. Estableció una población restringida
c. Investigó una población homogénea

Generalmente, la encuesta se halla limitada en cuanto a su localización temporal y, por


53

tanto, no constituye una técnica caracterizada por la observación prolongada. Por


ejemplo, en la encuesta a tutores de la UNAD para determinar sus niveles de
capacitación, lo máximo que el investigador puede hacer es especificar cuál es el
periodo más apropiado para su estudio.

Hay que tener en cuenta una limitación INHERENTE a la investigación por el método de
encuestas: se efectúa esencialmente en un CORTO PERIODO de tiempo.

Aunque la duración del trabajo d e campo pueda extenderse de una a varias semanas e
incluso a varios meses, el periodo relevante es aquel en el cual se reunieron los datos.
Inclusive, si se formulan preguntas que se refieren históricamente a grandes
extensiones de tiempo, los problemas relacionados con la distorsión de los recursos
limitan el procedimiento.

La encuesta de diseño explicativo también tiene la misma limitación. Pero existe un tipo
de diseño que pretende superar en algo ese problema:

El diseño de PANEL: encuestas sucesivas en distintos periodos de tiempo a los


MISMOS individuos.

En efecto, si el fenómeno parece tener un carácter sumamente dinámico, si los


acontecimientos están en constante mudanza, es necesario a veces tomar la decisión
de efectuar una serie de encuestas en distintos momentos, a fin de determinar la
tendencia del fenómeno y caracterizar sus aspectos más estables. Por ejemplo:

Las compañías de datos o que diseñan encuestas hacen estudios de PANEL a los
partidos políticos, para determinar los efectos de la PROPAGANDA POLITICA sobre las
PREFERENCIAS POLITICAS de los votantes. Así, se puede estudiar (sí las elecciones
presidenciales fueran en Marzo de 1986) las preferencias políticas de un barrio obrero
en octubre/85, Diciembre/85 y Febrero/86.

Las encuestas aplicadas en estos en estos tres periodos permitirían apreciar si la


propaganda política está surtiendo efecto, o si es necesario cambiarla en algún sentido.
El problema principal en el método de panel es el de los costos muy elevados.

Tipos de diseño de encuesta que obedecen a fines explicativos

A propósito del diseño de panel, existen diversos tipos de encuesta que se utilizan en
situaciones con propósitos explicativos diferentes:

No olvidar qué es una encuesta de diseño explicativo:

Aquella que tiene como tarea fundamental verificar una hipótesis, es decir, una relación
entre una o más variables independientes y una variable dependiente.
54

Diseño de encuesta experimental

Aquel en el cual la verificación de la hipótesis se puede efectuar mediante la


manipulación de los determinantes (variables independientes) que constituyen el foco de
análisis.

Ejemplos:

- Encuesta a los obreros de una fabrica de concentrados para animales sobre los
efectos del cambio de iluminación en los sitios del trabajo, en el rendimiento per
cápita.

- Encuesta acerca de las diferentes fuentes de suplementación de fósforo empleadas


en las dietas para pollos y ponedoras en tres municipios de Cundinamarca para
diagnosticar el impacto sobre el medio ambiente.

Diseño de encuesta de evaluación o programática

Es un tipo particular del diseño experimental, en el cual los factores que han sido
manejados o pueden ser manejados por un organismo de acción social, se estudian
desde el punto de vista de la ayuda que brindan para determinar un fenómeno. Aquí el
objetivo inmediato es la aplicación, modificación o cambio de algún estado de cosas,
tomando como base el conocimiento probado de los factores en juego.

Ejemplos:

- Encuesta a los obreros de una planta de ensamble de maquinaria agrícola, para


determinar como la cohesión (unidad interna) de cada grupo de trabajo (electricistas,
mecánicos, pintores, etc.) significa una elevación de la productividad del trabajo.

- Encuesta para evaluar los efectos de una campaña contra la fiebre aftosa en 50
hatos lecheros de la sabana de Bogotá.

Diseño de encuesta de diagnóstico

Aquel que se preocupa en averiguar como contribuye una serie de factores a la


determinación de algún fenómeno, factores o causas posibles, dadas en un ámbito
relativamente desconocido.

Ejemplos:

- Encuesta a los estudiantes de la UNAD sobre los efectos que producen los problemas
55

psicosociales familiares sobre el bajo rendimiento académico.

- Encuesta emprendida por el Ministerio de Trabajo, para investigar si los movimientos


de población hacia las ciudades grandes e intermedias del país, afectan la oferta de
empleo en las fabricas.

Diseño de encuesta de carácter predictivo

Su objetivo fundamental no es explicar una situación actual sino hacer una estimación de
algún estado de cosas futuro.

Ejemplos:

- Encuesta en el Centro regional de Población de Bogotá, sobre los posibles efectos de


la migración a la ciudad en la demanda de servicios públicos urbanos.

- Encuesta Nacional de hogares del DANE, para determinar la composición de los


hogares y de la vivienda y su relación con las necesidades inmediatas de bienestar
social de la población

Diseño de encuesta de análisis secundario

Aquel en el que el analista investiga su problema, haciendo uso del material de


encuestas realizadas previamente con otros propósitos.

EJERCICIO DE AUTOEVALUACIÓN

Diga si los siguientes casos de encuesta son de carácter explicativo (E) o descriptivo
(D), colocando al frente (E) o (D) según el caso.

1. Encuesta del DANE para conocer los niveles de empleo, subempleo y desempleo en
Bogotá. _______

2. Encuesta acerca de las actividades que desarrolla la población adulta rural de


Colombia en sus horas libres. ______

3. Encuesta realizada con una muestra nacional sobre los conocimientos y actitudes del
público con respecto al alcohol y los efectos que produce. _____

4. Encuesta para detectar como influye la edad de las personas de más de 40 años en
la consecución de empleo. _____

5. Encuesta sobre el nivel de accidentalidad entre los obreros en una empresa


56

agropecuaria. _____

6. segunda encuesta del Ministerio de Salud Pública, con el fin de determinar los
resultados de su campaña publicitaria sobre el programa de vacunación contra la
hidrofobia. _____

NO SIGA SIN HABER CONTESTADO EL EJERCICIO ANTERIOR

RESPUESTAS AL EJERCICIO

1. DESCRIPTIVO
2. DESCRIPTIVO
3. DESCRIPTIVO
4. EXPLICATIVO
5. DESCRIPTIVO
6. EXPLICATIVO.

DEFINICIÓN DE LA TÉCNICA DE LA ENCUESTA

AUTOEVALUACIÓN

1. Se desea investigar las causas del ausentismo de las obreras de 20 fábricas textiles
de Medellín. La encuesta a utilizar será la encuesta de diagnóstico.

¿ Por qué

2. ¿ Cuales son las cinco etapas básicas de una encuesta?

___________________________________________________________________

____________________________________________________________________

____________________________________________________________________

____________________________________________________________________
57

____________________________________________________________________

3. Marque a continuación de cada caso si la encuesta apropiada correspondiese a una


situación explicativa (E) o descriptiva (D).

3.1. Investigación a nivel nacional para estudiar los conocimientos populares, las
creencias y las prácticas sobre la salud.

3.2. Investigación adelantada por el Ministerio de Agricultura, para determinar el


porcentaje de niños menores de 15 años que trabajan en la industria.

3.3. Estudio del Ministerio del Medio Ambiente sobre los resultados de sus campañas
adelantadas en la Serranía de la Macarena entre 1995 y 1998 contra la tala
indiscriminada de los bosques.

3.4. Encuesta efectuada a familias de Bogotá, Cali, Medellín y Barranquilla, para


determinar qué oferta médica emplean, sí el mercado científico o el mercado
folklórico.

3.5. Estudio sobre las preferencias electorales de los habitantes de diez ciudades
colombianas para las elecciones de 1990.

3.6. Investigación adelantada en los CEAD de la UNAD para determinar los efectos de
los nuevos métodos de aprendizaje empleados en 1999.

VERIFIQUE SUS RESPUESTAS EN LA PAGINA SIGUIENTE

CLAVE DE RESPUESTAS/AUTOEVALUACION N 4

1 ``porque se trata de investigar como contribuyen a la determinación de un fenómeno


ciertos factores o causas relativamente desconocidas`.

2. 1ª. Definición y operacionalización de los conceptos:


2ª. Diseño del cuestionario de la encuesta;

3ª. Diseño de la muestra:

4ª. Trabajo de campo (prueba previa y aplicación de la encuesta; y 5ª. Registro de los
datos de la encuesta!.

3. 3.1. (D)
3.2. (D)
58

Lección 14. Indicadores de una encuesta

Una vez que el investigador ha definido el problema a estudiar y decide que el método
apropiado para abordarlo es la encuesta, el primer paso que necesariamente tiene que
dar es preguntarse: ¿ qué tipo de DATOS o de información es la pertinente? ¿Qué es lo
que debo observar o evaluar a través de la encuesta?

Las soluciones que se dan a estas cuestiones serán la base para la construcción de las
preguntas de la encuesta, pues es a través de estos estímulos verbales como se logra
que un individuo o conjunto de individuos manifiesten lo que piensan, lo que saben, lo
que consumen, lo que compran o lo que hacen

Las preguntas del cuestionario son el instrumento y la guía de la información que


necesitamos, pero no podemos proceder a ciegas ya que precisamos de un indicio de
los que vamos a preguntar.

COMO SE DISEÑA UNA ENCUESTA: LAS PREGUNTAS

Hasta aquí hemos dado el primer paso fundamental en la construcción y diseño de la


encuesta: hemos traducido las variables del problema de la investigación o de la
hipótesis a indicadores, es decir a referentes empíricos, medibles de alguna manera, que
nos permitirán cuantificar aquellos problemas o hipótesis

Ahora se trata de TRADUCIR LOS INDICADORES A PREGUNTAS

Como se ha hecho una tarea cuidadosa para la elaboración y construcción de


indicadores, no debemos preocuparnos mucho, porque las preguntas ya están
contenidas en gran parte en los indicadores. Por lo demás, cuando se estudio la
entrevista, se examinaron y se aprendió a construir los diferentes tipos de pregunta. La
experiencia en diseñar las preguntas de la entrevista es prácticamente similar a la de las
encuestas. Pero hay diferencias esenciales, que es necesario volver a recordar.

Lo fundamental de una encuesta, reside en que se limita a agotar todas las posibilidades
inherentes a un lenguaje de variables, procurando construir y manejar datos
cuantitativos. El gran problema de la utilización de encuestas es el siguiente: ¿ Cómo
traducir a variables las ideas sobre un problema social determinado?
El problema es de precisión cuantitativa: de ahí que la elaboración de las preguntas
requiera de mucho cuidado y de la ayuda de los indicadores, que son justamente la guía
para la construcción de preguntas exactas.

Ahora bien, ¿ por qué es tan importante la correcta y precisa formulación de las
preguntas de una encuesta?

La razón de ello está en un punto concluyente: en la pregunta tenemos ya de antemano


59

la respuesta. Por eso son muy importantes las preguntas exactas y precisas. La calidad
de la respuesta depende, en alto grado, de la calidad de la pregunta. Preguntas
incoherentes e imprecisas van a recibir respuestas del mismo tenor.

Por lo demás, y en otro plano, una pregunta fuerte, interesante, profunda, comunica a la
respuesta parte de su fuerza, de su interés y de su profundidad. Las preguntas que no
se pueden contestar son aquellas que, hablando en propiedad, no tienen arraigo en nada
ni encuentran punto de apoyo en el pensamiento de quien contesta, el cual, ante la
incoherencia e imprecisión de la pregunta, no sabe qué responder.

Muchas encuestas pierden parte de su eficacia o fracasan del todo, porque las preguntas
han sido elaboradas sin tener en cuenta:

1. Ciertos principios metodológicos generales, y

2.Un conocimiento mínimo del contexto particular en el que se desarrolla la encuesta.

Por ejemplo, la siguiente pregunta no se puede formular lo mismo a un obrero de ciudad


que a un campesino:

¿Si usted piensa en los trabajadores de otros países latinoamericanos, cree usted que
se encuentren más o menos en las mismas condiciones que los trabajadores
colombianos o que, por el contrario, se encuentran en condiciones muy diferentes?

En las mismas condiciones

En condiciones muy diferentes

No sabe

Con seguridad el campesino no va a poder responder la pregunta, pues, aparte de lo


extensa, tiene conceptos e ideas que él no capta claramente, ya que su universo cultural
y de la diversidad de comprensión de los contenidos, es muy diferente de los de
población urbana.

El hombre de la ciudad esta sometido a otros esquemas de abstracción y quizás para él


sea más fácil resolver ese tipo de preguntas, complejas o relativamente complejas. No
sucede así con el campesino, por lo que por incomprensión o malos entendidos, la
encuesta va a estar falseada por una serie de errores.

Este problema de los errores nos conduce a un problema más general:

¿ En que medida algunas técnicas de recolección de datos, como la encuesta,


60

proporcionan información más confiable y segura que otros métodos (la observación, la
entrevista)?.

Dicho de una manera más clara, el diseñador y analista de encuestas deberá afrontar
las siguientes cuestiones, para tratar de disminuir las posibilidades de error:

Hasta dónde es posible inferir, a partir de expresiones verbales (orales o escritas), la


verdadera posición de una persona respecto a algunas actitudes que se están
investigando?

Dice la verdad la gente cuando es encuestada a través de un cuestionario? ¿Hasta


dónde los encuestados dicen, no lo que piensan, sino lo que el encuestador quiere oír?

En que medida es posible inferir lo que una persona dice, lo que piensa? ¿En qué
medida es posible inferir la conducta de una persona a partir de sus expresiones
verbales?

Como se ve, estas preguntas son bastante serias y complejas, y quedaría la impresión
de que la encuesta es una técnica con grandes posibilidades de error. Sin embargo, la
confiabilidad en la recolección de la información aumenta precisamente con la técnica de
la encuesta, pues dispone de una serie de procedimientos y reglas que hacen que los
errores disminuyan, como se verá enseguida.

¿ QUE ES UNA PREGUNTA?

A pesar de que, en lecciones anteriores, ya se ha dado una definición de lo que es una


pregunta, es necesario volver a reflexionar sobre ello, debido a que en la encuesta el
problema de las preguntas es esencial, si se quiere alcanzar una gran precisión
cuantitativa.

Una pregunta, en sentido estricto, es un ESTIMULO verbal (oral o escrito) que crea
imágenes mentales y hace partir procesos mentales en el interrogado, quien produce
una RESPUESTA (Galtung, J. 1968).

Desde el punto de vista técnico, la encuesta es un conjunto de estímulos sistemáticos,


es decir, de estímulos que se mantienen constantes e iguales para todas las unidades de
análisis.
Lo que garantiza que podamos obtener una serie de datos precisos de la encuesta, es
que todos los sujetos o unidades encuentren significativas todas las preguntas.

Per la encuesta es también un conjunto de respuestas sistemáticas, es decir, un


conjunto de categorías de respuesta que se mantiene constante, de manera que las
respuestas d e los sujetos a los estímulos se registran sobre un conjunto determinado de
pre-respuestas o respuestas precodificadas.
61

Respuestas no sistemáticas son aquellas como las de las entrevistas que se toman
textualmente de las respuestas, respetando todas las variaciones individuales posibles.

Atención: No debe entenderse por respuesta sistemática aquella en que se mantienen


constantes las respuestas mismas, pues ello carecería de sentido, al no producir ningún
tipo de información.

Estamos ya en capacidad de dar una definición de la encuesta desde el punto de vista


técnico:

Una encuesta es un conjunto de estímulos sistemáticos aplicados a determinadas


unidades de análisis, sobre la base de un conjunto de respuestas predeterminadas.

Esta es la encuesta en sentido estricto. Pero, como veremos más adelante, ese conjunto
de estímulos sistemáticos puede aplicarse sobre la base de respuestas no sistemáticas,
según las necesidades del contexto donde se realiza la encuesta.

Enseguida examinaremos los principios metodológicos básicos para la preparación del


cuestionario. Tres etapas hay que seguir:

1. definir la naturaleza de las preguntas


a. contenido de las preguntas: sí son preguntas de hecho, proyectivas, de control etc.
b. Grado de libertad de las respuestas: si son respuestas cerradas o respuestas abiertas.

2. Traducir los indicadores a preguntas


3. Disponer las preguntas en el cuestionario

NATURALEZA DE LAS PREGUNTAS

Preguntar es tratar de obtener información acerca de lo que una persona o conjunto de


personas conoce, cree o espera, siente o desea, intenta hacer, hace o ha hecho.
Conviene examinar, así sea rápidamente, la naturaleza de las preguntas que se van a
utilizar.

Preguntas sobre hechos.

Aquellas que proporcionan una información básica del conocimiento que el individuo
tiene acerca de características de sí mismo y de su medio. Por ejemplo, objetivas:

- ¿Cuál es su edad?
- ¿Cuántos años de educación ha cursado?
- ¿ Cuál es su ingreso?
- ¿ Cuál es su ocupación?
62

- ¿Cuál es la producción diaria de leche en la finca?

Preguntas sobre creencias.

Cuando lo que se desea saber no son los hechos objetivos, sino lo que la gente cree u
opina sobre ciertos hechos, proporcionando así un retrato de sus creencias. Por ejemplo,

- ¿Cuál es la cualidad más importante que debe tener un tutor de su Facultad?


- ¿ Qué tan importante considera usted terminar su carrera universitaria?
- ¿ Cuál es la causa que usted cree más importante para alcanzar el éxito profesional?
- ¿ Cómo cree usted se puede solucionar el problema de la baja productividad en el
agro?

Preguntas sobre sentimientos.

Aquellas destinadas a conocer las posibles reacciones emocionales de las personas. Por
ejemplo:

- ¿ piensa que usted es feliz?


- ¿ Se siente usted a menudo deprimido y triste?
- ¿ Está usted satisfecho con su trabajo actual?

Preguntas sobre estándares de acción.

Aquellas que tienen como finalidad conocer la definición individual de una conducta
apropiada, en situaciones sociales diferentes. Por ejemplo:

- ¿Cómo reaccionaría usted ante un delito?


- ¿ Por cuál candidato votaría usted en 1998?
- ¿Influye la presentación de un producto en su preferencia por él?
- ¿Está usted de acuerdo con las políticas estatales respecto al campo?

Preguntas de Control.

Hay dos tipos diferentes. Aquellas en que la respuesta en sí es menos importante que su
significación profunda, considerada como indicio de un hecho u opinión que el individuo
interrogado no quiere revelar directamente. También, aquellas que se emplean para
comparar una respuesta con otra en el mismo cuestionario. Ejemplos de las primeras
son:

- ¿ Cuándo celebra una fiesta en su casa, ¿a quién invita? (para medir integración
social).
- ¿Considera usted que ver TV y oír radio es mejor pasatiempo que la lectura de libros
(para medir el grado de exposición y dependencia respecto a los medios de
comunicación).
63

Respecto al grado de libertad de las preguntas, estas pueden clasificarse en dos tipos
principales:

Preguntas de alternativa fija de respuesta.

Aquellas en las cuales las respuestas de los interesados están limitadas a un número
determinado de alternativas. Por ejemplo:
- ¿ Tiene en su finca tractor propio?

Si_____

No____

- ¿Cuántas horas trabaja usted en su parcela a la semana?

40 ----
entre 20 y 39 ----
menos de 20 horas ----

- ¿ Cuál es el nivel educativo más alto alcanzado por usted?

Analfabeto ___
Primaria ___
Bachillerato Agrícola ___
Bachillerato Clásico ___
Normal ___
Técnica Agropecuaria ___
Técnica Industrial ___
Universitaria ___
Posgrado ___

Preguntas de alternativa abierta.

Son las que están diseñadas para permitir una respuesta libre del interrogado, de tal
manera que no sea limitado por alternativas fijas. Ejemplos:

¿ Qué hace usted los domingos y días de fiesta?

_______________________________________________________________________
_________________________________________________________________

Por qué razones desea usted cambiar de oficio?

____________________________________________________________________
64

____________________________________________________________________

¿ Quiénes son los personajes del mundo científico que usted más admira?

____________________________________________________________________
____________________________________________________________________

¿ Cuáles son los criterios para utilizar preguntas de ALTERNATIVA FIJA o preguntas de
alternativa ABIERTA?

Disposición de las preguntas en el cuestionario

Etapas del trabajo de campo de una encuesta. La prueba previa o piloto

La construcción del libro de código para registrar la información de una encuesta.

Lección 15. Limitaciones de la técnica de la encuesta

No hay duda que la amplia utilización de la encuesta se basa en su capacidad par


obtener informaciones allí donde otros procedimientos no permiten el manejo adecuado
del contexto temático o la captación directa de conocimientos, actitudes y conductas de
conjuntos de personas. Tanto de esta capacidad como de la importancia que se le otorga
dan cuenta los numerosos estudios realizados mediante este método y los que
diariamente se efectúan en casi todos los países del mundo.

Una vez reconocida la situación señalada, es necesario referirse a las también


numerosas críticas que se le formulan, tanto en el plano metodológico o técnico como el
ideológico. A continuación se presentan algunas de las principales objeciones que,
desde nuestro punto de vista, deben ser consideradas dentro de esta técnica de
información primaria.

El método de la encuesta es individualista

La crítica señala la imposibilidad de reconstituir teóricamente la totalidad social a partir


de ciertos datos, sin embargo, esa categoría de totalidad caracteriza a los fenómenos
sociales.

Un aspecto específico que se critica es el hecho de que la forma de expresar mediante


respuestas verbales las creencias, actitudes y conductas, es muy diferente de aquella
que las personas realizan en grupos concretos a los cuales pertenecen. Si una persona
se autoclasifica como perteneciente al tipo A, en términos conductuales puede proceder
conforme al tipo B cuando se encuentra en su grupo de pertenencia. Esta critica ha sido
recogida por la metodología de la encuesta y s ensayan diversos procedimientos par la
corrección del carácter individualista de la información, del análisis integro de grupos
65

sociales pequeños, del análisis contextual, etcétera.

Desde luego, la critica señala características que constituyen la naturaleza misma de la


encuesta, pues por definición, el método esta destinado a recolectar informaciones a
nivel de las personas, de los individuos. A otro nivel de agregación, las caracterizaciones
que se realicen con base en sus datos no pueden equivaler a atributos propios de grupos
sociológicos en el sentido estricto, especialmente en lo que se a su dinámica, es decir,
al comportamiento del grupo (nótese que se emplean términos de la psicología individual
para referirse a los grupos).

Dichas caracterizaciones pueden, es cierto, a puntar a algunos rasgos estructurales, de


composición en situaciones estáticas o de acción en las cuales las personas no están
directamente constreñidas por el grupo directo de de pertenencia, como también puede
reconocerse la posición de las personas en la estructura social (por ejemplo, la acción
de votar, comprar cierto articulo, etc., estudiada a niveles individuales, esclarece algo
acerca de la conducta y las ideologías de las clases sociales.

El método de la encuesta es estático

Como se sabe, por medio de la encuesta se recoge información de un conjunto de


personas en un momento dado. Se dice que equivales a una fotografía “instantánea” de
tal modo que la “imagen” captada corresponde a un tiempo y a un lugar bien
determinado. Conviene señalar que la comparación es valida siempre que no implique
que esa “instantánea “ es un reflejo del fenómeno estudiado, pues para aceptar este
juicio deberíamos pasar sobre la primera objeción: la del carácter individualista de la
formación en oposición a la característica de totalidad de la realidad social.

No se trata solo de una limitación para estudiar procesos, sino que esta limitación puede
inducir a los investigadores a abandonar temas importantes para concentrarse en otros
en los que la encuesta si le resulta de utilidad.
66

En la encuesta se trabaja con formalidades estadísticas

El titulo conlleva a la siguiente crítica: con respecto a cierto tema, mediante la encuesta
se obtienen las respuestas de personas con muy distinto poder dentro de la sociedad.
Muy a menudo sucede que las personas con menos poder- que constituyen la mayoría-
expresan sus opiniones en cierta dirección, sin que ello traiga consecuencias sociales
que muestren la toma en consideración de esas opiniones.

El principio democrático, una persona igual a un voto y el principio del análisis estadístico
es habitualmente el mismo: una tarjeta igual a una cantidad, en que cada individuo tiene
una tarjeta perforada. En principio, esto puede ser valido en sistemas en que cada
individuo cuenta tanto o tan poco como otro, pero no en sistemas con grandes
diferencias, al grado que las características de la gente importan y “ luego”. La encuesta
debe imponer a la sociedad una estructura de opinión que carece de funciones
explicativas y predictivas y, por lo tanto, produce una imagen falsa (Galtung, 1966).

Fuentes de error en la encuesta

Como se menciono en los temas anteriores relacionados con esta técnica conviene tener
presente las numerosas posibilidades de error que pueden afectar la calidad de la
información que se recoja. Esos errores se clasifican en dos tipos principales: errores
propios de la muestra y errores debidos a otras fuentes estos últimos- que pueden ser
mas numerosos y de mayor efecto- están constituidos por los problemas no resueltos o
controlados que se presentan en todas las otras etapas de la encuesta (imperfecciones
del cuestionario, efectos del entrevistador, errores de la codificación, etc.

Capítulo 6. El Muestreo

Lección 16. Conceptos generales

El muestreo es una parte esencial del método científico para poder llevar a cabo la
investigación. En esta guía se pretende básicamente presentar de una manera muy
general concepto de muestreo y su relación con la metodología de la investigación. La
parte de procedimientos estadísticos se contempla en la guía de fase de proyecto de
investigación que hace referencia al análisis y caracterización de la investigación. El
estudiante debe haber cursado la asignatura estadística y / o diseño experimental para
una mejor labor en el análisis de los datos.

Se debe tener en cuenta que toda investigación seria requiere contar desde un principio
con la asesoría de un estadístico o profesional experimentado a fin de que los resultados
de la investigación sean representativos, válidos y confiables. También hay que tener
presente el tipo de investigación o estudio que se va a realizar, ya que cada uno de éstos
tiene una estrategia diferente para su tratamiento metodológico.

El Muestreo es el conjunto de operaciones que se realizan para estudiar la distribución


67

de determinadas características en la totalidad de una población, a partir de la


observación de una parte o subconjunto de la población, denominada muestra. A las
diferentes etapas para seleccionar la muestra se les llama diseños de muestra.

El muestreo, siempre y cuando sea representativo, tiene múltiples ventajas de tipo


económico y práctico, ya que en lugar de investigar el total de la población, se investiga
una parte de ella, además de que proporciona los datos en forma más oportuna, eficiente
y exacta, debido a que al encuestar toda la población o efectuar un censo puede
ocasionar fatiga y prácticas que tienden a distorsionar la información.

Una Muestra es una parte de un colectivo, llamado también población o universo,


seleccionada con la finalidad de describir a este con cierto grado de precisión. Se dice
que una muestra es representativa cuando reproduce las distribuciones y los valores de
las diferentes características de la población y de sus diferentes subconjuntos, con
márgenes de error calculables.

En general, los procedimientos probabilísticos de selección, que comprenden todos y


cada uno de los elementos que componen un colectivo, una probabilidad conocida de
ser seleccionados, distinta de cero, proporcionan muestras representativas en la
acepción señalada..

Existen diversas ventajas al trabajar con una muestra en lugar de hacerlo con todas las
unidades de la población:

1. Ahorro de dinero. Resulta más económico recoger información, digamos, de 800


amas de casa de las 10000 o 12000 que podrían corresponder a la población completa de
un estudio.

2. Ahorro de trabajo. Desde luego, se requerirá de menor número de entrevistadores,


codiciadores, etc., para realizar el trabajo de campo y el procesamiento de la información
lograda.

3. Ahorro de tiempo. Como consecuencia del punto anterior.

A estas ventajas debe agregarse la calidad de los datos. En términos generales la


información recogida mediante una encuesta o una investigación experimental por
muestreo tiene mayor precisión que aquella recogida entre todos los miembros de la
población objeto de estudio. Un menor numero de personas que constituyen la muestra
permite un trabajo de menor calidad, en la medida en que se logre un mayor control en
cada una de las etapas de recolección y tratamiento de los datos. Además, si se utiliza
un procedimiento probabilistico de selección, el investigador estará en condiciones de
fijar por anticipado la magnitud de los errores permitidos y calcular, por tanto, la
precisión de sus estimaciones.

Una población es cualquier grupo de elementos; los elementos son las unidades
68

individuales que componen la población. Mientras que la población se refiere a un grupo


finito, el universo se refiere a sucesos que no tienen limite, infinitos.

La representatividad de la muestra implica que ésta refleje las características, similitudes


y diferencias encontradas en la población. Lograra la representatividad de la muestra
solo es posible en un muestreo aleatorio al azar, pero de ninguna manera es exacta, ya
que lo único que se puede establecer es la probabilidad de no rebasar ciertos márgenes
de error (Error de estimación).

Requisitos de un Muestreo adecuado

Con el fin de que el muestreo proporcione resultados efectivos es necesario tomar en


cuenta lo siguiente:

1. Contar con la asesoría de un estadístico o profesional experimentado para obtener


un diseño de muestreo.

2. La exactitud de la información no solo depende de la aplicación de las fórmulas de


muestreo: la calidad del cuestionario, la capacitación de los entrevistadores, la
supervisión del trabajo de campo y la confiabilidad de la codificación son imprescindibles
para lograrla.

3. las entrevistas y cuestionarios incompletos y la sustitución de los entrevistados porque


el encuestador tiene dificultades para entrevistarlos, dañan la representatividad de la
muestra.

4. El muestreo es solo parte del proceso de investigación, y aunque los resultados que
se obtienen son cuantificables, es necesario analizarlos e integrarlos en relación con el
contexto total de la investigación.

5. En el proceso de muestreo existen dos tipos de errores:

* Errores debido al muestreo o la cota error inherente al método de muestreo.

* Errores no debidos al muestreo o fallas de tipo humano al obtener información, al


procesarla, o de distorsión de instrucciones.

6. A medida que el tamaño de muestra crece, el error tiende a cero.

7. De los diseños de muestra debe elegirse el de mayor precisión al costo mínimo.

Leyes del método de muestreo

El método de muestreo se basa en ciertas leyes que le otorgan su fundamento


69

científico, las cuales son: la ley de los grandes números y el cálculo de probabilidades.

la ley de los grandes números se enuncia así:


Si en una prueba la probabilidad de un acontecimiento o suceso es P1 y si este se
repite una gran cantidad de veces, la relación entre las veces que se produce el suceso
y la cantidad total de pruebas-- es decir la frecuencia F del suceso -- tiende a acercarse
cada vez más a la probabilidad P. Más exactamente, si el número de pruebas es
suficientemente grande, resulta totalmente improbable que la diferencia entre F y P
supone cualquier valor prefijado por pequeño que sea.

la probabilidad de un hecho o suceso es la relación entre el número de casos favorables


(p) a este hecho con la cantidad de casos posibles, suponiendo que todos los casos son
igualmente posibles. El modo de establecer la probabilidad es lo que se denomina
cálculo de probabilidad.

De estas dos leyes fundamentales de la estadística se infieren aquellas que sirven de


base más directamente al método de muestreo, a saber:

* Ley de la Regularidad estadística. Según esta ley, un conjunto de n unidades


tomadas al azar de un conjunto N, es casi seguro que tenga las características del
grupo más grande.

* Ley de inercia de los grandes números. Esta ley es contraria de la anterior. Se


refiere al hecho de que en la mayoría de los fenómenos, cuando una parte varía en una
dirección, es probable que una parte igual del mismo grupo, varíe en dirección opuesta.

* Ley de permanencia de los números pequeños. Los estadísticos la formulan de la


siguiente manera; si una muestra suficientemente grande es representativa de la
población, una segunda muestra de igual magnitud deberá ser semejante a la primera; y
si en la primera muestra se encuentran pocos individuos con características raras, es de
esperar encontrar igual proporción en la segunda muestra.

Lección 17.MARCO DE MUESTREO Y TAMAÑO DE LA MUESTRA

El objetivo mismo de tomar una muestra requiere de un marco muestral apropiado, es


decir, una lista, un conjunto de tarjetas, de mapas, etc., en el cual aparezcan
identificadas las personas o unidades que componen la población del estudio. Por
ejemplo, los registros de alumnos de una universidad podrían ser el marco para tomar
una muestra de ellos.

La calidad del marco es de esencial importancia para la calidad de una muestra. Hay
cuatro problemas básicos que deben tenerse en cuenta al utilizar un marco y que de
darse producen diversos tipos de sesgos:
70

1. Marco insuficiente. Esto significa que el marco no abarca algunos elementos


que forman la oblación definida para el estudio. Desde luego, tales elementos no
tienen ninguna posibilidad de parecer en la muestra, y quedaran subrepresentadas si
la omisión es parcial, y no representadas si la omisión es total.
El uso de un marco incompleto lleva aun grave defecto por dos razones, en primer
lugar, puede ser difícil descubrirlo en el curso mismo de la encuesta; en segundo
lugar, si las personas o elementos omitidos tienen algunas características especiales,
las estimaciones hechas tendrán un sesgo imposible de remediar aun con una
muestra de cualquier tamaño. Por ejemplo, en algunas oportunidades, el marco
puede contener solo algunas de las categorías de unidades de la población definida.
Si se trata de la población total de un colegio, puede disponerse solo de las listas de
alumnos de 3º a 6º grados, con lo cual faltan las de 1º y 2º . Si no hay medios de
completar la información, la muestra podría tomarse del marco establecido, pero,
naturalmente, las estimaciones se referirán solo a ellas y no al total de la población.

2. Duplicaciones. Algunos marcos pueden incluir mas de una vez algunas


unidades. En la medida que tales duplicaciones no puedan ser detectadas
oportunamente, se producirá también un sesgo en los resultados.

3. Marco anticuado. Es posible que el marco no este actualizado, por lo cual puede
contener unidades que ya no pertenecen al universo de estudio ( por ejemplo,
obreros de una fabrica que ya no trabajan en ella), o bien no contener unidades
incorporadas después (nuevos obreros, etc.). Desde luego, un marco anticuado
puede, además, tener otros defectos de los ya indicados.

4. Elementos ajenos. Un marco puede contener unidades que no pertenecen al


universo de estudio. Así, si este se refiere a migrantes rurales hasta con dos años
de permanencia en la ciudad, por equivocación, en el marco o lista de la cual se va a
tomar la muestra, podrían figurar migrantes con mas de ese numero de años de
residencia urbana. Esta por demás decir que el investigador debe tratar de corregir,
en la medida de lo posible, los errores anteriores.

.
El marco muestral incluye todas las unidades muestrales contenidas en la población, es
decir, una lista de unidades muestrales, y éstas son colecciones distintas de elementos
de la población.

Para seleccionar una muestra, lo primero entonces es definir nuestra unidad de análisis-
personas, organizaciones, etc.-
El diseño de la muestra implica tres etapas:

a) Esquema de muestreo. Cómo se va a seleccionar la muestra y que tipo de muestreo


se va a utilizar.
b) Encontrar estimadores.
71

c) Determinar el tamaño de la muestra.

b) establecer el marco muestral, es decir, una lista o registro de todos los miembros de la
población. Dentro de los registros que es posible usar, están los directorios telefónicos,
registros escolares, censos, etc.

TAMAÑO DE LA MUESTRA

Uno de los problemas más difíciles que enfrenta el investigador cuando trabaja con el
muestreo probabilistico es la determinación del tamaño de muestra, ya que el objetivo
primordial al determinarlo es tener información representativa, válida y confiable al
mínimo costo. para obtener más exactitud en la información es necesario seleccionar
una muestra mayor; sin embargo, el sólo hecho de contar con una muestra grande no
garantiza su representatividad.

El tamaño de la muestra estará relacionado con los objetivos de la investigación o


estudio y las características de la población, además de los recursos y el tiempo de que
se dispone. El tamaño absoluto de la muestra y su varianza son los que ejercen mayor
influencia en el error estándar

Etapas para determinar el tamaño de la muestra en el muestreo aleatorio simple, que es


el más usual, son las siguientes:

1. Determinar el nivel de confianza con que se desea trabajar.


X = σ ( o el 66% de confianza - cuyo valor correspondiente en la tabla de la curva
normal o Z es de 1.64.
X = 2 σ ( o el 95% de confianza- cuyo valor correspondiente en la tabla de la curva
normal o Z es de 1.96.
X = 3 σ ( o el 99% de confianza- cuyo valor correspondiente en la tabla de la curva
normal o Z es de 2.58.
El más usual es 2 σ. Pero se puede asumir cualquier valor para el nivel de confianza
entre el 66 y el 99%, para este efecto se consultan los valores correspondientes en la
tabla de Z. Pero como se mencionó antes los valores más usuales están entre el 90 y
95%.

2. Estimar las características del fenómeno investigado. para ello se determina la


probabilidad de que se realice el evento (p) o la de que no se realice (q); cuando no se
posea suficiente información de la probabilidad del evento, se le asignan los máximos
valores:
72

p = .50 q = .50

La suma p + q siempre debe ser igual a 1.

3. Determinar el grado de error máximo aceptable en los resultados de la investigación.


este puede ser hasta del 10%; normalmente lo más aconsejable es trabajar con
variaciones del 2 al 6%, ya que variaciones superiores al 10% reducen demasiado la
validez de la información.

4. Se aplica la fórmula del tamaño de la muestra de acuerdo con el tipo de población.

Infinita. Cuando no se sabe el número exacto de unidades del que esta compuesta la
población.

Finita. Cuando se conoce cuántos elementos tiene la población

Es necesario seleccionar una muestra mayor; sin embargo, el sólo hecho de contar con
una muestra grande no garantiza su representatividad.

Para cada tipo de población se utiliza una fórmula distinta. Para poblaciones infinitas la
formula es:
n = pq / e2

Y para poblaciones finitas la fórmula es:

n = Zº pq N
Neº + Zº pq

En donde:

Z = Nivel de confianza
N = Universo
p = probabilidad a favor
q= probabilidad en contra
e = error de estimación
n = tamaño de la muestra

El error de estimación se utiliza con dos finalidades:

* estimar la precisión necesaria.


* determinar el tamaño de muestra más adecuado.

para calcular el error de estimación con un nivel de confianza del 95% 0 2 (, se aplica la
73

siguiente fórmula:

e = (3.84 pq)
n
En donde:

e = error de estimación
n = número de elementos
p = probabilidad a favor
q = probabilidad en contra

Ejemplo:
Supóngase que el objetivo de nuestra investigación es determinar el número de peces
que debo muestrear de un estanque con 1200 peces, para analizar su contenido
intestinal después que han sido sometidos a una dieta balanceada suplementada con
una enzima. supongamos un nivel de confianza del (95% -- 5%), dadas las
características de la población se utilizará el método probabilístico y el muestreo
aleatorio simple.

Se aplica la fórmula para los distintos valores:


Valores (95% de confiabilidad)
n =?
e = 5%
Z = 1.96 (tabla de distribución normal para el 95% de confiabilidad)
N = 1200
p = .50
q = .50

n = Zº pq N
Neº +Zº pq

Sustitución con el 95% de confiabilidad

n = (1.96 )º (0.50) (1-- 0.50) (1200)


(1200) (0.05)º + (1.96)º (0.50 ) ( 1-- 0.50)

= (3.8416) (0.50) (0.50) (1200)


(1200) (0.025) + 3.8416 (0.50) (0.50)

= 1152.48 = 1152.48 = 291 peces


3 + 0.9604 3.9604
74

Lección 18. Diseños Muestrales-Tipo de muestreo

Según los conceptos básicos expuestos anteriormente, el mayor problema que se debe
resolver al seleccionar una muestra consiste en obtener estimaciones de los valores en
el universo, con la mayor precisión posible, dentro de cierto costo. En otras palabras, se
trata de obtener una muestra representativa de ese universo.

El problema tiene una solución satisfactoria – supongamos que se ha utilizado un marco


muestral apropiado- con el uso de procedimientos de selección probabilísticos, es decir,
con procedimientos que asignen a cada una de las unidades que componen el universo,
una probabilidad conocida- distinta de cero- si esta ha sido incluida en la muestra. De
esta manera, es posible obtener precisiones dentro de márgenes de error y niveles de
confianza previamente establecidos.

Muestreo Probabilistico

Parte de la suposición de que cada elemento de la población tiene la misma probabilidad


de ser seleccionado en la muestra. Este tipo de muestreo es el más adecuado ya que
sus procedimientos son más científicos debido a que se basan en la ley de los grandes
números cálculo de probabilidades. Además, se reduce al máximo los prejuicios de
selección que el investigador pueda tener; así obtendremos muestras no solo mas
representativas, sino para las que se pueda calcular el error estándar de la muestra.

Para estar en posibilidad de elegir una muestra al azar, es necesario:

a) Definir claramente la población con la que se esta trabajando, distinguiendo entre la


población objetivo que es el conjunto de cosas que deseamos medir, y la población
muestreada, que es la que realmente podemos llegar a medir. En otras palabras, se
debe identificar a cada elemento de la población en forma clara y sin ambigüedades.

b) establecer el marco muestral, es decir, una lista o registro de todos los miembros de la
población. Dentro de los registros que es posible usar, están los directorios telefónicos,
registros escolares, censos, etc.

Entre los métodos de muestreo probabilistico tenemos los siguientes :

Muestreo Aleatorio Simple


75

Muestra con distintas probabilidades de selección. Como su nombre lo indica, en este


tipo las unidades de la muestra se seleccionan con distintas probabilidades de inclusión.
Un caso especial de este tipo es la muestra con probabilidad proporcional al tamaño.
Los principales tipos de muestras probabilísticas no son excluyentes entre sí. En la
práctica de la investigación se combinan en diseños complejos de distintas formas (por
ejemplo, muestra de conglomerados con muestra estratificada, etc.). Conviene hacer
notar que a cada una de estas combinaciones le corresponden diferentes procedimientos
de estimación de parámetros, algunos de los cuales plantean difíciles problemas de
cálculo.

Tanto para este tipo de muestra como para los otros señalados, la fracción de muestreo,
que relaciona el tamaño de la muestra y el tamaño de su universo, indica esa
probabilidad de inclusión: dad seleccionada debe tener una cifra de enumeración
comprendida entre 1 y el número asignado a la última unidad del universo.

Estas tablas de números están construidas de tal manera que tanto los dígitos
individuales que la componen como los pares u otros conjuntos de números aparezcan
en ellas con igual frecuencia. De ahí que su uso permita que cada una de las unidades
numeradas en el marco tenga igual probabilidad de inclusión en la muestra.
Como ejemplo presentamos un extracto de una de esas tablas, elaborada por Kendall
y Smith.1

64 75 58 38 85 84 12 22 59 20
10 30 25 22 89 77 43 63 44 30
71 01 79 84 95 51 30 85 03 74
60 01 25 56 05 88 41 03 48 79
37 33 09 46 56 49 16 14 28 02
17 69 61 56 55 95 04 59 59 47
38 11 24 90 67 07 34 82 33 28
66 59 10 28 87 53 76 56 91 49
79 65 59 01 69 78 80 00 36 66
48 27 45 47 55 44 55 36 50 90

' M. G. Kendall y B. B. Smith, Tables of random Sampling Numbers, Cambridge


University Pless, 1939.

Por ejemplo, si tenemos una población de 1000 personas que trabajan en una
fábrica y queremos sacar una muestra de 200, enumeramos a esas personas así:
0001, 0002, 0003... 0456... 0818... 0965... 1000. Al leer la tabla horizontalmente (se
puede leer verticalmente, en diagonal, etc.), si usamos combinaciones de cuatro
76

dígitos, que es el número de dígitos que tiene el total de la población, quedarían


incluidas en la muestra las personas con los números 0374 (tercera fila), 0588
(cuarta fila), 0946 (quinta fila), etc., hasta completar las 200 que constituyen la
muestra, y se rechazan los números de cuatro dígitos superiores a 1000. Si un
número aparece repetido, se elige otro para su reemplazo.
El cálculo de estimaciones tales como medios aritméticos y proporciones se hace
con las formulas:
x = ΣXi
n

p= ΣXi
n
En la ultima fórmula, Xi = 1 cuando el elemento en la muestra tiene la característica
en estudio, y cero si no la tiene.

Como la muestra aleatoria simple permite que cada subclase de la muestra sea
una muestra probabilística de la subclase correspondiente en la población, formula
anteriores también se aplican para hacer estimaciones de esas subclases (por
ejemplo, la proporción del hombre de origen rural).

La fórmula de los errores estándar son las mismas que dimos en el capítulo anterior
a propósito de la presentación de las ideas básicas de la teoría de la muestra, sin el
factor de corrección para poblaciones finitas.

Muestreo al azar no restringido

Es aquel en el que no solo todos los miembros de la población tienen la misma


posibilidad de ser seleccionados para la muestra, sino que después de haber
seleccionado un miembro, este regresa a la población antes de que se haya
designado otro; así, cada miembro puede aparecer en la muestra mas de una vez.
Quizás un ejemplo nos ayude a comprender este tipo de muestreo. Supóngase
que deseamos sacar una muestra de la población de obreros de una fábrica de
maquinaria pesada y queremos utilizar el muestreo al azar no restringido. Así,
elaboramos una lista muy detallada de todos los obreros que trabajan en dicha
fábrica y ponemos los nombres en papelitos, de los cuales sacamos uno al azar,
para designar al primer obrero. Supongamos que fue el obrero “A”; entonces,
antes de sacar el segundo papelito volvemos a poner el que tiene el nombre de
este obrero, de manera que el tenga exactamente la misma oportunidad de ser
seleccionado por segunda ocasión, como los demás obreros que trabajan en la
fabrica.

Muestreo sistemático
77

La selección de las unidades que componen la muestra se realiza mediante


aplicación de cierto intervalo a las unidades de la población. Es también aquel en el
que se emplean determinados intervalos para obtener la muestra. Este el diferente
al muestreo al azar en el sentido de que no podemos considerar que sea
estrictamente al azar, puesto que habiendo determinado el intervalo, los demás
miembros de la población ya no tienen oportunidad de ser seleccionados.

En la muestra sistemática debe prestarse atención a la posibilidad de alejarse de


una selección probabilística debido a algún tipo de periodicidad. Podría suceder
que las unidades de la población estuviesen dispuestas de manera que, a partir
del número inicial, se eligiesen personas o elementos con una misma
característica: por ejemplo, sólo hombres, en un colegio mixto, o niños de una
misma edad o grupo de edad, etc. Algo similar ocurriría si, en el ejemplo
propuesto, en cada grupo de diez niños los primeros cuatro hubiesen sido los de
menor edad. A tal categoría pertenecerían los niños con los nùmeros 2, 6, 10, 14,
18. Se puede evitar esta posible periodicidad cambiando, al azar, cada cierto
tiempo el punto de partida (si no se prefiere apelar a una muestra aleatoria simple).

Este tipo de muestreo tiene desventajas: En primer lugar, el hecho que los
individuos seleccionados dependerán del tamaño del intervalo, así como del
individuo seleccionado con anterioridad. En segundo lugar, el orden que se ha
mantenido al elaborar las listas: orden alfabético, orden de llegada, etc. Lo único
que podemos hacer para solucionar este problema es realizar nosotros mismos
una lista al azar; es decir, sin seguir un orden preestablecido. Así contaríamos con
un muestreo cuasi-al- azar.

Muestreo Estratificado

Implica la clasificación previa de todos los elementos o las unidades que componen
la población de cierto número de estratos. La selección se efectúa en cada uno de
ellos en forma aleatoria o sistemática

Muchas veces resulta sencillo obtener una lista de todas las personas que forman
parte de la población que estamos estudiando; por ejemplo, los miembros de un
club, los alumnos de una escuela, etc. Sin embargo, en algunos estudios este
procedimiento no es tan sencillo, ya que no hay accesibilidad a todo tipo de listas o
no existen listas que cubran a toda la población en cuestión, por lo que debemos
recurrir a otros tipos de muestreo. Uno de ellos es el muestreo por estratos.

La población se divide en estratos o categorías, de los cuales se toma la muestra.


Un ejemplo nos ayudara a aclarar esta idea: si queremos hacer un estudio acerca
de la población de una ciudad utilizando un método de muestreo simple, seria poco
probable que existiera un registro de todos los habitantes de la misma; en cambio,
78

un muestreo estratificado resultaría mucho mas útil porque seria mas fácil
encontrar registros por colonias, delegaciones, etc.; es decir, por estratos. Así, la
ciudad se dividiría en colonias que serian los estratos, de los cuales se haría un
muestreo de población.

Algunas veces la población ya esta “naturalmente” subdividida en estratos, tales


como los grados escolares de una escuela, las carreras en las universidades, etc.
Sin embargo, hay ocasiones en que nosotros, como investigadores, tenemos que
elaborar los estratos. Por ejemplo, si los objetivos de nuestra investigación
requieren que los alumnos de una escuela primaria, en vez de estar divididos por
grados escolares, sean divididos según sus religiones, sus coeficientes
intelectuales u otros aspectos, nosotros tendremos que llevar a cabo la
estratificación correspondiente. Entre los posibles criterios o factores de
estratificación se cuentan la edad, el sexo, la ocupación, etc. O cualquier otro que
sea relevante en el problema de investigación.

De este tipo de muestreo por estratos se deriva otro, que es el de multiestratos, en


el cual la población se divide en estratos que a su vez se subdividen en otros, y así
sucesivamente, hasta que el material permita elaborar la muestra. Volviendo al
ejemplo de la población de la cuidad dividida en colonias, una vez delimitado un
grupo de colonias se procede a obtener una muestra de casas, y a partir de estas
se hace una lista de las personas que viven en cada casa, con el fin de elaborar la
muestra final.

Este muestreo, aunque es muy valioso desde el punto de vista practico, implica un
mayor grado de error que el muestreo aleatorio simple, puesto que en cada paso
que se realice para determinar los estratos y para obtener la muestra de los
mismos, se pueden cometer errores.

Por otro lado tiene algunas ventajas, como el hecho de que a priori podamos
pensar que los elementos que forman un estrato serán mas homogéneos entre si
que los que conforman la población en general; es decir, que los niños de primer
año de primaria se parecerán mas entre si que si los comparamos con la población
de toda la escuela primaria.

Otra ventaja consiste en que el margen de error se puede controlar debido a que
se tiene un gran numero de estratos, aunque también se cuenta con un menor
numero d elementos para muestrear dentro de cada estrato. En una ciudad, como
ya lo ejemplificamos, los diversos estratos estarían formados por delegaciones,
colonias, manzanas, casas y, finalmente, personas. Así contaremos con un gran
numero d estratos, pero con un menor numero de elementos, lo cual facilita la
concreción de la muestra.
79

Recomendaciones para el uso de diseños estratificados

1. Si se dispone de mas de una variable para formar estratos deben


preferirse variables no correlacionadas entre si. Por ejemplo, si hay una alta
correlación entre ingresos y años de estudio, bastaría cualquiera de ellas para
definir los estratos.
2. Si se dispone de una variable cualitativa y de otra cuantitativa, es preferible
utilizar, en la estratificación, la primera.
3. acerca del numero de estratos, pocos de ellos (3 a 5, máximo) dan,
generalmente, reducciones apreciables en el error de muestreo buscadas con la
estratificación.
4. los estratos pequeños contribuyen poco a la reducción del error estándar ya que
tal reducción es proporcional a la importación del estrato.

5. Generalmente, los diseños no proporcionales de alocaciòn óptima no son


económicos para estimar proporciones, ya que la fracción óptima de muestreo es
proporcional a la desviación estándar:

√ P1 (1- P1)
Y esta experimenta solo pequeños cambios para valores P1 que están entre 0 – 1
y 0 – 9.
6. Si se aplican distintas fracciones de muestreo, resulta conveniente evitar
fracciones complicadas (2/3, 5/7, etc.).

Conviene aproximar las fracciones m as simples y, en lo posible, a múltiples


enteros entre ellas (½, ¼, etc.).

7. La mayoría de las potenciales ganancias de la estratificación pueden lograrse


mediante el empleo de pocas fracciones. A veces solo dos son suficientes: una
fracción baja para el estrato con más elementos y una fracción alta para un estrato
con menos.

Esta última puede llegar a ser igual a 1. Así también se elimina ese estrato como
fuente de error.

Muestreo probabilistico proporcionado al tamaño

Si en el muestreo estratificad cada estrato tiene la misma cantidad de elementos, es


relativamente sencillo extraer una muestra de los mismos mediante un muestreo
simple; por ejemplo, si tenemos 10 estratos y sabemos que cada estrato tiene 100
elementos, entonces podemos obtener mediante un muestreo simple, 10 elementos
de cada estrato. Sin embrago, las cosas pueden complicarse cuando el numero de
80

elementos que conforman cada estrato es diferente. Por ejemplo, si tenemos


estratos de 25 y de 100 elementos, de este tipo de muestreo se tiene que realizar
de tal manera que el número de elementos seleccionados de cada estrato, se
relaciones con el tamaño de este. Para ello se procede de la siguiente manera:
cada estrato se selecciona en proporción al numero de elementos que lo forman
(desde luego tenemos el problema de que los estratos mas numerosos tendrán mas
probabilidades de ser seleccionados); después se extrae de cada estrato el mismo
numero de elementos, o sea, que el tamaño de los estratos solo se tiene en
cuenta en el primer paso de este tipo de muestreo.

Utilizando este método tenemos que, independientemente del estrato al que


pertenezca, cada elemento tiene las mismas probabilidades de ser seleccionado.

Hasta aquí hemos estudiado métodos de muestreo, partiendo de a base de que


cada elemento de la muestra tendrá la misma probabilidad de ser elegido; sin
embargo, es muy importante que tengamos en cuenta que sucede si queremos
obtener una muestra cuando tenemos dos grupos d e una población en la cual el
tamaño de estos dos grupos es muy diferente ( por ejemplo, grupos rural y urbano)
y sabemos de antemano que la población no esta distribuida equitativamente en
estos tipos de poblaciones, sino que por cada miembro de población urbana hay 4
miembros de población rural. Para solucionar esto, podemos darle un “peso”
determinado a cada miembro de la población; si la proporción es 1 a 4, el miembro
de la población urbana tendrá un “peso” de 4 y el miembro de la población rural de
1. Esto es valido con tal que el investigador este consciente y analice las muestras
por separado.

Existen algunos métodos que pueden utilizarse para establecer el peso de los
elementos cuando se trata de muestras desproporcionadas. La forma mas sencilla
de hacerlo consiste en analizar los datos, y dependiendo del peso que se le de,
puede repetirse el dato las veces que se determine por el peso asignado. Para
ejemplificar esto podemos volver al caso anterior, en el cual por cada miembro de
población urbana hay 4 de población rural. Se podrían entonces repetir cuatro
veces los datos de población urbana y solo una vez los datos de población rural. Si
contamos con una computadora, podría elaborarse un programa especial que
determinara el peso de cada dato que obtengamos. Este tipo de muestreo es
bastante complicado, por lo que si el estudiante decide llevarlo a cabo debe
consultar bibliografía mas especializada al respecto.

MUESTREO NO PROBABILÍSTICO

Este tipo de muestreo como su nombre lo indica, se basa en el criterio o


apreciaciones del investigador, lo cual puede presentar una desventaja. También
se le llaman muestras dirigidas, suponen un procedimiento de selección informal y
un poco arbitrario. Aún así estas se utilizan en muchas investigaciones Las
81

unidades de muestreo no se seleccionan por procedimientos al azar; se utilizan por


razones de costo

Lección 18. Métodos de muestreo no probabilistico son:

Muestreo propositivo

Este tipo de muestreo se emplea cuando no es necesario que la muestra


realmente represente a toda la población. Por ejemplo, cuando queremos realizar
un estudio de una población especifica- como serian los maestros redeterminada
escuela, acerca de los cuales queremos conocer sus actitudes con respecto algún
objeto, acción o persona; y el total de maestros es de cinco, no necesitamos sacar
una muestra

Muestra Estratificada Proporcional

Para presentar este diseño, supóngase que deseamos tomar una muestra
estratificada proporcional de 200 estudiantes de un colegio de 1000 alumnos. Para
esto podemos dividir los estudiantes en tres estratos, utilizando como criterio de
estratificación el grado o curso.

Primer estrato: 1º y 2º grados 560


Segundo estrato 3º y 4º grados 290
Tercer estrato: 5º y 6º grados 150
Total 1000

La fracción total de muestreo es: f = 200/1000 = 1/5


82

De acuerdo con la definición, aplicamos a cada estrato la misma fracción de 1/5, lo


cual equivale a distribuir las unidades de la muestra (los 200 casos que constituyen
su tamaño) en proporción a los estratos del universo o a la población:

Determinación del
Estratos en Tamaño de los estratos Estratos en
la población muestrales la muestra

I 560 560 x 1/5 112

II 290 290 x 1/5 58

III 150 150 x 1/5 30

1000 200

Una vez determinado el número de casos que se tomaron en cada estrato, aquellos
se seleccionan mediante el procedimiento indicado para tomar una muestra
aleatoria simple o para tomar una muestra sistemática.

Debido al hecho de usar una misma fracción de muestreo en todos los estratos, la
muestra estratificada proporcional es una muestra autoponderada, lo cual quiere
decir que al calcular medios aritméticos, proporciones, etc., a nivel de toda la
muestra, se suman los valores pertinentes en todos los estratos, y se utilizan las
mismas formulas que rigen la muestra aleatoria simple.
La formulas para los errores estándar de los medios aritméticos y de las
proporciones son las siguientes:

Error estándar de un medio aritmético:

Fórmula en la cual:
/ = Fracción de muestreo.
sh = Desviación estándar de la variable en el estrato h-iésimo.
nh — Tamaño del estrato h-iésimo.
n = Tamaño total de la muestra.
E = Suma para todos los estratos.
83

Muestra estratificada no proporcional

En algunas ocasiones la distribución de las unidades de la población en estratos se


realiza con el deliberado propósito de obtener resultados separados para ciertos
subgrupos del universo que pueden tener especial interés dentro de la
investigación. Tales subgrupos reciben el nombre de dominios de estudio; los
cálculos que se hacen en ellos no impiden, naturalmente, realizar estimaciones a
nivel de toda la muestra.

En la situación anterior puede suceder que algunos de los estratos de la muestra


quede con muy pocos casos al aplicar en los estratos correspondientes del universo
una misma fracción de muestreo (piénsese en un estrato con
10 casos al cual se le aplica una fracción de -r-r-: daría tan sólo 1 caso). Si la dea
es, entonces, hacer estimaciones en cada uno de ellos con una precisión
establecida, el investigador se verá obligado a utilizar diversas fracciones de
muestreo que, según el tamaño de los estratos, podrán llegar a ser igual a 1, lo cual
equivale a tomar 100 % de las unidades de esos estratos del universo.

procedimiento de selección de una muestra estratificada con fracciones variables


de muestreo es similar al utilizado en el anterior diseño: en cada uno de los estratos
previamente definidos se aplica la fracción calculada o elegida que da el número de
casos por seleccionar en ellos. Desde luego, los estratos con mayor número de
casos tendrán fracciones de muestreo menores, y viceversa.

Ejemplo de cálculo
Una población de 5000 personas se estratificó en tres estratos de 3000, 1200 y
800 personas, de los cuales se tomaron muestras con fracciones de muestreo de:

1/10, 1/5, ¼,

que dieron un total de 740 casos: 300, 240 y 200, respectivamente.


Un 15 % en el primer estrato de la muestra, 25 % en el segundo y 40 % en el
tercero contestó "sí" a cierta pregunta. Calcular: a] La proporción de "sí" en el total
de la muestra, b) el error estándar de esa proporción.
a] Cálculo de la proporción: - : .. .

p= 1/5000 (300 X 15 + 1200 X 25 + 800 X 40 )


p = 21.4 % (0.214).

b) Cálculo del error estándar. . .. .


84

Se calcula primero la varianza (error estándar al cuadrado):

(300/5000)2 ( 1 – 1/10) 15 X 85/ 299 + (240/5000)2 (1- 1/5) X 25X 75/239


+(200/5000) 2 (1- ¼) 40X 60/199

= 0.138 + 0.0144 + 0.0145

enseguida se extrae la raíz cuadrada para obtener el error estándar:

E.S. = V 0.0427 = 0.2 % (0.02)

MUESTRA POR CONGLOMERADOS

En los diseños expuestos hasta el momento hemos seleccionado las unidades de la


muestra una tras otra a partir de la población en estudio. Generalmente, sin embargo,
puede considerarse que una población está compuesta de un conjunto de grupos, cada
uno de los cuales tiene más de una unidad de la población. Tal grupo recibe el nombre
de conglomerado (cluster). La muestra por conglomerado es aquella en la cual la unidad
de muestreo está constituida por conglomerados de unidades o elementos.

Los conglomerados de una población pueden ser agrupaciones naturales o artificiales.


Un ejemplo del primer caso son los cursos de un colegio, grupos de trabajo, manzanas
de una población, pueblos, etc. Los conglomerados artificiales los forma el investigador
según necesidades prácticas o de otro tipo. Así, una lista de 1000 personas puede ser
dividida artificialmente en 50 grupos de 20 cada uno. Cualquiera que sea el caso, el
investigador debe asegurarse de que cada elemento sólo pertenece a uno de los
conglomerados definidos.

Comparada una muestra de elementos con una muestra por conglomerados, se


encuentra que:
a) El costo por elemento es menor en la muestra por conglomerados, debido a la menor
dispersión geográfica de la muestra (así, por ejemplo, es más económico aplicar una
prueba a una muestra de 10 cursos de 40 alumnos cada uno, que aplicar 400 pruebas a
estudiantes seleccionados individualmente, como también entrevistar a 4 familias en una
manzana que a una familia en 4 manzanas).

b) El error estándar es mayor en la muestra por conglomerados.


En algunas circunstancias, la muestra por conglomerados es la única posibilidad factible
de seleccionar una muestra. Ejemplo: la selección de personas en una ciudad se puede
hacer eligiendo manzanas o bloques al azar; de lo contrario se requeriría una lista de
todos los habitantes de esa ciudad.
85

MUESTRA CON CONGLOMERADOS DE IGUAL TAMAÑO

Aun cuando no es fácil que el investigador encuentre una población distribuida


naturalmente en conglomerados del mismo tamaño, puede lograrse una situación
parecida mediante la confección artificial, ya sea a partir de la división de una lista en
cierto número de segmentos de igual tamaño, el plano de una comunidad en bloques
con igual número de viviendas, etcétera.

Supongamos que un colegio tuviese distribuidos sus 1000 estudiantes en 40 cursos,


cada uno de ellos con 25 estudiantes y se desea tomar una muestra de 250 alumnos.
El procedimiento es el siguiente: se calcula la fracción de muestreo con la fórmula
habitual:

250
1000

La fracción calculada indica que debe tomarse — de los conglomerados


que hay en la población, lo que da 10 cursos. Como se ve, a razón de 25 alumnos por
curso se obtiene un total de 250, definido como el tamaño total de la muestra. La
selección de los 10 conglomerados se efectúa en forma aleatoria o por selección
sistemática.

EFECTOS DEL DISEÑO POR CONGLOMERADOS


El hecho de que la muestra por conglomerados "incida" en menos puntos de la población
de lo que haría un diseño que seleccione los elementos en forma no agrupada, produce,
la mayoría de las veces, una varianza (error de maestreo) mayor que la que se obtendría
con una muestra aleatoria simple del mismo tamaño. Tal efecto se debe a que los
elementos de la población agrupados en conglomerados tienden a ser más parecidos
entre ellos en comparación con los elementos de otros conglomerados (por ejemplo, los
alumnos de un curso comparados con los alumnos de otros). La medida de esta
homogeneidad la da el coeficiente intraclase rho.

Es posible demostrar que aun con pequeños valores (poca semejanza entre los
elementos del conglomerado) el efecto en el tamaño de la varianza es considerable. Por
ejemplo, si rho tuviera un valor tan bajo como O o 1 y el tamaño de los conglomerados
fuera de 25 elementos, la varianza de la muestra por conglomerados (error de muestreo)
sería 2.5 veces mayor que la que tendría una muestra aleatoria simple de igual tamaño.

La situación señalada permite dar dos importantes sugerencias para tomar muestras por
conglomerados. En primer lugar, a diferencia de la muestra estratificada, donde se trata
de formar estratos lo más homogéneos posible, aquí debe buscarse la situación opuesta,
es decir, la heterogeneidad. Por otro lado, se tendrá una reducción de la varianza si se
toma un número mayor que menor de conglomerados. Dentro de este propósito, un
86

muestreo de varias etapas, en cada una de las cuales se seleccionan conglomerados de


menor tamaño respecto del anterior, tiene este efecto de reducción del error de muestreo

MUESTRA DE ETAPAS MÚLTIPLES


Los conglomerados construidos o definidos, inicialmente llamados unidades primarias de
maestreo, pueden ser divididos en grupos menores que reciben el nombre de unidades
secundarias de muestreo, las cuales, a su vez, pueden ser subdivididas en
conglomerados menores. La subdivisión se repite hasta un nivel que el investigador
considere apropiado.
A la muestra en que se hace uso de dos o más niveles de conglomerados se le
denomina muestra de áreas; en ella, los conglomerados son unidades geográficas
seleccionadas sucesivamente. Así, en una muestra de este tipo, las unidades primarias
podrían ser los estados, provincias o departamentos que constituyen políticamente un
país, para continuar con ciudades estratificadas según su tamaño, después con
manzanas y viviendas para terminar con la selección de una persona en las viviendas
elegidas.

MUESTREO CON PROBABILIDAD PROPORCIONAL A LAS MEDIDAS DEL


TAMAÑO

Al presentar la muestra de conglomeración de diferentes tamaños, aclaramos que el


investigador no podía controlar el tamaño final de la muestra por anticipado, ya que no
sabía cuáles de los conglomerados de la población, cada uno con distintos números de
elementos, quedarían seleccionados.
Una manera de resolver el problema anterior consiste en seleccionar las unidades
primarias de muestreo -conglomerados, en este caso- con probabilidades proporcionales
a su tamaño. Esto quiere decir que si una unidad tiene un número de elementos dos
veces mayor que otra, entonces su probabilidad de ser incluida en la muestra debe ser el
doble de la primera; posteriormente, si de cada conglomerado así elegido se selecciona
un mismo número de elementos o de personas, se mantendrá la misma probabilidad
total de selección para cada una de ellas.

Para aplicar este diseño se requiere conocer, desde un principio, el número de unidades
que componen cada conglomerado (por ejemplo, el número de viviendas que tiene cada
manzana de una localidad), información no siempre disponible ni actualizada. De ahí
que, en la práctica, para superar esa situación se modifique este diseño de tal modo que
la selección se efectúe con probabilidades proporcionales a las medidas de tamaño y no
a los tamaños de los conglomerados. Así, si una manzana de determinada población
tiene 30 viviendas y otra 63, entonces la primera recibe un dígito (por ejemplo, el número
1) y la segunda dos dígitos (por ejemplo, los números 2 y 3) como probabilidad de
selección. Es fácil advertir que si se utiliza una tabla de números aleatorios para
seleccionar las manzanas que compondrán la muestra, la manzana con 63 viviendas
tiene una doble probabilidad de selección (de aparecer en la tabla) respecto de la
manzana con 30 viviendas, que sólo tiene un dígito de selección.
87

Si el investigador desea tomar en la primera etapa de selección un número fijo de


conglomerados, se puede seguir el mismo procedimiento anterior, sólo con la
modificación de que el total de la población acumulada se divide entre el número de
conglomerados que se desea tomar. El resultado de esta división es el intervalo de
selección. Entre él y el número 1 se elige un número al azar que sirve de punto de
partida para empezar a elegir la muestra.

Los diseños expuestos hasta aquí corresponden a tipos probabilísticos en los cuales
todos y cada uno de los elementos de la población elegida como objeto empírico de la
investigación tiene una probabilidad conocida distinta de mentos elegidos por el
entrevistador de acuerdo con ciertas instrucciones, pero sin que se determine al azar la
conformación final de la muestra.

Las cuotas de personas por entrevistar se definen con uno o más atributos o controles
elegidos entre variables independientes relevantes a los objetivos del estudio, como
pueden ser el sexo, la edad, el nivel de instrucción, la ocupación, etc. El tamaño relativo
de estas cuotas se determina con datos externos aplicables al universo de estudio tales
como informaciones censales, resultados confiables de otros estudios, etc. Así, según el
censo, se podrá decir que deben ser entrevistados un número igual de hombres que de
mujeres, que en ambos grupos deberá haber 3 % de personas con educación
universitaria, etc., además de otras especificaciones o controles.

MUESTREO POR CUOTAS

Los diseños expuestos hasta aquí corresponden a tipos probabilísticos en los cuales
todos y cada uno de los elementos de la población elegida como objeto empírico de la
investigación tiene una probabilidad conocida distinta de elementos elegidos por el
entrevistador de acuerdo con ciertas instrucciones, pero sin que se determine al azar la
conformación final de la muestra.

Las cuotas de personas por entrevistar se definen con uno o más atributos o controles
elegidos entre variables independientes relevantes a los objetivos del estudio, como
pueden ser el sexo, la edad, el nivel de instrucción, la ocupación, etc. El tamaño relativo
de estas cuotas se determina con datos externos aplicables al universo de estudio tales
como informaciones censales, resultados confiables de otros estudios, etc. Así, según el
censo, se podrá decir que deben ser entrevistados un número igual de hombres que de
mujeres, que en ambos grupos deberá haber 3 % de personas con educación
universitaria, etc., además de otras especificaciones o controles.
88

UNIDAD III
DISEÑOS EXPERIMENTALES DE INVESTIGACION:
EXPERIMENTOS “VERDADEROS” PREXPERIMENTOS Y CUASIEXPERIMENTOS

Introducción:

Las investigaciones tienen como objetivo comprobar que una determinada variable
independiente es la que provoca cambios concomitantes en la variable dependiente del caso,
los cuales se demostrarán con base en los cambios de su variable independiente. En otras
palabras, deben demostrar que la variable independiente explica los cambios de la variable
dependiente. Por otro lado, deben estar en condiciones de verificar que los resultados
obtenidos en una muestra pueden ser generalizados a la población de la cual ella procede.
Tales exigencias valen para las investigaciones experimentales propiamente Dichas y las
cuasi experimentales.

Objetivos :
Comprender las diferencias entre investigación experimental y la investigación no
experimental
Analizar los diferentes diseños experimentales y sus grados de validez.
Comprender los conceptos de validez interna y validez externa
Realizar experimentos validos
Evaluar experimentos que hayan sido realizados.

.
CAPITULO 7 Diseños Experimentales de Investigación

Lección 19. Aspectos generales Diseño de investigación, Diseño experimental, contexto

Aspectos generales:
La experimentación consiste en el estudio de un fenómeno, reproducido generalmente en
un laboratorio, en las condiciones particulares de estudio que interesan, eliminando o
introduciendo aquellas variables que puedan influir en él. Se entiende por variable todo
aquello que pueda causar cambios en los resultados de un experimento y se distingue entre
variable independiente dependiente y controlada
La propiedad particular de la definición es 'controlada'. La variable independiente es un
evento que se incorpora al experimento y se quiere ver cómo influye en la variable
dependiente, que no es sometida al evento y todo con relación a un ítem que se está
investigando. Ambas variables o grupos se llaman experimentales y de control. Se mide la
característica antes y después del evento. Un estudio longitudinal con un panel, que es un
grupo de personas representativas del hábitat y de dimensión muestral adecuada, a las
cuales se le aplica un cuestionario en espacios de tiempo continuados, es un experimento
controlado por las variables que se estudian: cambios en los hábitos de compra, evolución
de los valores humanos, influencias de un cambio social, impacto de la información, etc.
89

En un experimento concreto se tiene la hipótesis de que las personas que son bien
informadas sobre los motivos de la inmigración son más propensas a no tener prejuicios,
como discriminación hacia los inmigrantes o xenofobia. A un grupo se le expone información
y al otro no, y después se mide el grado de xenofobia, antes y después. La técnica, en
general, es para estudios donde intervengan variables que tengan propiedades de
retroalimentación y considerada ésta como axioma más que hipótesis. Éste es el efecto
observable de que los hechos sociales 'aprenden' en el espacio temporal e incorporan lo
aprendido, con lo que sería un hecho social nuevo.
Sí que sería aplicar estas teorías a los hechos sociales actuales pero incluso a hechos
pasados, que en su percepción éstos pueden ser modificados por los historiadores,
manejando otras fuentes y con el cambio de su misma imaginación personal. Por ejemplo, 'la
leyenda negra de la inquisición' debería ser preescrita y 'cambiada', como así mismo el
discurso de la historia actual es experimentable: los cambios en una comunidad a la que se
le van introduciendo nuevos requerimientos con nuevos personajes, por ejemplo, y
observando un hecho social concomitante, etc.
El experimento y sus contextos

La investigación puede definirse en forma amplia como el estudio sistemático de un sujeto con el
fin de descubrir nuevos hechos o principios. El procedimiento para la investigación se conoce
generalmente como método científico, el cual, aunque difícil de definir con precisión,
usualmente contiene los siguientes elementos:
1. Hechos observados. Se dice que la ciencia empieza con la observación, a través de
la cual se establecen diversos factores.

2. Hipótesis. La consideración del conjunto de hechos acerca de un sujeto conduce al


establecimiento de una hipótesis- una idea provisoria de cómo los hechos han de ser
interpretados y explicados.

3. Experimento. El experimento es un ensayo destinado a probar la validez de la


hipótesis propuesta.

4. Resultados y su interpretación. Los resultados del experimento establecen hechos


adicionales. La interpretación de estos nuevos hechos a la luz de lo ya conocido, conduce al
apoyo, rechazo o alteración de la hipótesis y de ese modo volvemos nuevamente a través de
la misma serie de pasos.

El experimento Se considera también como un instrumento de investigación utilizado para


descubrir algo desconocido o para probar un principio o una hipótesis. Es un importante paso
del método científico, y las preguntas que este aspira a contestar serán fundamentalmente
para el apoyo o rechazo de una hipótesis.
90

Contextos de los Experimentos

En la literatura sobre la investigación del comportamiento se ha distinguido entre dos contextos


en donde puede tomar lugar un diseño experimental: Laboratorio y campo. Así, se habla de
experimentos de laboratorio y experimentos de campo. Kerlinger (1975), define al
experimento de laboratorio como : Un estudio d investigación en el que la varianza
“(efecto)” de todas o casi todas las variables independientes influyentes posibles no
pertinentes al problema inmediato de la investigación se mantiene reducida “(reducido – el
efecto--) en un mínimo”. El mismo autor define el experimento de campo como: “un estudio d
investigación en una situación realista en la que una o mas variable independientes son
manipuladas por el experimentador en condiciones tan cuidadosamente controladas como lo
permite la situación “.

La diferencia esencial entre ambos contextos es la “realidad” con que los experimentos se
llevan a cabo, el grado en que el ambiente es natural para los sujetos. Por ejemplo, si
creamos salas para ver televisión y las acondicionamos de tal modo que se controle el ruido
exterior, la temperatura y otros distractores. Además, incluimos equipo de filiación oculto. Y
llevamos—por ejemplo—a los niños para que vean programas de televisión previamente
grabados, estamos realizando un experimento de laboratorio (situación creada
“artificialmente”). En cambio, si el experimento se lleva a cabo en el ambiente natural de los
sujetos (su escuela, fábrica donde trabajan, hogar etc.), se trata de un experimento de
campo. Pero en ambos casos se lleva a cabo un experimento, siempre y cuando se
manipule intencionalmente una variable independiente.

Los experimentos de laboratorio generalmente logran un control más riguroso que los
experimentos de campo (Festinger, 1975; Kerlinger 1975), pero estos últimos suelen tener
mayor validez externa. Ambos tipos de experimentos son deseables.

Algunos han acusado a los experimentos de laboratorio de “artificialidad”, de tener poca validez
externa, pero como argumenta Kerlinger (1975): los objetivos primarios de un experimento
verdadero son descubrir relaciones (efectos) en condiciones “puras” y no contaminadas,
probar predicciones de teorías y refinar teorías e hipótesis. Y comenta: “Realmente, es difícil
saber si la artificialidad es un debilidad o simplemente una característica neutral de las
situaciones experimentales de laboratorio. Cuando se prepara deliberadamente una
situación de investigación para excluir las muchas distracciones del medio, es quizás lógico
designar a la situación con un término que exprese parte del resultado que se busca. La
critica de la artificialidad proviene de los experimentadores, quienes saben que las
situaciones experimentales son artificiales; proviene de individuos que carecen de una
comprensión de las metas de los experimentos de laboratorio”.

Festinger (1975) señala (al responder a la critica de “artificialidad”): “Esta critica requiere ser
evaluada, pues probablemente sea consecuencia de una equivocada interpretación de los
fines del experimento de laboratorio. Un experimento de laboratorio no necesita, y no debe,
constituir un intento de duplicar una situación de la vida real. Si se quisiera estudiar algo en
91

una situación de este tipo, seria bastante tonto tomarse el trabajo de organizar un
experimento de laboratorio para reproducir dicha situación. ¿Por qué no estudiarla
directamente? El experimento de laboratorio debe tratar de crear una situación en la cual se
vea claramente como operan las variables en situaciones específicamente identificadas y
definidas. El hecho de que pueda encontrarse o no tal situación en la vida real no tiene
importancia. Evidentemente, nunca puede encontrase en la vida real la situación de la
mayor parte de los experimentos de laboratorio. No obstante, en el laboratorio podemos
determinar con exactitud que medida de una variable determinada afecta la conducta o
actitudes en condiciones especiales o “puras”.

¿Qué es un diseño de investigación?


Una vez definido el tipo de estudio a realizar y establecer las hipótesis de investigación, el
investigador debe concebir la manera práctica y concreta de responder a las preguntas de
investigación. Esto implica seleccionar o desarrollar un diseño de investigación y aplicarlo al
contexto particular de su estudio. Diseño se refiere al plan o estrategia concebida para
responder a las preguntas de investigación. El diseño señala al investigador lo que debe
hacer para alcanzar sus objetivos de estudio, contestar las interrogantes que se ha
planteado y analizar la certeza de las hipótesis formuladas en un contexto en particular.

Si el diseño está concebido, el producto final de un estudio tendrá mayores posibilidades de


ser válido. No es lo mismo seleccionar un tipo de diseño que otro; cada uno tiene sus
características propias. La precisión de la información obtenida puede variar en función del
diseño o estrategia elegida.
. Diseño Experimental. Es el procedimiento que se sigue para asignar los tratamientos a las
unidades experimentales. Es un método aleatorio, o sea, de asignación al azar, porque se
decide el tratamiento que corresponde a cada unidad experimental mediante un sorteo o por
medio de una tabla de números aleatorios.
Tipos de diseños para investigar el comportamiento humano
El autor de este curso no considera que un tipo de investigación sea mejor que otro
(experimental versus no experimental). "Los dos tipos de investigación son relevantes y
necesarios, tienen un valor propio y ambos deben llevarse a cabo". La elección sobre qué
clase de investigación y diseño específico debemos seleccionar, depende de los objetivos
trazados, las preguntas planteadas, el tipo de estudio a realizar (exploratorio, descriptivo,
correlacionad o explicativo) y las hipótesis formuladas.

Lección 20. Experimento: Definiciones, características de un experimento bien


planeado, pasos y requisitos de un experimento “puro”

Definiciones:
92

. ¿Qué es un Experimento?
Existen diferentes definiciones de la palabra experimento. Para Steel y Torrie (1990) un
experimento es “una búsqueda planeada para obtener nuevos conocimientos o para
confirmar o no resultados de experimentos previos, lo que ayuda a tomar decisiones
administrativas, tales como la recomendación de una variedad, un procedimiento o un
pesticida”.

Tales experimentos caen aproximadamente dentro de tres categorías, esto es,


preliminares, críticos, y demostrativos, cada una de las cuales puede llevar a otra. En
un experimento preliminar, el investigador prueba un numero grande de tratamientos
con el objeto de obtener indicios para futuros trabajos; la mayoría compara las
respuestas a diferentes tratamientos usando un numero suficiente de observaciones
de las respuestas para tener seguridad razonable de detectar diferencias significantes.

Los experimentos demostrativos se llevan a cabo cuando los trabajadores de extensión


comparan uno o más tratamientos con un patrón. En este modulo, nos interesamos
casi completamente en el tipo de experimentos críticos. En tal experimento, es
necesario que definamos la población a la cual se ha de aplicar las inferencias, que
diseñemos el experimento en concordancia con eso, y que hagamos medidas de las
variables bajo estudio.

Se dispone cada experimento para proporcionar respuestas a una o más preguntas.


Con esto en mente, los investigadores deciden que comparaciones de tratamientos
proporcionaran una información relevante. Entonces realizan un experimento para
medir o probar hipótesis que tienen que ver con diferencias entre tratamientos en
condiciones comparables. Toman mediciones y observaciones sobre el material
experimental. A partir de la información obtenida en un experimento que se ha
completado con éxito, responden a las preguntas planteadas al comienzo

Según el ICA (1972) El experimento es un proceso por el cual se trata de obtener


información que aumente los conocimientos sobre un área especifica de la ciencia,
que sirve para someter a prueba una o varias hipótesis especificas, mediante la
observación y medición de variables cuandoo se han modificado las condiciones
naturales”.

Para (Padrón 1996) “El experimento es el conjunto de reglas usadas para obtener una
muestra de la población y al concluir el ensayo obtener información acerca de la
población”

Little y Jackson (1980) afirman que “el experimento es un elemento de investigación


utilizado para descubrir algo desconocido, o para probar un principio o una hipótesis.
Es un caso importante del método científico, ya que las preguntas que el experimento
pretende contestar serán fundamentalmente para apoyar o rechazar una hipótesis”.
93

Para el estadístico, el experimento es un conjunto de reglas usadas para sacar la


muestra de una población. Esto hace que la definición de la población sea lo más
importante. El conjunto de regla es el procedimiento experimental o diseño de
experimento. Por ejemplo, el uso de observaciones no pareadas y pareadas son
diseños experimentales para experimentos de dos tratamientos.

El experimento se considera también como un instrumento de investigación utilizado


para descubrir algo desconocido o para probar un principio o una hipótesis. Es un
importante paso del método científico, y las preguntas que este aspira a contestar serán
fundamentalmente para el apoyo o rechazo de una hipótesis

Características de un experimento bien planeado:


La planeación de los diseños experimentales debe tener algunas características como:

1. Simplicidad. La selección de los tratamientos y la disposición experimental deberá


hacerse de la forma más simple posible.

2. Grado de precisión. El experimento deberá tener la capacidad de medir diferencias


entre tratamientos con los grados de precisión que desee el investigador.

3. Ausencia de error Sistemático. Se debe planear un experimento con el propósito


de asegurar que las unidades experimentales que reciban un tratamiento no difieran
sistemáticamente de aquellas que reciben otro tratamiento, procurando de esta manera
obtener una estimación insesgada del efecto de tratamientos.

4. Rango de validez de las conclusiones. Este deberá ser tan amplio como sea
posible. Los experimentos que contribuyen a aumentar el rango de validez del
experimento son los experimentos replicados y los experimentos con estructuras
factoriales.

.5. Calculo del grado de incertidumbre. En todo experimento existe algún grado de
incertidumbre en cuanto a la validación de las conclusiones. El experimento deberá ser
concebido de modo que sea posible cal calcular la probabilidad de obtener resultados
observados debidos únicamente al azar.

Pasos de un experimento

PASOS PARA LA EXPERIMENTACION

CONOCIMIENTO
DISPONIBLE

OBSERVACION
94

1. Definición del problema. El primer paso en la resolución de un problema consiste


en establecer clara y concisamente el problema con que estamos tratando (para
mayor información remitirse al formato del anteproyecto de investigación). Si el
problema no puede definirse, hay muy pocas probabilidades de que este sea resulto
95

alguna vez. Cuando el problema se ha comprendido, debemos ser capaces de formular


preguntas que, una vez contestadas, conduzcan a la solución.

2. Determinación de los objetivos. Estos pueden ser la forma en que las preguntas
serán contestadas, la hipótesis que se va a comprobar o los efectos que se deben
estimar. Los objetivos deberán redactarse en términos precisos
dado este paso, el experimentador esta capacitado para planear mas efectivamente sus
procedimientos experimentales. Cuando hay mas de un objetivo, debemos ordenarlos e
acuerdo a su importancia, como si tuvieran un lugar en el diseño experimental. Al
establecer los objetivos debemos evitar la vaguedad o exceso de ambigüedad de los
planteamientos.

3. Análisis crítico del problema y de los objetivos. La racionalidad y utilidad de las


metas del experimento deberán considerarse cuidadosamente a la luz del estatus actual
del conocimiento acerca del problema. ? Son los objetivos del experimento realmente
importantes para la solución del problema ¿

La selección de un procedimiento ara la investigación depende, en gran medida, del


objeto de estudio en que la investigación esta siendo conducida. Así como los objetivos
de la investigación. La investigación puede ser descriptiva y contemplar una encuesta
por muestreo, o puede contemplar un experimento o una serie de experimentos
controlados. Algunas de las siguientes consideraciones, o todas estarán incluidas en el
procedimiento para la mayoría de las áreas de investigación.

4. Selección de Tratamientos. El éxito del experimento reside en la cuidadosa


selección de tratamientos, cuya evaluación responderá a las preguntas que tengamos.
5. Selección del material experimental. En la selección del material experimental,
considérese los objetivos del experimento, así como la población sobre la cual se harán
las inferencias. El material utilizado deberá ser representativo de la población sobre la
cual deseamos probar nuestros tratamientos.

6. selección del diseño experimental. Nuevamente, aquí es importante hacer una


consideración de los objetivos; pero una regla general podría ser elegir el diseño más
simple que parece brindar la precisan requerida por nosotros.

7. Selección de la unidad de observación y él numero de repeticiones. Para


experimentos de campo, con plantas, estos medios determinan el tamaño y la forma de
las parcelas de campo. Para experimentos con animales, estos medios determinan él
numero de animales que han de ser considerados como una unidad experimental. La
experiencia de otros experimentos similares es de incalculable valor para l toma de tales
decisiones. El tamaño de la parcela y él numero de repeticiones deberán ser elegidos
para obtener la precisión requerida en la estimación de los tratamientos.

8. Control de los efectos entre unidades adyacentes. Esto suele llevarse a cabo a
través de la utilización de callejones de demarcación y mediante la selección aleatoria de
96

tratamientos.

9. Consideración acerca de los datos que se van a recabar. Los datos recabados
deberán evaluar apropiadamente los efectos del tratamiento, de acuerdo con los
objetivos del experimento; además, se deberá brindar atención a la recolección de datos
que explica el desempeño de los tratamientos.

10. esbozo del análisis estadístico y del resumen de los resultados. En el análisis de
varianza, anótense las fuentes de variación y los grados de libertad asociados.
Inclúyanse las diversas pruebas F que se planearon. Considérense como pueden
utilizarse los resultados y prepárense posibles tablas de resumen o gráficas que
muestren los efectos esperados. Compárense estos resultados esperados con los
objetivos del experimento, a fin de verificar si el mismo suministrará las respuestas
buscadas.

A estas alturas es conveniente que todos estos puntos sean revisados por un
estadístico, así como por uno o más colegas. La revisión realizada por otros puede
revelar aspectos que pasaron inadvertidos. Ciertas alteraciones o ajustes pueden
enriquecer grandemente el experimento, así como posibilitar un aprovechamiento mas
completo del trabajo que se va a realizar.

11. Conducción del experimento. En la conducción del experimento, aplíquense


procedimientos libres de sesgos personales o favoritismos. Aplíquese el diseño
experimental para recabar datos, de modo que las diferencias entre individuos o las
diferencias asociadas con el orden de recolección puedan ser removidas del ERROR
experimental. Evítese la fatiga en el acopio de datos. Vuélvanse a comprobar
inmediatamente las observaciones que parecen fuera de lugar. Organícense la
recolección de datos para facilitar el análisis y para evitar errores al recopilarlos. Si es
necesario copiar los datos, compruébense inmediatamente los números copiados con los
originales.

12. Análisis de los datos e interpretación de los resultados. Todos los datos deberán
analizarse cuantitativa y cualitativamente tal como fueron planeados; los resultados sé
deberán interpretar a la luz de las condiciones experimentales; se comprobara la
hipótesis y deberá definirse la relación de los resultados con los hechos previamente
establecidos. Recuérdese que la estadística no demuestra nada y que existe siempre
una probabilidad de que las conclusiones puedan ser erróneas. Por tanto, considérense
las consecuencias de tomar una decisión incorrecta. Evítese legar a una conclusión, aun
cuando esta sea estadísticamente significativa, si la misma aparece fuera de lugar con
respecto a hechos previamente establecidos. En este caso debe investigarse
exhaustivamente el asunto.

13. elaboración de un completo, legible y correcto informe de la investigación. No


existen resultadas negativos. Si la hipótesis nula no se rechaza es una evidencia positiva
97

de que puede no existir verdaderas diferencias entre los tratamientos sometidos a


prueba. Nuevamente recúrrase a los colegas y sométanse las conclusiones al tamiz de
sus opiniones.
Nótese que la mayoría de los pasos anteriores no son estadísticos; sin embargo, el
análisis estadístico constituye una parte importante de la experimentación. La ciencia
estadística ayuda al investigador a concebir su experimento y evaluar objetivamente los
datos numéricos resultantes. Como experimentadores, muchos de nosotros tendremos el
tiempo o la tendencia a trasformarnos en biometristas competentes; pero todos podemos
aprender y practicar las reglas básicas de la experimentación:

1. Repetición. Esta es la única forma que seremos capaces de medir la validez de


nuestras conclusiones en un experimento.

2. selección aleatoria. El análisis estadístico depende de la asignación de tratamientos a


las parcelas en una forma aleatoria, puramente objetiva.

3. Cooperación. Búsquese ayuda cuando existan dudas acerca del diseño, la ejecución o
el análisis de un experimento. No se espera que seamos expertos estadísticos, pero
debemos saber lo suficiente para entender los importantes principios de la
experimentación científica, para estar alertas a los engaños más comunes y solicitar
cooperación cuando la necesitemos

Lección 21. Variables independientes y dependientes en un experimento

Variable Independiente:
Es la que se considera como supuesta causa en una relación entre variables, es la
condición antecedente; y al efecto provocado por dicha causa se le denomina variable
dependiente (consecuente).
Como se menciono en la hipótesis, el investigador puede considerar dentro de su estudio
dos o más variables independientes.

Grados de manipulación de la variable independiente


La manipulación o variación de una variable independiente puede llevarse a cabo en dos
o más grados. El nivel mínimo de manipulación es dos: presencia-ausencia d la variable
independiente. Cada nivel o grado de manipulación implica un grupo en el experimento

Presencia-ausencia
Implica que un grupo se expone a la presencia de la variable independiente y el otro no
. Luego los dos grupos son comparados para ver si el grupo que se expuso a la variable
independiente difiere del grupo no expuesto a esta. El grupo que se expone a la
presencia de la variable independiente se le conoce como “grupo experimental” y al
grupo en el cual esta ausente dicha variable se le denomina “grupo de control”. Aunque
en realidad ambos grupos participan en el. Experimento. A la presencia de la variable
independiente muy frecuentemente se le llama “tratamiento experimental” o “estimulo
experimental”. Es decir, el grupo experimental recibe el tratamiento o estimulo
98

experimental o lo que es lo mismo, se le expone a la variable independiente; mientras


que el grupo control no recibe el tratamiento o estimulo experimental.

En general, puede afirmarse en un experimento que, si en ambos grupos todo fue “igual”
menos la exposición a la variable independiente, es muy razonable pensar que las
diferencias entre los grupos se deban a la presencia-ausencia de la variable
independiente.

Mas de dos grados

En otras ocasiones, se puede hacer variar o manipular la variable independiente en


cantidades o grados. Por ejemplo, en el caso del análisis del posible efecto del contenido
antisocial por televisión sobre la conducta agresiva de ciertos niños, podría hacerse que
un grupo se expusiera aun programa de televisión sumamente violento (con presencia
de violencia física verbal y no verbal – golpes, asesinatos, insultos muy fuertes, etc.-); un
segundo grupo se expusiera a un programa medianamente violento (únicamente con
violencia verbal- insultos menos fuertes-), y un tercer grupo se expusiera a un programa
pro social. En este ejemplo, se tendrían tres niveles o cantidades de la variable
independiente, lo cual puede representarse de la siguiente manera:

X1 (Programa sumamente violento)


X2 (Programa medianamente violento)
__ (ausencia de violencia, programa prosocial)

Manipular la variable independiente en varios niveles tiene la ventaja de que no solo se


puede determinar si la presencia de la variable independiente o tratamiento experimental
tiene un efecto, sino también se puede determinar si distintos niveles de la variable
independiente tienen diferentes efectos. Es decir, si la magnitud del efecto (Y) depende
de la intensidad del estimulo(X , X , X , etcétera). Ahora bien, ¿cuantos niveles de
variación deben ser incluidos? Una respuesta exacta no puede darse, solamente que
debe haber al menos dos niveles de variación y ambos tendrán que diferir entre si.

¿Como se define la manera en que se manipularan las variables independientes?

Al manipular una variable independiente es necesario especificar que se va a entender


por esa variable en nuestro experimento. Es decir, trasladar el concepto teórico en un
estimulo experimental, en una serie de operaciones y actividades concretas a realizar. Si
la variable independiente es la orientación principal del profesor hacia la autonomía o
control, debemos definir que comportamientos concretos, filosofía, instrucciones al
grupo, presentación, personalidad, etcétera, debe Mostar cada tipo de profesor (y
analizar sus diferencias). Si la variable independiente es el tipo de psicoterapia recibida
99

(y se tienen tres tipos, esto es, tres grupos), debemos definir muy específicamente y con
lujo de detalles en que va a consistir cada psicoterapia.

Dificultades para definir como se manipularan las variables independientes

En ocasiones resulta difícil trasladar el concepto teórico (variable independiente) en


operaciones practicas de manipulación (tratamientos o estímulos experimentales). Por
ejemplo, si se busca analizar el efecto de utilizar distintas apelaciones publicitarias
para promover medicamentos- emotivas versus racionales- sobre la predisposición para
comprar los, la variable independiente podría operacional izarse de la siguiente manera:
se elabora un comercial de televisión sobre un medicamento en particular, en el cual e
argumento de venta es que se trata de un producto que ha sido sometido a pruebas
científicas de laboratorio y que demostró su efectividad, además, de que es
recomendado por tal y tal asociación medica (apelaciones racionales); y se elabora otro
comercial cuyo argumento de ventas es que el medicamento es tradición en muchas
familias y desde nuestros abuelos se utilizaba (apelación emotiva). Los modelos de
ambos tipos de comerciales son los mismos, los dos son a color, duran 30 segundos y
en fin, la única diferencia es la apelación, tanto en el nivel verbal como en el no verbal .
Un grupo se expone a la manipulación racional y el otro a la emotiva, por lo demás las
condiciones de exposición son similares, y después se analiza el impacto de la
manipulación en la variable dependiente. Manipular la paga (cantidades de dinero
otorgadas), la retroalimentación, el reforzamiento, y administración de un medicamento
no es tan difícil.

Sin embargo, a veces es sumamente complicado presentar el concepto teórico de la


realidad, sobre todo con variables internas, variables que pueden tener varios
significados o variables que sean difíciles de alterar. La socialización, la cohesión, la
conformidad, el poder, la motivación individual y la agresión son conceptos que requieren
de un enorme esfuerzo por parte del investigador para ser operacional izados.

Guía para sortear las dificultades

Para definir como se va a manipular una variable es necesario:


1. Que se consulten experimentos precedentes para ver si en estos resulto la forma de
manipular la variable.

2. Que se evalué la manipulación antes de que se conduzca el experimento


Hay varias preguntas que el experimentador debe hacerse apara evaluar su
manipulación antes de llevarla a cabo: ¿Mis operaciones experimentales representan la
variable conceptual que tengo en mente?.,¿Los diferentes niveles de variación de la
variable independiente harán que los sujetos se comporten diferente?(Christensen,
1980).
3. Que se incluyan verificaciones para la manipulación.
Cuando se utilizan seres humanos hay varias formas de verificar si realmente funciono la
100

manipulación (Christensen, 1980).

Variable Dependiente:
Por usarte, la variable dependiente no se manipula, sino que se mide para ver el efecto
de la manipulación de la variable independiente sobre ella. Esto podría esquematizarse
de la siguiente manera:

Manipulación de la variable Medición del efecto sobre la variable


Independiente dependiente
Xa Y
Xb
.
.

.
Las letras” a, b… “indicarían distintos niveles de variación de la independiente.

¿Cuántas variables independientes y dependientes deben incluirse en un


experimento?
No hay reglas para ello: depende de cómo haya sido planteado el problema de
investigación, y las limitaciones que se tengan. Por ejemplo, el investigador que estaba
interesado en analizar como afecta el utilizar apelaciones emotivas versus racionales
en comerciales televisivos sobre la predisposición de compra d e un producto, solamente
se interesa en este problema, entonces tiene una única variable independiente y una
sola dependiente. Pero si a el también le interesara analizar el efecto que tenga el
utilizar comerciales en blanco y negro versus en color, entonces agregaría esta variable
independiente y l manipularía. Tendría dos variables independientes y una dependiente,
y cuatro grupos: A) Grupo expuestos apelación emotiva y comercial en blanco y negro,
B) grupo expuesto apelación emotiva y comercial en color, C) grupo expuesto a
apelación racional y comercial en blanco y negro, D) grupo expuesto a apelación racional
u comercial en color. O podría agregar una tercera independiente: duración de los
comerciales, y una cuarta: realidad de los modelos del comercial (personas vivas en
contraposición a caricaturas) y así sucesivamente. Claro esta que, conforme se
aumenta el número de variables independientes, aumentan las manipulaciones que
deben hacerse y el numero de grupos requeridos para el experimento. Y entraría en
juego el segundo factor mencionado (limitantes), a lo mejor no puede conseguir las
suficientes personas para tener el número de grupos que requiere o el presupuesto para
producir tantos comerciales.

CAPITULO 8 La validez en la experimentación- otros experimentos

Lección 22. Validez Externa e Interna

VALIDEZ EXTERNA
101

Un experimento debe buscar ante todo validez interna, es decir, confianza en los
resultados. Si no se logra, no hay experimento verdadero. Lo primero es eliminar las
fuentes que atentan contra dicha validez. Pero la validez interna es solo una parte de la
validez de un experimento, en adición a ella es muy deseable que el experimento tenga
validez externa.
La validez externa tiene que ver con que tan generalizables son los resultados de un
experimento a situaciones no experimentales y a otros sujetos o poblaciones. Por
ejemplo, si hacemos un experimento con métodos de aprendizaje y los resultados
pueden generalizarse a la enseñanza cotidiana en las escuelas de educación básica, el
experimento tendrá validez externa.

De acuerdo con Campbell y Stanley, la validez externa de una investigación


experimental o cuasiexperimental es la propiedad que pueden tener los resultados
encontrados en un estudio de ser generalizados a otras poblaciones diferentes de
aquella en la cual se obtuvieron esos resultados. En otras palabras, la validez externa es
el grado de representatividad de los resultados obtenidos en la investigación
experimental o en la investigación cuasiexperimental. Según esos autores (págs. 17-18),
los principales factores que amenazan la validez externa son los que se describen a
continuación:

1. Efecto reactivo o de interacción de las pruebas. Es la interacción que se podría


producir entre los efectos de la administración de la prueba y los resultados que
obtendrían los sujetos y los efectos de la variable independiente, propiamente como tal.
En palabras de los autores citados, ese efecto se produce ".cuando un pretest podría
aumentar o disminuir la sensibilidad o la calidad de la reacción del participante a la
variable experimental, haciendo que los resultados obtenidos para una población con
pretest no fueran representativos de los efectos de la variable experimental para el
conjunto sin pretest del cual se seleccionaron los participantes experimentales".

2. Efecto de la interacción entre el factor de selección y la variable experimental.


Este efecto se puede producir cuando se trabaja con una muestra que no es
representativa de una población determinada. En el experimento de laboratorio se puede
encontrar un efecto de la variable independiente sobre la dependiente, pero no encontrar
ese efecto en la población del caso.
3. Efectos reactivos de los dispositivos experimentales. Estos efectos pueden
producirse cuando los resultados obtenidos en una situación experimental no se
producen en la vida cotidiana, en situaciones no experimentales. Tales efectos se
explicarían porque los sujetos en la situación experimental se comportan de una manera
que ellos consideran adecuada para el experimento que se está realizando. Un ejemplo
de efecto reactivo es el llamado efecto Hawthorne, denominado así porque fue
constatado en una investigación sobre factores que influían en la productividad en el
trabajo en una fábrica de la localidad de Hawthorne, en Estados Unidos.

4. Interferencias de múltiples variables independientes. Este efecto invalidante de la


validez externa se puede producir cuando en un experimento se utiliza más de una
102

variable independiente. Los efectos de la primera pueden persistir y mezclarse con los
efectos que pueda producir una segunda variable, sin que sea posible separar
claramente sus efectos

VALIDEZ INTERNA
Es una medida de la precisión de un experimento, es decir, si la manipulación de la/s
variable/s independiente/s ocasionó la variación en la variable dependiente o bien si hay
variables extrañas que están afectando la relación que se pretende verificar. Las
variables extrañas que pueden afectar la validez interna de un experimento son:

Como se logra el control y la validez Interna

El control en un experimento logra la validez interna, y el control se alcanza


mediante:
1) Varios grupos de comparación (dos como mínimo) y 2) equivalencia de los grupos
en todo, excepto la manipulación de la variable o variables independientes.

1. Varios Grupos de comparación


Es necesario que en un experimento se tengan por lo menos dos grupos que comparar.
En primer termino, porque si nada mas se tiene un grupo, no se puede saber si
influyeron las fuentes de invalidación interna o no. Por ejemplo, si mediante un
experimento buscamos probar la hipótesis de que : “A mayor información psicológica
sobre una clase social, menor prejuicio hacia esta clase”; y decidimos tener un solo
grupo en el experimento. Este grupo se expondría a un programa televisivo donde se
proporcione información sobre la manera como vive dicha clase, su angustias y
problemas, necesidades, sentimientos, aportaciones a la sociedad, etcétera; para luego
observar el nivel de prejuicio. Este experimento podría esquematizarse así:
Momento 1 Momento 2

Exposición al programa Observación del nivel de


Televisivo prejuicio

2. Equivalencia de los grupos


Para tener control no basta con tener dos o mas grupos, sino que estos deben ser
similares en todo, excepto la manipulación de la variable independiente. El control
implica que todo permanece constante menos esta manipulación. Si entre los grupos que
conforman el experimento todo es similar o equivalente, excepto la manipulación de la
independiente, diferencia entre los grupos pueden atribuirse a ella y no a otros factores
(entre los cuales están las fuentes de invalidación interna)

Equivalencia inicial
Implica que los grupos son similares entre si mismos al momento de iniciarse el
experimento. Por ejemplo, si el experimento es sobre métodos educativos, los grupos
103

deben ser equiparables en cuanto a numero de personas, inteligencia, aprovechamiento,


disciplina, memoria, sexo, edad, nivel socioeconómico, conocimientos previos, estado de
salud física y mental, interés por los contenidos, extroversion, etcétera. Si inicialmente no
son equiparables- digamos- en cuanto a motivación o conocimientos previos, diferencias
entre los grupos no podrán ser atribuidas con certeza a la manipulación de la variable
independiente. Queda la duda si las diferencias se deben a dicha manipulación o que
los grupos no eran inicialmente equivalentes

La equivalencia inicial no se refiere a equivalencia entre individuos, porque las personas


tenemos- por naturaleza- diferencia individuales; sino a las equivalencias entre grupos
(conjunto de individuos). Si tenemos dos grupos en un experimento, es saludable que
habrá – por ejemplo – perdonas muy inteligentes en un grupo, pero también debe
haberla en el otro grupo. Si en un grupo hay mujeres, en el otro debe haberlas en la
misma proporción.. Y así con todas las variables que puedan afectar a la variable
dependiente o dependientes – además de la variable independiente-.
Equivalencia durante el experimento

Además, durante el experimento los grupo deben mantenerse similares en los aspectos
que rodean el tratamiento experimental excepto – como ya se ha mencionado – en la
manipulación de la variable independiente: mismas instrucciones (salvo variaciones
parte de esa manipulación), personas con las que tratan los sujetos, maneras de
recibirlos, lugares con características semejantes, (iguales objetos en las habitaciones o
cuartos, clima, ventilación, sonido ambiental, etcétera), misma duración del experimento,
mismo momento , y en fin todo lo que sea parte del experimento
Entre mayor sea la equivalencia durante el desarrollo de este, mayor control y
posibilidad de que si encontramos o no efectos podamos estar seguros de que
verdaderamente los hubo o no.

¿Como se logra la equivalencia inicial?: Asignación al azar

Existe un método ampliamente difundido para alcanzar dicha equivalencia que se conoce
como “asignación aleatoria o al azar d e los sujetos a los grupos del experimento. La
asignación aleatoria o al azar nos asegura probabilisticamente que dos o mas grupos son
equivalentes entre si. Es un técnica de control que tiene como propósito proveer al
investigador la seguridad de que variables extrañas, conocidas o desconocidas, no
afectaran sistemáticamente los resultados del Studio (Christensen, 1981). Esta técnica
debida a Sir Ronald Fisher en los años cuarenta ha demostrado durante años y pruebas
que funciona para ser equivalentes a grupos.

¿Como se logra la equivalencia inicial?: Emparejamiento

El emparejamiento o apareo es un segundo método o técnica para intentar hacer


inicialmente equivalentes a los grupos. Existen diversas modalidades de este método, sin
embargo, el mas común es el que a continuación se va a describir. El proceso consiste en
igualar a los grupos en relación con alguna variable especifica, que se piensa puede influir
en forma decisiva a la variable dependiente o variables dependientes.

El primer paso es elegir a esa variable de acuerdo con algún criterio teórico.
104

El segundo paso consiste en obtener una medición de la variable elegida para emparejar
a los grupos.

El tercer paso consiste en ordenar a los sujetos en la variable sobre la cual se va a


efectuar el emparejamiento ( de las puntuaciones mas altas a las mas bajas)

El cuarto paso es formar parejas de sujetos según la variable de apareamiento (las


parejas son sujetos que tiene la misma puntuación en la variable o una puntuación
similar) e ir asignando a cada integrante de cada pareja a los grupos del experimento,
buscando un balance entre dichos grupos

La asignación al azar es la técnica ideal para lograr la equivalencia inicial

Como método para hacer equivalentes a los grupos es superior (mas preciso y
confiable). El emparejamiento no es un sustituto de esta técnica. El emparejamiento no
puede suprimir o eliminar el posible efecto de la variable apareada, pero nonos
garantiza que o otras variables (no apareadas) no vayan a afectar los resultados del
experimento.

FACTORES QUE ATENTAN CONTRA LA VALIDEZ INTERNA

Son ocho las principales variables externas que pueden atentar contra la estructura
interna del diseño, alterando su validez, se encuentran a continuación:

Historia. Los acontecimientos que pueden haber ocurrido entre la primera y la segunda
medición de la variable dependiente y que pueden actuar en conjunto con los cambios
de la variable independiente.
1. Historia. Son los acontecimientos ambientales, climatológicos o físicos que se
presentan desde que empezamos hasta que acabamos una investigación. Entre
estas figuran temblores, fallas de luz, calor excesivo, falta de espacio, etc. Esta
situación puede controlarse introduciendo un grupo control al que no se le da ningún
tratamiento experimental y un grupo control al que si se le introduce de manera tal
que se puedan comparar ambos grupos.
2. Maduración. Procesos biológicos y psicológicos aparecen en las personas por el mero
paso del tiempo y que pueden interferir el efecto de la variable independiente.
3. Administración de las pruebas. Influencia de la administración de una prueba en los
resultados de la aplicación de la misma prueba o de otra en un momento posterior.
4. Instrumentación. Cambios en los instrumentos de medición o en los observadores o
calificadores que pueden producir cambios en los resultados finales.

5. Regresión estadística. Es el efecto que opera cuando se han seleccionado los grupos de
estudio con base en sus puntajes extremos.
6. Selección diferencial de los participantes. Factor que puede actuar cuando los grupos a
comparar no son equivalentes en las características de sus participantes.

7. Mortalidad experimental. Pérdida del número de participantes en uno o más de los


grupos a comparar, factor especialmente importante si las pérdidas de uno de los
grupos son diferentes en sus características de los del otro.
105

8. Interacción. Entre la selección y la maduración, entre la selección y la historia.


Interacciones como esas pueden confundir el efecto de la variable experimental, es
decir, de la variable independiente.

Lección 23. Preexperimentos


Se llaman así, porque su grado de control es mínimo
1. Estudio de caso con una sola medición
Este diseñó podría diagramarse de la siguiente manera:
G X O

Consiste en administrar un estímulo o tratamiento a un grupo y después aplicar una


medición en una o más variables para observar cuál es el nivel del grupo en estas
variables.
Este diseño no cumple con los requisitos de un "verdadero" experimento. No hay
manipulación de la variable independiente. El diseño adolece de los requisitos para
lograr el control experimental: tener varios grupos de comparación. No se puede
establecer causalidad con certeza. No se controlan las fuentes de invalidación interna.
2. Diseño de preprueba-postprueba con un solo grupo
Este segundo diseño se puede diagramara así:
G O1 X O2

A un grupo se le aplica una prueba previa al estímulo o tratamiento experimental:


después se le administra el tratamiento y finalmente se le aplica una prueba posterior al
tratamiento.

El diseño ofrece una ventaja sobre el interior, hay un punto de referencia inicial para ver
qué nivel tenía el grupo en la(s) variable (s) dependientes antes del estímulo. Es decir,
hay un seguimiento del grupo. Sin embargo, el diseño no resulta conveniente para fines
científicos: no hay manipulación ni grupo de comparación y además varias fuentes de
invalidación interna pueden actuar. Por ejemplo, la historia. Entre O1 y O2 pueden
ocurrir muchos otros acontecimientos capaces de generar cambios, además del
tratamiento experimental (Campbell y Stanley, 1966), y entre mayor sea el lapso entre
ambas mediciones mayor será también la posibilidad de que actué la historia.
Asimismo, entre O1 y O2 puede presentarse la maduración (fatiga, aburrimiento, etc.).
Por otro lado, se corre el riesgo de elegir a un grupo atípico o que en el momento del
experimento no se encuentre en su estado normal. Puede presentarse la regresión
106

estadística y diversas interacciones que se mencionaron (interacción entre selección y


maduración, por ejemplo). Asimismo, puede haber un efecto de la preprueba sobre la
postprueba. En este segundo diseño Tampoco se puede establecer con certeza la
causalidad.
Los dos diseños reexperiméntales no son adecuados para el establecimiento de
relaciones entre la variable independiente y la variable dependiente o dependientes.
Son diseños que han recibido bastante crítica en la literatura experimental, y con justa
razón porque son débiles en cuanto a la posibilidad de control y validez interna.
Considero que su uso debe restringirse a que sirvan como ensayos de otros
experimentos con mayor control. Es decir, si alguien piensa efectuar un experimento
en forma (utilizando algunos d e los diseños con “experimentos ¨verdaderos” y
“cuasiexperiementos”), y tiene alguna dudas sobre el estimulo ola manera de
administrar las mediciones (por ejemplo, como reaccionaran los sujetos al estimulo ,
cuanto tiempo pueden concentrarse en el experimento o como debe ser dada una
instrucción); puede – primero – ensayar el experimento mediante un diseño
preexperimental (hacer una prueba piloto) y - después - llevar a cabo su experimento
utilizando un diseño mas confiable.
Asimismo, en ciertas ocasiones los diseños preexperimentales pueden servir como
estudios exploratorios, pero sus resultados deben observarse con precaución.
De ellos no pueden sacarse conclusiones seguras de investigación. Abren el camino,
pero de ellos deben derivarse estudios más profundos.
Desafortunadamente en la investigación comercial, los diseños reexperiméntales se
utilizan con mayor frecuencia de la que fuera deseable. Algunos investigadores de
mercado – por ejemplo - toman a un grupo, lo exponen aun comercial televisivo y
miden la aceptación del producto o la predisposición de compra, si esta es elevada
deducen que se debió al comercial. Lo mismo ocurre con programas de desarrollo
organizacional, introducción de innovaciones, métodos de enseñanza, etc. Se hacen
juicios aventurados y afirmaciones superficiales.

Lección 24. Experimentos verdaderos y otros experimentos

Los experimentos “verdaderos” son aquellos que reúnen dos requisitos para lograr el
control y la validez interna: 1) grupos de comparación (manipulación de la variable
independiente o de varias independientes) y 2) equivalencia de los grupos.
Los diseños “auténticamente” experimentales pueden abarcar una o mas variables
independientes y una o mas dependientes. Asimismo, pueden utilizar prepruebas y
pospruebas para analizar la evolución de los grupos antes y después del tratamiento
experimental. Desde luego, no todos los diseños experimentales utilizan prepruebas,
pero la posprueba es necesaria para determinar los efectos d e las condiciones
experimentales (Wiersma, 1986)
107

1. Diseño con posprueba únicamente y grupo de control

Este diseño incluye dos grupos, uno recibe el tratamiento experimental y el otro no(grupo
de control). Es decir, la manipulación de la variable independiente alcanza sólo dos
niveles: presencia y ausencia. Los sujetos son asignados a los grupos de manera
aleatoria. Después de que concluye el periodo experimental, a ambos grupos se les
administra una medición sobre la variable dependiente en estudio. El diseño puede
diagramarse de la siguiente manera:
R G1 X O1
R G2 -- O2

En este diseño, la única diferencia entre los grupos debe ser la presencia-ausencia de
la variable independiente. Estos son inicialmente equivalentes y para asegurar que
durante el experimento continúen siendo equivalentes _ salvo por la o ausencia de
dicha manipulación – el experimentador debe observar que no ocurra algo que afecte
solo a un grupo. Debe recordarse que al la hora que se efectúa el experimento debe
ser la misma para ambos grupos (o ir mezclando a un sujeto de un grupo con un sujeto
del otro grupo - cuando la participación es individual - ), lo mismo que en las
condiciones ambientales y demás factores que fueron ventilados al hablar de
equivalencia de grupos

La prueba estadística que suele utilizarse en este diseño para comparar a los grupos es
la prueba "t" para grupos correlacionados, al nivel de medición por intervalos.
El diseño con posprueba únicamente y grupo de control puede extenderse para incluir
más de dos grupos, se usan dos o más tratamientos experimentales, además del grupo
de control.

Si se carece de grupo de control, el diseño puede llamarse "diseño con grupos


aleatorizados y posprueba únicamente".

En el diseño con posprueba únicamente y grupo de control, así como en sus posibles
variaciones y extensiones, se logra controlar todas las fuentes de invalidación interna.

2. Diseño con preprueba-posprueba y grupo de control

Este diseño incorpora la administración de prepruebas a los grupos que componen el


experimento. Los sujetos son asignados al azar a los grupos, después a éstos se les
108

administra simultáneamente la preprueba, un grupo recibe el tratamiento experimental y


otro no (es el grupo de control); y finalmente se les administra, también
simultáneamente una posprueba.

La adición de la preprueba ofrece dos ventajas: primera, las puntuaciones de las


prepruebas pueden usarse para fines de control en el experimento, al compararse las
prepruebas de los grupos se puede evaluar qué tan adecuada fue la aleatorizacion. La
segunda ventaja reside en que se puede analizar el puntaje ganancia de cada grupo (la
diferencia entre la preprueba y la posprueba).

El diseño controla todas las fuentes de invalidación interna por las mismas razones que
se argumentaron en el diseño anterior (diseño con posprueba únicamente y grupo de
control). Lo que influye en un grupo deberá influir de la misma manera en el otro, para
mantener la equivalencia de los grupos.

3. Diseño de cuatro grupos de Solomon

El diseño de Solomon combina el diseño de dos grupos con sólo medición "después" y el
diseño clásico de dos grupos con mediciones "antes" y "después". En esta forma se
controlan los efectos de selección y de mortalidad (por la asignación al azar); los de
maduración e historia (por el uso de grupos de control) y el efecto de interacción de la
prueba pues como no existe medición "antes" en algunos grupos, ésta no puede,
lógicamente, actuar sobre los resultados "después".Los pasos del diseño son los que
siguen:

a) Se asigna el total de los sujetos, en forma aleatoria, a cuatro grupos.

b)En el primer grupo se hace una medición "antes" de la variable dependiente, luego se
aplica el tratamiento experimental y posteriormente se hace una medición "después"
de la variable dependiente.

c) En el segundo grupo se hacen mediciones "antes" y "después", sin aplicar el


tratamiento experimental.
aplicar el tratamiento experimental.

d) El tercer grupo recibe el tratamiento experimental y se hace en él una medición


"después".

e) Finalmente, en el cuarto grupo se hace sólo una medición "después".

Todos los grupos se forman aleatoriamente. Los grupos 1 y 3 son experimentales, los
grupos 2 y 4, de control. La principal ventaja del diseño consiste en el control del efecto
109

de la medición "antes" de la prueba en la medición "después". Esto se logra pues a dos


de los grupos no se aplica la prueba "antes" (preprueba): al grupo experimental 3 y al
grupo de control 4. Si se considera que a los grupos 1 y 3 se les aplicó el tratamiento
experimental, sus mediciones "después" deberían ser iguales: O — O. Pero en el grupo
1 también se aplicó la preprueba, con lo cual, si hay diferencias entre esas dos
mediciones, se debería a esa prueba. Algo similar tendría que ocurrir entre los grupos 2
y 4 que no recibieron el tratamiento experimental. Si se encuentra una diferencia
significativa, ésta se debería también al efecto de la preprueba.

Para realizar todas las comparaciones se utiliza el análisis de varianza.


La línea de rayas indica que el grupo de control se conformó por igualación con el grupo
experimental.

En la medida en que haya una mayor semejanza entre los dos grupos del estudio
"podemos considerar que el diseño controla los principales efectos de la historia, la
maduración, la administración de tests y la instrumentación..." (Campbell y
Stanley,1966) . Diseño con preprueba-posprueba y grupo de control

Este diseño incorpora la administración de prepruebas a los grupos que componen el


experimento. Los sujetos son asignados al azar a los grupos, después a éstos se les
administra simultáneamente la preprueba, un grupo recibe el tratamiento experimental y
otro no (es el grupo de control); y finalmente se les administra, también
simultáneamente una posprueba.

La adición de la preprueba ofrece dos ventajas: primera, las puntuaciones de las


prepruebas pueden usarse para fines de control en el experimento, al compararse las
prepruebas de los grupos se puede evaluar qué tan adecuada fue la aleatorizacion. La
segunda ventaja reside en que se puede analizar el puntaje ganancia de cada grupo (la
diferencia entre la preprueba y la posprueba).

El diseño controla todas las fuentes de invalidación interna por las mismas razones que
se argumentaron en el diseño anterior (diseño con posprueba únicamente y grupo de
control). Lo que influye en un grupo deberá influir de la misma manera en el otro, para
mantener la equivalencia de los grupos.

El análisis de los datos puede hacerse de manera directa con las diferencias
encontradas entre las mediciones "antes" y "después" en ambos grupos. Un tratamiento
más riguroso se obtendría con el análisis de la varianza que implica supuestos como el
de homogeneidad de regresión, "menos posibles aquí que en diseño experimental
clásico"

1. Diseños experimentales de series cronológicas múltiples


110

En los diseños experimentales antes mencionados se ha comentado que sirven – mas


bien para analizar efectos inmediatos o a corto plazo. En ocasiones el experimentador
esta interesado en analizar efectos en el mediano o largo plazo , porque tiene bases
para suponer que la influencia de la variable independiente sobre la dependiente tarda
en manifestarse. Por ejemplo, los programas de difusión de innovaciones, métodos
educativos o estrategias de las psicoterapias. En tales casos es conveniente adoptar
diseños con varias pospruebas. A estos diseños se les conoce como series cronológica
experimentales. En realidad el termino “ serie cronológica”, se aplica a cualquier diseño
que efectué- a través del tiempo- varias observaciones o mediciones sobre una variable,
sea o no experimental, solo en este caso se les llama experimentales porque reúnen
los requisitos para serlo
También en estos diseños se tienen dos o mas grupos y los sujetos son asignados al
azar a dichos grupos. Solamente que, debido a que transcurre mucho mas tiempo entre
el inicio y la terminación del experimento, el investigador debe tener el suficiente cuidado
para que no ocurra algo que afecte de manera distinta a los grupos ( con excepción de la
manipulación de la variable independiente). Lo mismo sucede cuando al aplicar el
estimulo lleva mucho tiempo (por ejemplo, programas motivacionales para trabajadores
que pueden durar semanas). Con el paso del tiempo es mas difícil mantener
equivalencia inicial de los grupos.

Ejemplos

Serie cronológica sin preprueba, con varias pospruebas y grupo de control

R G1 X1 O1 O2 O3
R G2 X2 O4 O5 O6
R G3 X3 O7 O8 O9
R G4 - O10 O11 O12

Serie cronológica con preprueba, con varias pospruebas y grupo de control

R G1 O1 X1 O2 O3 O4
R G2 O5 X2 O6 O7 O8
R G3 O9 -- O10 O11 O12

Serie cronológica basada en el diseño de cuatro grupos de Solomon

RG1 O1 X O2 O3
RG2 O4 -- O5 O6
RG3 -- X O7 O8
111

RG4 -- -- O9 O10 __

2. Diseños de series cronológicas con repetición del estimulo


En ocasiones, el investigador anticipa que el tratamiento o estimulo experimental no
tiene efecto o este es mínimo si se aplica una sola vez, tal como seria hacer ejercicio
físico un solo día, no se puede esperar un cambio en la musculatura; o como seria
consumir vitaminas por una única vez .también a veces el investigador quiere conocer el
efecto sobre las variables dependientes, cada vez que se aplica el estimulo
experimental. Por ejemplo, en técnicas de acondicionamiento es común que uno se
cuestione:
¿Cuántas veces debo aplicar el reforzamiento a una conducta para lograr condicionar a
respuesta a un estimulo?. En estos casos se puede repetir el tratamiento experimental y
administrar una posprueba después de cada aplicación de este, para evaluar el efecto de
la aplicación.

Los sujetos son asignados al azar a los distintos grupos y a cada grupo se le administra
varias veces el tratamiento experimental que le corresponde.

Ejemplo

R G1 O1 X1 O2 X1 O3

R G2 O4 -- O5 -- O6

El mismo tratamiento se aplica dos veces al grupo experimental

3. diseños con tratamiento múltiples:

A. varios Grupos
B. Un solo grupo

4. diseños factoriales
Los diseños factoriales manipulan dos o mas variables independientes e incluyen dos o
mas niveles de presencia en cada una de las variables independientes. Han sido
sumamente utilizados en la investigación del comportamiento. La construcción básica de
un diseño factorial consiste en que todos los niveles de cada variable independiente
son tomados en combinación con todos los niveles d e las otras variables
independientes.
Esta temática también se trata en la unidad V sobre análisis de la información.

Factorial 2X 2
El diseño factorial mas simple manipula (hace variar) dos variables, cada una con dos
niveles. A este diseño se le conoce como “diseño factorial 2X 2”, en donde el número de
dígitos indica el numero de variables independientes:
112

2 X 2
Un digito Otro digito

(primera variable (segunda variable


Independiente) independiente)

Y el valor numérico de cada digito.

CAPITULO 9 DISEÑOS CUASIEXPERIMENTALES

Lección 25. Definición, generalidades y problemas


Los métodos cuasi experimentales

En este capítulo vamos a seguir de cerca los clásicos libro de Campbell y Stanley
(1966) y Cook y Campbell (1979), así como los trabajos de Gómez Jacinto y
Hombrados (1988), Cook, Campbell y Perachio (1990) y Ato (1995). Aquí describiremos
muy someramente aquellos diseños que se consideran mas relevantes
Las investigaciones o diseños cuasiexperimentales reciben su nombre por el hecho que
los grupos de estudio no se han conformado al azar y, en algunos casos, no se utiliza un
grupo de control. Sin embargo, como lo dicen Campbell y Stanley, estas investigaciones
pueden tener, en diversos grados, tanto validez interna como externa. De los varios tipos
de éstos vamos a presentar dos que suelen ser los más utilizados en el campo de la
investigación social y de la educación.

Los cuasi experimentos poseen aparentemente todas las características de los


experimentos verdaderos. La principal diferencia con éstos estriba, según los casos, en
la imposibilidad de manipular la variable independiente y/o asignar aleatoriamente los
sujetos a las condiciones experimentales. Comparten con los experimentos de campo
su ejecución en ambientes naturales, lo cual les otorga un escaso control. Podrían ser
calificados de adaptaciones más o menos ingeniosas de los experimentos verdaderos,
con el objetivo de separar los efectos debidos a la intervención de aquellos provocados
por las variables no controladas. .
Los diseños cuasiexperimentales también manipulan deliberadamente al menos una
variable independiente para ver su efecto y relación con una o mas variables
independientes, solamente que defieren de los experimentos “verdaderos” en el grado
de seguridad o confiabilidad que pueda tenerse de la equivalencia inicial de los grupos.
En estos diseños los sujetos no son asignados al azar a los grupos, ni emparejados;
sino que dichos grupos ya estaban formados antes del experimento, son grupos
intactos ( la razón por la que surgen y la manera como se formaron fueron
independientes o aparte de experimento). Por ejemplo, si los grupos el experimento son
113

tres grupos escolares existentes que estaban formados con anterioridad al experimento,
y cada uno de ellos constituye un grupo experimental. Veámoslo gráficamente:

Grupo A (30 estudiantes) Grupo experimental con X1


Grupo B (26 estudiantes) Grupo experimental con X2
Grupo C (34 estudiantes) Grupo de control

Como el quid del problema en los métodos cuasi experimentales es


el sesgo de selección, no es de extrañar que la mayoría del tema se
entre en cómo conformar grupos de control adecuados que no son
diseñados ad hoc, sino que hay que conformarlos analíticamente.

• cortes transversales o encuestas en diferentes momentos del


Tiempo

• Paneles de individuos a lo largo de uno o varios puntos temporales


• Registros administrativos del programa (datos sobre participantes).
En la explicación

En la explicación de los resultados (salarios o estatus laboral antes y


Propiedades estadísticas. Después de la capacitación, por ejemplo) y en la explicación
de la Decisión de participar en un programa por parte del individuo i, ambos

Si se utilizan cortes transversales repetidos o paneles, el problema


no es tan grave, ya que ambos diseños implican que los factores observables
y no observables que influyen los resultados son separables
Aditivamente y hacen algunos supuestos sobre las propiedades
de la serie de tiempo de los no observables (errores o residuos del
Modelo). No obstante, si bien las variables explicativas de la decisión
de participar pueden coincidir en su casi totalidad con las variables
explicativas de los resultados, es conveniente tener variables que expliquen
la decisión pero no los resultados, ya que ello ayudará a distinguir
ambas relaciones.

Siguiendo a Heckman y Smith (1996) se puede formalizar lo anterior


partiendo de que el individuo i decide participar en un programa de
capacitación en el momento q. Así, sea Y0it el ingreso del individuo i
en el momento t en ausencia de capacitación (o sea cuando Pi=0),
que depende de las características Xit.

Problemas de los diseños cuasiexperimentales

Como se había comentado estos diseños se emplean cuando no es posible asignar al


azar a los sujetos a los grupos que recibieron los tratamientos experimentales. La falta
114

de aleatorizacion introduce posibles problemas de validez interna y externa. Según


Weiss, 1980) estos diseños tienen que luchar “con la selección como fuente posible de
interpretación equivocada, lo mismo que con la interacción de la selección y otros
factores, así, como, posiblemente, con los efectos de la regresión”. Asimismo, diversos
factores pudieron operar en la formación de los grupos (que no están bajo el control del
investigador), que impiden afirmar que estos son representativos de poblaciones mas
amplias. Y dado que su validez es menor que la de los experimentos “verdaderos”,
reciben el nombre de cuasiexperimenrtos

Debido a los problemas potenciales de validez interna, en estos diseños el investigador


debe intentar establecer la semejanza entre los grupos, esto requiere considerar las
características o variables que pueden estar relacionadas con las variables estudiadas.

Lección 26. Pasos al realizar un experimento o cuasi experimento

1. decidir cuantas variables independientes y dependientes deberán ser incluidas en el


experimento o cuasisexperiemnto. No necesariamente el mejor experimento es aquel
que incluye el mayor numero de variables, deben incluirse las variables que sean
necesarias para probar las hipótesis, alcanzar los objetivos y responder a las preguntas
de investigación.

2. Elegir los niveles de manipulación de la (s) variable (s) independiente(s) y traducirlos


en tratamientos experimentales. Esta paso requiere que un concepto teórico sea
convertido en una serie de operaciones que habrán de realizarse para administrar uno o
varios tratamientos experimentales .

3. desarrollar el instrumento o instrumentos para medir la (s) variable (s) dependiente(s).

4. seleccionar una muestra de personas para el experimento (idealmente representativa


de la población).

5. reclutar los sujetos del experimento o cuasiexperimento. Esto implica tener contacto
con ellos, darles las explicaciones necesarias e indicarles el lugar, día y hora y persona
con quien deben presentarse.

6. Seleccionar el diseño experimental o cuasiexperimental apropiado para nuestra (s)


hipótesis, objetivos y preguntas de investigación.

7. Planear como vamos a manejar los sujetos que participen en el experimento. Es


decir, elaborar una ruta critica de que van a hacer los sujetos desde que llegan al lugar
del experimento hasta que se retiran (paso a paso).

8. En el caso de experimentos “verdaderos” , dividirlos al azar o emparejarlos; en el caso


115

de cuasiexperiementos analizar cuidadosamente las propiedades de los grupos intactos.

9. 9.Aplicar las prepruebas (cuando las haya), los tratamientos respectivos (cuando no se
trate de grupos de control) y las pospruebas.

Asimismo, resulta conveniente tomar nota del desarrollo del experimento, llevar una
bitácora minuciosa de todo lo ocurrido a lo largo de este.

Lección 27. Tipos de diseños cuasi experimentales:

Con excepción de la diferencia que acabamos de mencionar, los cuasi experimentos


son muy parecidos a los experimentos "verdaderos". Por lo tanto, podemos decir que
hay casi tantos diseños cuasiexperiemntales como experimentales "verdaderos". Sólo
que no hay asignación al azar o emparejamiento. Pero por lo demás son iguales, la
interpretación es similar, las comparaciones son las mismas y los análisis estadísticos
iguales (salvo que a veces se consideran las pruebas para datos no correlacionados).

1. Diseño con posprueba únicamente y grupos intactos

Este primer diseño utiliza dos grupos: uno recibe el tratamiento experimental y el otro
no. Los grupos son comparados en la posprueba para analizar si el tratamiento
experimental tuvo un efecto sobre la variable dependiente.
Si los grupos no son equiparables entre sí, las diferencias en las pospruebas de ambos
grupos pueden ser atribuidas a la variable independiente pero también a otras razones
diferentes, y lo peor es que el investigador puede no darse cuenta de ello.

Por ello es importante que los grupos sean inicialmente comparables, y que durante el
experimento no ocurra algo que los haga diferentes, con excepción de la presencia -
ausencia del tratamiento experimental.

1. Recuérdese que los grupos son intactos, no se crean, ya se habían constituido por
motivos diferentes al cuasiexperimento.

2. Diseño de prepuebas-posprueba y grupos intactos (uno de ellos de control)

Este diseño es similar al que incluye posprueba únicamente y grupos intactos,


solamente que a los grupos se les administra una preprueba. La cual puede servir para
verificar la equivalencia inicial de los grupos (si son equiparables no debe haber
diferencias significativas entre las prepruebas de los grupos).
116

Las posibles comparaciones entre las mediciones de la variable dependiente y las


interpretaciones son las mismas que en el diseño experimental de preprueba-posprueba
con grupo de control solamente que en este segundo

2. Diseños cuasiexperimentales de series cronológicas

En ocasiones el investigador puede pretender realizar efectos al mediano y largo plazo o


efectos de administrar varias veces el tratamiento experimental, y no cuenta con la
posibilidad de asignar al azar a los sujetos a los grupos del experimento. En este caso,
pueden utilizarse los diseños cuasiexperiemntales salvo que los grupos son intactos.
En ambos tipos de diseños se aplican mediciones repetidas de la variable dependiente y
se inserta el tratamiento experimental entre dos de esas mediciones en al menos un
grupo, mientras que a otro grupo no se le aplica ningún tratamiento en el periodo de
“experimentación”.

Hay series cronológicas de:


a. Un solo grupo

b. Series cronológicas cuasiexperiemntales de múltiples grupos

c.. Series cronológicas cuasiexperiemntales con repetición del estimulo

d. Series cronológicas cuasiexperiemntales con tratamientos múltiples

UNIDAD 4.TECNICAS E INSTRUMENTOS DE INVESTIGACIÓN CUALITATIVA


117

CAPITULO 10. INVESTIGACION CUALITATIVA

Leccion 28. Definiciones , conceptos, perspectivas historicas


La investigación cualitativa se ha definido de forma poco precisa como una categoría de
diseños de investigación que extraen descripciones a partir de observaciones que
adoptan la forma de entrevistas, narraciones, notas de campo, grabaciones,
transcripciones de audio y vídeo casetes, registros escritos de todo tipo, fotografías o
películas y artefactos. La mayor parte de los estudios cualitativos están preocupados
por el contexto de los acontecimientos, y centran su indagación en aquellos contextos
en los que los seres humanos se implican e interesan, evalúan y experimentan
directamente (Dewey, 1934; 1938). Esto es lo que significa calidad: lo real, más que lo
abstracto; lo global y concreto, más que lo disgregado y cuantificado. Es más, la
investigación cualitativa investiga contextos que son naturales, o tomados tal y como se
encuentran, más que reconstruidos o modificados por el investigador (Sherman y Webb,
1988). Esta es la clase de diseño de investigación que Robert Rippey quería realizar.

Rippey centró su evaluación en la quintaesencia de la preguntas cualitativas: Qué está


pasando en este escenario?, y qué significa para los participantes? (Erickson, 1986).
Estas preguntas han sido utilizadas en investigaciones denominadas de distintas
formas: interpretativas (Erickson, 1986), naturalistas (Lincoln y Guba, 1985),
fenomenológicas (Wilson, 1997), y descriptivas (Wolcott, 1980). Estos descriptores
enfatizan la importancia de los constructos de los participantes, o los significados que
los sujetos de la investigación asignan a sus acciones, el contexto del estudio, la
relación entre el investigador y los que están siendo estudiados, los métodos para la
recogida de datos, los tipos de evidencias aducidas en apoyo de las afirmaciones
realizadas, y los métodos y la importancia del análisis utilizado. Son, tal y como ya he
argumentado en otros momentos (LeCompte, 1990; LeCompte y Preissle, 1993), más
exactos y precisos que el término cualitativo, que simplemente sugiere que los
investigadores cualitativos no cuantifican, miden, o cuentan algo, que realmente no es
el caso.

La investigación cualitativa es un proceso de investigación que obtiene mediante


técnicas propias, datos del contexto en el cual los eventos ocurren, en un intento para
describir estos sucesos, como un medio para determinar los procesos en los cuales los
eventos están incrustados y las perspectivas de los individuos participantes en los
eventos, utilizando la inducción para derivar las posibles explicaciones basadas en los
fenómenos observados(gorman y Clayton, 1997).

Perspectivas históricas de la investigación cuantitativa-cualitativa: Génesis y


desarrollo. Hamilton / Kant
118

Cualitativo y cuantitativo encierran una larga historia, filosófica y científica, aún no


escrita ni acabada. Momentos y personajes clave:
Platón y Aristóteles en la Grecia Clásica, representantes de posturas filosóficas pro
cuantitativas y pro cualitativas, respectivamente. Aristóteles defiende una concepción y
una aproximación de/a la Naturaleza sustantivista, sensible y empírica. Platón defiende
una aproximación más formalista, idealista, abstracta y matematizable.
La preparación en la Baja Edad Media, siglos XII a XIV, del basamento sociocultural
para la matematización del mundo. Se desarrollan en el Occidente europeo un conjunto
de transformaciones económicas, sociales, ideológicas, culturales, etc., que van a crear
las condiciones sociales y culturales para el nacimiento de la Ciencia Moderna y del
paradigma científico-positivo dominante. El acontecimiento cultural desencadenante fue
la admisión, por la Iglesia, del cero y del vacío, que inicia la completa matematización
de la naturaleza. La forma se antepone a la sustancia, lo cuantitativo a lo cualitativo, el
planteamiento platónico al aristotélico.
La matematización newtoniana de la naturaleza de la Edad Moderna, hasta el siglo
XIX. El contexto cultural de la Edad Media, caracterizado por la primacía de una
cosmovisión religiosa organizada teóricamente, retrasa la matematización de la
naturaleza hasta los tiempos modernos de Newton.
La transformación del paradigma anterior a la luz de los desarrollos científicos del
siglo XX. La obra de Weber se considera parte de una tradición que propuso una
aproximación científica al estudio de lo social diferente a la de las ciencias naturales.
Los tipos ideales son elaborados del mismo modo que los hechos lo son mediante los
métodos y las técnicas de las ciencias naturales. Otra idea central es que estamos
asistiendo a un momento de maridaje entre los desarrollos de las ciencias naturales y la
investigación social.
En cuanto a la investigación cualitativa, no hay un único relato histórico que documente
la génesis y desarrollo de la perspectiva metodológica cualitativa en las ciencias
sociales. La investigación cualitativa es un fenómeno empírico, localizado socialmente.
La génesis de la investigación cualitativa se remonta a la aparición de las ideas
kantianas y se destacan:
La obra de Descartes en su proclamación de la importancia de las matemáticas y la
objetividad en la búsqueda de la verdad, pilares fundacionales de la investigación
cualitativa.
El pensamiento filosófico de Kant, “Crítica a la razón pura”, que supone una ruptura
con el objetivismo cartesiano y un modelo de racionalidad humana, conocimiento, en el
que adquieren relevancia la interpretación y la comprensión.
119

Distinción entre razón científica, conocimiento teórico, y razón práctica, conocimiento


aplicado, también del pensamiento kantiano. Hamilton equipara conocimiento práctico a
ciencia social aplicada.
Entre los herederos intelectuales de Kant sobresalen figuras que ayudan a entender
el alumbramiento de la indagación cualitativa. Engels: “La condición de la clase obrera
en Inglaterra”, por ejemplo.
Dilthey pone especial énfasis en la distinción entre ciencias de la naturaleza y
ciencias del espíritu o humanas. Las ciencias sociales pueden investigar las
experiencias vividas por los individuos relacionándolas con su contexto sociohistórico y
cultural.
Influencia del neokantianismo en E.U.A. y en el Reino.Unido., a finales del XIX y XX,
con seguidores y simpatizantes unidos por una misma preocupación por el estudio de la
experiencia vivida.
Revisión del paradigma cartesiano/newtoniano, en los años sesenta y setenta, que
proviene de las críticas desde fuera y desde dentro. Los replanteamientos
epistemológicos alcanzan a la investigación cualitativa.
. La perspectiva histórica de Conde y Vidich y Lyman
(Perspectiva Conde. Hamilton. Vidich y Lyman. Denzin. Lincoln. Paradigma –
universidad Complutense de Madrid)

El encuadre temporal de Vidich y Lyman llega hasta hoy y se inicia en el siglo XV.
Transcurre en torno a la investigación etnográfica que se practica en la sociología y
antropología norteamericanas. El hilo conductor es el interaccionismo simbólico, que
marca las etapas de su recorrido histórico: la referencia al “otro”. Tratan de documentar
la existencia
Fases principales en la etnografía antropológica y sociológica

Fases Denominación Período Caracterización

Etnografía temprana: el Estudio de los pueblos primitivos: génesis


1ª XV-XVI
descubrimiento del otro. de la especie humana.

Etnografía de las XVII,


2ª mentalidades coloniales: XVIII, Conocer para colonizar, civilizar.
persistencia del otro. XIX

1900- Estudio de los ghettos y las áreas


3ª Etnografía del otro cívico
1950 naturales urbanas. Escuela de Chicago:
120

de la actitud cristiana a la perspectiva


secular.

Crítica a la etnografía de 1950- Estudio de las relaciones étnicas. De la



asimilación 1980 asimilación a la integridad sociocultural.

Estudios reflexivos sobre las


implicaciones éticas y políticas de la
5ª Etnografía postmoderna 1980-
etnografía. Revisión de las etnografías
tradicionales.

FUENTE: http://html.rincondelvago.com/tecnicas-cualitativas-de-investigacion-
social_1.html
Cronología de Denzin y Lincoln
(Perspectiva Conde. Hamilton. Vidich y Lyman. Denzin. Lincoln. Paradigma –
universidad Complutense de Madrid)
La simplificación del continuo histórico que ha envuelto a la investigación cualitativa se
da cuando el cronista insiste en la delimitación de grandes momentos o períodos. Su
relato se circunscribe al siglo XX distinguiendo cinco fases de la investigación
cualitativa. Tienen dos ideas centrales:
Investigación cualitativa significa cosas diferentes en cada uno de los momentos.
Los cinco momentos operan simultáneamente en el presente.
Rasgos que definen cada período:
Período tradicional, 1900-1950, momento de la etnografía clásica. Positivismo. El
otro estudiado era distinto, extranjero, extraño.
Período modernista, 1959-1970, se caracteriza por los esfuerzos de formalización de
los métodos cualitativos. Postpositivismo.
Géneros desdibujados o borrosos, 1970-1986, donde los límites entre las ciencias
sociales y las humanidades se habían desdibujado. Interpretativismo. Los
investigadores sociales buscan en la semiótica o en la hermenéutica nuevas teorías y
métodos de análisis.
Crisis de representación y de legitimación, 1986-1990, maduración de la fase
anterior. Se aboga por unos modos de realización y presentación de la investigación
etnográfica más reflexivos y críticos con cuestiones descuidadas relativas al género,
raza o clase social del investigador.
121

Etapa presente, 1990- , re/descubrimiento de modos de investigar cualitativos. Exige


aventurar lo que se avecina en el próximo futuro. Distinguen cuatro tipos de
conclusiones:
Los momentos históricos anteriores siguen operando en el presente, como legado al
que se sigue o contra el que se pugna.
La opcionalidad de paradigmas, estrategias de investigación o de métodos de
análisis nunca ha sido tan diversa como hoy.
Descubrimiento y redescubrimiento de los modos de investigar cualitativos.
El acto de investigación cualitativa no podrá enfocarse nunca más desde una
perspectiva positivista, neutra u objetiva.
Lección 29. Observación Participante

El investigador hace una inmersión en el contexto. Se introduce dentro del grupo de


estudio y llega a formar parte de él. Da descripciones de los acontecimientos, de las
personas, interacciones entre ellas,... La ventaja es que se tienen vivencias de primera
mano que le permiten comprender la situación o el comportamiento del grupo. Relata la
sensación del investigador. Esto lo plasma en un Cuaderno de campo o en un Libro
diario. En esta técnica de trabajo de campo el investigador se involucra en los
escenarios cotidianos de los informantes para extraer información a partir de lo que va
observando. Se le llama participante porque se toma en cuenta el papel del investigador
o etnógrafo dentro de la dinámicas locales que esta estudiando.

La observación participante es una técnica cualitativa basada en la observación


detallada que facilita el registro sistemático de las prácticas sociales: Relaciones
sociales, dinámicas, juegos de poder, hábitos de consumo, toma de decisiones, entre
otros. “La observación establece una comunicación deliberada entre el observador y el
fenómeno observado. Comunicación que, normalmente, procede a nivel no verbal, en la
que el investigador-observador está alerta a las claves que va captando y, a través de
las cuales, interpreta lo que ocurre, obteniendo así un conocimiento más significativo,
profundo y completo de la realidad observada”.
“En si, el lugar es como un punto de partida para la “juerga”, van para tomar algunos
tragos, pero no es propiamente el sitio donde se vayan a poner borrachos, de ahí salen
medio tomados para seguir la juerga en otro lado. De ahí que se de el tráfico constante
de asistentes. No fue común que los clientes se saludaran entre si. La cantina termina
su servicio a las 10:00 de la noche y la gente se queda picada, se alcanzan a oír
comentarios como: “-¿Dónde vamos a seguir la pelea-“ o “-Apúrale que ya nos están
esperando los otros-“

“Cuando llegué, Maguie (mesera) se aproximó a mi mesa para atenderme, trayendo


consigo mi tradicional Lager (segunda de la fila de la pared):
122

Maguie: – Hasta que se me hizo atenderte.


Marco: – Sí, verdad?
Maguie: – Siii… por qué no tomas Carta?
Marco: – Está la promoción, verdad? – .
Maguie: – Pues sí
Marco: – Es que no me gusta
Maguie: – No te gusta?
Marco: – No mucho, es que se me hace muy fuerte
Maguie: – aaaaah!… pues con limoncito y hielo
Marco: – hey!… déjame lo pienso.
(Estudio sobre las dinámicas internas de espacios de socialización. Las cantinas).
La observación participante se caracteriza por la existencia de un conocimiento previo
entre observador y observado y una permisividad en el intercambio, lo cual da lugar a
una iniciativa por parte de cada uno de ellos en su interrelación con el otro. El
observado puede dirigirse al observador, y el observador al observado en una posición
de mayor cercanía psicológica pero con un nivel de participación bajo o nulo.
El objetivo fundamental de la técnica de observación participante es la descripción de
grupos sociales y escenas culturales mediante la vivencia de las experiencias de las
personas implicadas en un grupo o institución, con el fin de captar cómo definen su
propia realidad y los constructos que organizan su mundo. Así, la observación directa
de eventos relevantes ha de realizarse durante la interacción social en el escenario con
los sujetos del estudio, unida a entrevistas formales e informales, registros sistemáticos,
recogida de documentos y materiales, de forma flexible según la dirección que tome el
estudio.
La observación participante permite describir la realidad social, las percepciones y
vivencias de las personas implicadas y el significado de sus acciones, por lo que
pensamos que es apropiada para la realización de nuestra investigación.

Observación participante y diario de campo

La observación participante surge como una alternativa distinta a las formas de


observación
convencional. Su diferencia fundamental con el anterior modelo de observación estriba
en
una preocupación característica, por realizar su tarea desde "adentro" de las realidades
humanas que pretende abordar, en contraste con la mirada "externalista", las de formas
de observación no interactivas.

La observación participante es la principal herramienta de trabajo de la etnografía y se


apoya para registrar sus "impresiones" en el llamado diario de campo. Este no es otra
cosa que un registro continuo y acumulativo de todo lo acontecido durante la vida del
proyecto de investigación.
123

La observación participante emplea, para definir el problema de investigación con


referencia a la vida cotidiana de las personas, una estrategia flexible de apertura y
cierre. Esto quiere decir que puede comenzar con un problema general, para más tarde
definir unos escenarios específicos de análisis. O puede, en cambio, iniciar con un
escenario cultural o una situación humana, para de allí generar problemas que se
conviertan en objeto de investigación. En uno u otro caso, el estudio de los problemas
depende de la forma en que las preguntas sean dirigidas, refinadas, elaboradas y
focalizadas a través del proceso de recolección de datos.

En términos de proceso, la observación participante tiene su primer reto en lo que


genéricamente se denomina "ganar la entrada al escenario" u "obtener el acceso". El
éxito en lograr este cometido depende en buena parte de las habilidades
interpersonales del investigador, así como de su creatividad y sentido común, para
tomar las decisiones que sean más apropiadas y oportunas, de acuerdo con las
especificidades de la situación que encuentre.

Ganado el acceso físico y social al escenario de estudio, e identificadas las situaciones


a ser observadas dentro dicho espacio, es necesario decidir qué fenómenos serán
observados y analizados en tales situaciones. Esto porque nunca será posible observar
todos los escenarios o incluso, todas las situaciones que son de interés dentro un
escenario determinado. Es así como aspectos de la investigación relacionados, por
ejemplo, con la conveniencia y la oportunidad percibidas de ésta, con la naturaleza y
diversidad de los intereses de los involucrados, y las propias habilidades que posee el
investigador influyen en las decisiones de qué observar, cuándo observarlo y de qué
manera realizar la observación. En cualquier caso, sin embargo, las decisiones
adoptadas deben ser sustentables o defendibles teórica y metodológicamente.

Por la vía que hemos expuesto, accedemos al concepto de muestreo teórico, del cual
ya anticipamos algunos elementos de definición. Recordemos cómo el muestreo teórico
representa una forma de muestreo no probabilístico, que depende de las habilidades
del investigador para hacer decisiones acerca de qué observar, basado, justamente, en
criterios tales como oportunidad, interés personal, recursos disponibles y, lo más
importante, la naturaleza del problema que está siendo investigado. Así como en el
muestreo probabilístico el investigador emplea una lógica de tipo estadístico para
seleccionar los fenómenos particulares que serán estudiados, en el muestreo teórico se
acude a una lógica comprensiva que depende de los avances que sevan alcanzando en
el entendimiento del problema estudiado, durante el progreso mismo de la
investigación.

La validez y la confiabilidad de la observación participante

La validez y la confiabilidad de la observación participante según Wiseman (1970)


pueden establecerse a través de procedimientos y estrategias como los que a
continuación se enuncian:
124

• Chequeo mediante múltiples procedimientos y formas de evidencia, tales como,


contacto con la experiencia directa y la observación, realización de diversas formas de
entrevista y apoyo de distintos informantes, el empleo de artefactos y diversos
documentos. Es lo que Denzin (1988) llamará Triangulación.

• Preguntarse qué tan eficaces, o no, fueron, o son, los procedimientos que el
investigador anticipó para acceder al mundo interno de los participantes o actores. Éste
es un aspecto de mucha importancia para analizar, ya que las limitaciones en el acceso
reducen por, lo general, la validez y la confiabilidad de los hallazgos realizados.

• Describir y discutir completamente los procedimientos adoptados para recolectar la


información. El investigador, de este modo, se obliga a discutir para el lector, las
relaciones entre los procedimientos empleados y los resultados obtenidos, analizando
incluidas las ventajas y limitaciones de esos procedimientos.

Poner a disposición de quien esté interesado la discusión explícita y detallada de los


procedimientos de estudio, de modo que los mismos puedan ser objeto de debate y
prueba, a través de la lectura del informe final.

• Probar los conceptos importantes, identificados o elaborados en el curso de la


investigación, contra su uso actual en la vida cotidiana de los actores sociales
involucrados. Es difícil imaginar una prueba más severa de la precisión o dependencia
de una idea, que la de pasar la prueba del uso en la vida cotidiana.

• Contrastar, mediante un reestudio independiente, cuando esto sea posible, los


hallazgos, resultados y conclusiones que se hubiesen obtenido a través de la
observación participante.

Observación no participante y registro estructurado de observación


Ésta es una herramienta de trabajo muy útil, especialmente, en las fases preliminares
de la investigación cualitativa. Recordemos que, en ellas, el investigador busca ubicarse
dentro de la realidad sociocultural que pretende estudiar. La observación no
participante, entonces, permite apoyar el "mapeo" sin exponer al investigador a una
descalificación por "incompetencia cultural". Contar con un registro estructurado sobre
ciertos elementos básicos para comprender la realidad humana, objeto de análisis,
permite focalizar la atención de la etapa de observación participante o de análisis en
profundidad, sólo o prioritariamente, sobre los aspectos más relevantes, lo que resulta
muy conveniente, cuando el tiempo disponible para el trabajo de campo no es muy
amplio.
125

Algunas de esas pautas de observación han sido catalogadas como patrones o


paradigmas de búsqueda, en situaciones socio-culturales que incluyen entre otras
cosas:

a) la caracterización de las condiciones del entorno físico y social, b) la descripción de


las interacciones entre actores, c) la identificación de las estrategias y tácticas de
interacción social, d) la identificación de las consecuencias de los diversos
comportamientos sociales observados. Cabe advertir, que estas observaciones no
participantes o externas deberán luego ser corroboradas a través de una fase de
observación participante o mediante el empleo de entrevistas directas con los actores
sociales correspondientes.

En el caso de estudios evaluativos es posible emplear una guía completamente


estructurada de observación que recibe el nombre genérico de lista de chequeo (Check
List, en Inglés). La idea del uso de este tipo de instrumento es registrar la existencia o
no de aspectos o elementos considerados a la luz de los parámetros y criterios de
evaluación adoptados como claves en el cumplimiento de los objetivos de un proyecto o
programa, o como requisito de funcionamiento de la organización o institución, objeto
de la evaluación.

Lección 30. Entrevista y Grupos de Discusión y Focal

Con esta técnica el investigador obtiene información sobre el punto de vista y la


experiencia de las personas/grupos. Adecuadas si lo que se busca es la dispersión de
puntos de vistas personales mas que el consenso. Aparecerán los puntos de vista
prototipos o representantes de las diversas posturas que pudieran existir.

La entrevista puede ser abierta, si no existe un guión previo, semiestructurada si se


adapta a una forma de obtener cuanta mas información mejor o estructurada si se
adapta a un guión predefinido. No importa el número de entrevistas sino la calidad de
las mismas. El entrevistado construye su discurso personal (deseos, necesidades...) de
forma confiada y cómoda.

Entrevista etnográfica y Entrevista in situ

Es importante aclarar que la razón principal por la cual mis informantes consintieron su
participación y su apoyo en esta investigación es precisamente por la intencionalidad de
crear puente de diálogo entre lo que es el informante y el observador, claro está que
esto se logra con la accesibilidad de ambas partes y esto logra su mejor explicación en
la conversación.
A la entrevista antropológica también se le llama “etnográfica” y es una técnica informal
o no directiva, puesto que se basa en encuentros casuales y empatía con el informante
126

que permitirán obtener la información mediante una guía mental de tópicos y un


cuaderno de notas. Aquí, como en la mayoría de las técnicas antropológicas el
investigador tiene que tener en cuenta su influencia en el comportamiento del actor
social al que está entrevistando, por eso es importante que la relación se lleve a cabo
de una forma natural y fluida para que el entrevistado se sienta cómodo y sus
respuestas tengan la menor interferencia posible. “La mayoría de los temas abordados
por las entrevistas...son cuestiones que los informantes quizá manejen cotidianamente,
no reflexiva, sino prácticamente, en el decurso de su vida, en sus contextos
específicos.”

La entrevista individual estructurada

Ésta es la más convencional de las alternativas de entrevista y se caracteriza por la


preparación anticipada de un cuestionario guía que se sigue, en la mayoría de las
ocasiones de una forma estricta aun en su orden de formulación.

El cuestionario cumple varias funciones, dice McCracken (1988). Su primer papel es,
asegurar que el investigador cubra todo el terreno (tema), en el mismo orden, para cada
entrevistado, preservando de manera consistente el contexto conversacional de cada
entrevista. La segunda función es, cuidar el itinerario requerido para mantener la
distancia con el entrevistado. La tercera función consiste en, establecer los canales
para la dirección y delimitación del discurso. La cuarta función es, permitir al
investigador prestar toda su atención al testimonio de su entrevistado.

En resumen, el cuestionario busca proteger la estructura y objetivos de la entrevista en


una forma tal que el entrevistador pueda atender, de manera inmediata y sin perder el
"hilo de la conversación", tareas que surjan contingencialmente en el desarrollo de la
entrevista, tales como revisar el funcionamiento de la grabadora o resolver algún asunto
breve ajeno a la charla en curso, las cuales requieren de la atención momentánea del
investigador.

El enfoque cualitativo con que se asume este tipo de entrevista abre la oportunidad
para que, con cada una de las respuestas a las preguntas del cuestionario, se exploren
de manera in estructurada (esto es, no preparada de antemano, pero sí sistemática)
aspectos derivados de las respuestas proporcionadas por el entrevistado.

Para efectos del análisis no basta solo con registrar las ideas sino que también se
requiere examinar el contexto en que esas ideas aparecen. Este contexto se identifica
principalmente por una manera de hablar.

Entrevista individual en profundidad

Éste es el instrumento preferido y –diríamos– básico de la investigación enfocada desde


127

la teoría fundada, al igual que el de las historias de vida. Por lo general, su empleo
implica la realización de varias sesiones con la misma persona. Se comienza con una
primera entrevista de carácter muy abierto, la cual parte de una pregunta generadora,
amplia, que busca no sesgar un primer relato, que será el que servirá de base para la
profundización ulterior. Se considera, en tal sentido, que la propia estructura, con que la
persona entrevistada presenta su relato, es portadora en ella misma de ciertos
significados que no deben alterarse con una directividad muy alta, particularmente, lo
repetimos, al comienzo del proceso.

Otros detalles de procedimiento se pueden consultar en la lectura complementaria núm.


2 "La entrevista en profundidad", de Taylor y Bogdan, **

Entrevista Focalizada
Las entrevistas focalizadas, en el caso de la televisión tienen el objetivo de explorar y
comprender los procesos subjetivos de apropiación e integración de la televisión en la
vida cotidiana de diferentes grupos de la audiencia.
Partimos, al igual que muchos otros investigadores culturalistas, de la premisa de que la
recepción de los mensajes de los medios es activa y alimentada por distintas
mediaciones y procesos de negociación y apropiación de los significados (Fiske,
Downing, Orozco). En este sentido y siguiendo a González (1998), nuestra unidad de
análisis no será el individuo aislado, sino el individuo "en relación": "jamás se da una
recepción pasiva o individual, y difícilmente el texto cultural permanece sólo en el
primitivo origen de un gusto o práctica distintiva" . Cada receptor es parte de uno o
múltiples grupos y como tal tiende a adoptar patrones de consumo y apropiación
comunes a los de su grupo de pertenencia. Una mujer de 40 años verá la televisión en
función de su relación con el resto de la familia, con sus gustos e intereses. Un joven
tendrá que negociar con sus padres y sus hermanos su uso de ese medio, a menos que
el nivel socioeconómico de la familia permita la propiedad de un televisor para cada
miembro.
Como señala Lindlof (1995), los seres humanos infunden en sus propias acciones, y en
las otras acciones y mundos a los que tienen acceso, significados: "los significados no
son meros accesorios de las conductas. Más bien, el hecho mismo de que
reflexionamos sobre nuestras acciones realizadas, y de que imaginamos posibles
acciones futuras, es lo que propicia que lo que hacemos tenga un sentido" (p. 6). Una
premisa básica de nuestro estudio, así, es la misma adoptada por la investigación
cualitativa relacionada con ver las situaciones sociales desde el punto de vista de los
actores para poder comprender qué es lo que está pasando en una determinada
situación (p. 30). Werner y Schoepfle (1987) explican que a diferencia del periodismo
que busca cubrir lo extraordinario y lo raro, las ciencias sociales se interesan en las
estrategias que los humanos usan para sobrellevar sus rutinas, las cuales ocupan la
mayor parte de sus horas de vigilia.
128

Lindlof (1995) distingue entre cinco tipos de entrevistas cualitativas: a) la "entrevista


etnográfica" (la más informal y espontánea de todas), que se realiza en el transcurso de
una investigación basada en observación participante y que se asemeja a una
conversación casual; b) la "entrevista con informantes", que igualmente se da en el
transcurso de una observación participante, pero con algún o algunos miembros del
grupo que tienen mayor información o experiencias más relevantes en el tema de
estudio (se pueden realizar en forma casual y espontánea o planeadas con un
cuestionario predeterminado); c) la "entrevista con respondientes", que elicita
respuestas abiertas a una serie de preguntas directivas.
A diferencia de las anteriores, este tipo se parece a la encuesta tradicional con un
protocolo estandarizado, un contenido altamente comparable entre los diferentes
entrevistados y muestras relativamente grandes de los mismos ; d) la "entrevista
narrativa", que se basa como su nombre lo indica en la narración de historias,
anécdotas o biografías por parte de los informantes ; y e) la "entrevistas focalizadas en
grupo" en las que los participantes se ven estimulados por las experiencias de otros
miembros del grupo a articular sus propias perspectivas: "las maneras en que apoyan,
debaten o resuelven los temas entre sí puede reflejar las dinámicas del discurso social
cotidiano" .
Debido al número de investigadores y asistentes de investigación que participarán en el
trabajo de campo, se ha optado por utilizar la metodología de la entrevista a
respondientes (c), la cuál se apoya en un cuestionario fijo que permite cubrir las áreas
básicas y prioritarias del proyecto con cada informante . Los entrevistadores podrán
agregar y explorar temas adicionales y aceptar que el informante aborde otros aspectos
de su experiencia televisiva no contemplados en el cuestionario (de hecho esto es
altamente recomendable para enriquecer el trabajo de campo), pero no deberán omitir
ninguna de las preguntas incluidas en el mismo.

Tamaño de la Muestra. A diferencia de las encuestas por muestreo, donde a través de


fórmulas relacionadas con el nivel de confianza y el margen de error se puede definir
previamente el tamaño adecuado de la muestra y por lo tanto evaluar su generabilidad
a grupos más amplios, en la investigación cualitativa se siguen otros procedimientos.
Como explica McCracken (1988), en éste tipo de estudios el asunto no es el de la
generalización, sino el del acceso: "el propósito de la entrevista cualitativa no es
descubrir cuántos, y qué tipos de, personas comparten ciertas características. Se trata
de obtener acceso a las categorías culturales y los supuestos desde los cuáles una
cultura construye el mundo" McCracken insiste en que la muestra de informantes en
las entrevistas cualitativas no tiene como objetivo representar una parte del mundo más
amplio, sino atisbar el complicado carácter, organización y lógica de la cultura .

Lo que se acostumbra, por lo tanto, es ir realizando entrevistas hasta que la diversidad


de respuestas de los informantes deja de ser significativa y empiezan a repetirse los
datos (cfr. Taylor y Bogdan, 1987). Dependiendo de la complejidad de los fenómenos y
129

procesos estudiados, esto puede significar unos pocos o muchos informantes. En este
proyecto se ha definido que en cada ciudad deberán aplicarse un mínimo de 60
entrevistas, pero este número podrá (o deberá) aumentar en caso de que se observen
diferencias y variantes importantes en las respuestas proporcionadas por los
informantes de cada segmento contemplado.
Para poder explorar posibles diferencias en las preferencias programáticas y las rutinas
de consumo y apropiación de la televisión del público de acuerdo a variables
sociodemográficas como el nivel socioeconómico, la edad y el sexo, las 45 entrevistas
por ciudad se distribuirán de la siguiente manera:

5 entrevistas con jóvenes de clase baja de sexo femenino


5 entrevistas con jóvenes de clase media de sexo femenino
5 entrevistas con jóvenes de clase alta de sexo femenino
5 entrevistas con jóvenes de clase baja de sexo masculino
5 entrevistas con jóvenes de clase media de sexo masculino
5 entrevistas con jóvenes de clase alta de sexo masculino
5 entrevistas con adultos de clase baja de sexo femenino
5 entrevistas con adultos de clase media de sexo femenino
5 entrevistas con adultos de clase alta de sexo femenino
5 entrevistas con adultos de clase baja de sexo masculino
5 entrevistas con adultos de clase media de sexo masculino
5 entrevistas con adultos de clase alta de sexo masculino
Como se mencionó, 5 será la cantidad mínima de entrevistas a realizarse en cada
grupo. En caso de observarse mucha variación en las respuestas de los cinco
informantes de un estrato determinado, se deberán agregar casos hasta que la gama
de opciones se agote.

La manera en que se identificará el grupo al que pertenece un determinado


respondiente será utilizando los siguientes criterios:
GRUPO EDAD NIVEL SOCIOECONOMICO
jóvenes de clase baja de sexo femenino 18-24
jóvenes de clase media de sexo femenino 18-24
jóvenes de clase alta de sexo femenino 18-24
jóvenes de clase baja de sexo masculino 18-24
jóvenes de clase media de sexo masculino 18-24
jóvenes de clase alta de sexo masculino 18-24
adultos de clase baja de sexo femenino 25-50
adultos de clase media de sexo femenino 25-50
adultos de clase alta de sexo femenino 25-50
adultos de clase baja de sexo masculino 25-50
adultos de clase media de sexo masculino 25-50
adultos de clase alta de sexo masculino 25-50
130

Fase previa a la entrevista


La selección de los informantes en este proyecto será uno de los puntos claves y quizás
de los más delicados. En principio, a cada entrevistador de la cátedra se le asignará
una cuota de entrevistas a realizar, señalándosele la edad, sexo y nivel socioeconómico
de los informantes que deberá seleccionar. A partir de esa base, el investigador deberá
identificar potenciales informantes que cumplan con esas características. Para estar
seguros de que efectivamente dichos candidatos pertenecen a los grupos
sociodemográficos solicitados, se les tendrá que aplicar una encuesta preliminar que
permitirá identificar el nivel socioeconómico de los informantes. Si después de
aplicárselas se confirma que pertenecen al grupo asignado, se procederá a la fase de
preparación de la entrevista. En esta fase, cada entrevistador deberá seguir el siguiente
procedimiento:
1. Solicitar la colaboración del informante explicándole que el proyecto busca
conocer la forma en que diferentes tipos de personas integran la televisión en
sus rutinas diarias y en sus opciones de entretenimiento. Se les deberá aclarar el
objetivo general de la investigación, pero sin entrar en muchos detalles y sin
especificar que esperamos diferencias claras según el sexo, la edad o el nivel
socioeconómico.
2. Asegurar al informante que todo lo que nos diga será totalmente confidencial.
Que no se identificará en ningún momento ni su nombre ni quién dijo qué cosa.
Explicar que cuando nos refiramos a él o ella sólo mencionaremos características
generales como la edad, el sexo o el nivel socioeconómico. Ponerle un ejemplo
como el siguiente: "Una joven de 22 años señaló que". Ofrecerle la posibilidad de
que vea la transcripción de la entrevista tan pronto esté lista, para que la revise y
autorice su uso.
3. Establecer una fecha y un horario conveniente para que el informante tenga
plenamente disponibles unas dos horas y media de su tiempo. Es importante que
quede claro que se requiere total concentración en la entrevista.
4. Definir un lugar donde el informante se sienta totalmente en confianza. El
entrevistador tendrá que ser el que, en su caso, se "interne" a lugares que
normalmente no frecuenta. El respondiente deberá elegir el sitio de la entrevista,
que podrá ser su casa, oficina, un restaurante o cualquier otro lugar que a él le
sea familiar y que le permita sentirse a gusto. Aclararle solamente que sea de
preferencia un lugar donde no se escuche mucho ruido debido a que se grabará
el audio de la entrevista.
5. En esta fase es importante generar el mayor grado de rapport posible entre el
entrevistador y el informante. Si hay un amigo común que permitió el contacto, el
entrevistador deberá destacar su relación con él para tranquilizar al informante y
hacerlo sentir que se está "entre amigos". La conversación y el tiempo de esta
entrevista previa deberá ser suficiente como para romper el hielo y permitir una
131

relación más fluida con el respondiente, de tal forma que cuando se llegue a la
entrevista formal ya se haya avanzado lo más posible en este sentido. El
entrevistador deberá utilizar todos sus recursos para generar empatía,
intercambiar experiencias, aficiones, nombres de conocidos mutuos, temas
casuales de interés mutuo, etc.
6. Posteriormente a esta conversación con el futuro respondiente y antes de la
entrevista, el participante deberá hacer todos los preparativos necesarios para
llegar con todo listo. Deberá identificar dos casets de 45 minutos de cada lado
con la siguiente información:
a) Número de la Entrevista (Código del caset): tres dígitos y una letra. El primero
dígito se refiere a la ciudad (1=Monterrey, 2=Guadalajara, 3=D.F.). Los
siguientes dos al número progresivo que represente cada entrevista (definirlo con
el coordinador de cada ciudad). La letra al final del código se referirá a si es el
caset 1 (en cuyo caso se pondrá "A") o el 2 ("B") Nótese que estas letras no se
refieren al lado del caset, sino a casets distintos. Poner acto seguido el nombre
del entrevistador, fecha de realización de la entrevista y nombre del informante.
Terminar con información sobre género del informante (H=hombre, M=Mujer),
edad (exacta, con dos dígitos) y nivel socioeconómico (CA=Clase Alta, CM=
Clase Media, CB=Clase Baja). Ejemplo:
#101A. J. C. Lozano. 12 de mayo de 1999. Informante: Joaquín del Olmo. H-26-
CM

b) Poner baterías nuevas a la grabadora (las viejas guardarlas para el momento


de la transcripción) y preparar un paquete de baterías nuevas para repuesto.
Preparar libreta de apuntes en donde se deberán anotar ocasionales aspectos
de la entrevista mientras ésta se lleva a cabo.

c) Cada entrevistador deberá llevar un diario de campo donde deberá describir


todo lo relacionado con la conversación previa con el informante, la aplicación de
la encuesta para definir su nivel socioeconómico, los preparativos de la
entrevista, lo que sucedió en el transcurso de la misma y todo lo que considere
relevante. Dudas, problemas, percepciones de que el entrevistado estaba
falseando la información o contradiciéndose, interrupciones de otros miembros
de la familia o amigos, observaciones sobre el lugar de la entrevista o lo que
sucedía alrededor de ella, todo es importante documentarlo. También se deberán
incluir aquí las interpretaciones teóricas que el entrevistador vaya generando
sobre lo escuchado y observado en su informante.

Dada la amabilidad del informante para la entrevista en concedernos parte de su tiempo


y acceder a participar en un proyecto como el nuestro, se requiere cumplir con todas las
reglas básicas de puntualidad, cortesía y atención. La puntualidad estricta es un
requisito indispensable, ya que en caso de no cumplirla el informante podría enfadarse
132

y cancelar la entrevista o contestarla de mal humor y sin la actitud cooperativa


deseable.
Se debe llegar con todo listo: la grabadora, los casetes, las baterías de repuesto, las
libretas para tomar apuntes, la cámara fotográfica.

En la investigación cualitativa hay otras técnicas como la encuesta etnográfica, la cual


se describe brevemente enseguida:

Encuesta Etnográfica

Esta técnica toma como su preocupación y eje básico de articulación el análisis de las
dimensiones culturales (simbólicas y materiales) de la realidad humana sometida a
Investigación. Uno de los desarrollos más sistemáticos al respecto ha sido el propuesto
por Spradley (1978). La idea central que él maneja es, la de contar con un inventario de
Tópicos culturales que, a la hora de iniciar el trabajo de campo, permita realizar un
barrido completo de esas dimensiones en el interior del grupo humano objeto de
estudio. Para su implementación Spradley en el capítulo 3 de primera parte de su texto
Participant Observation, plantea el que a su juicio constituye el ciclo de la investigación
etnográfica.

Dentro del mismo, dicho autor distingue cinco procesos, de los cuales, los tres primeros
conciernen a la encuesta etnográfica. Los procesos etnográficos en cuestión son los
siguientes: selección de un proyecto, planteamiento de las preguntas concernientes al
proyecto elegido, recolección de datos, elaboración de los registros pertinentes, análisis
de los datos y escritura del informe de investigación o etnografía

Spradley plantea que quizá la primera cosa que los etnógrafos deberían considerar es
el alcance de la investigación. De acuerdo con esto, la etnografía que se desarrolle
puede tener una variación que puede fluctuar a lo largo de un continuo que va desde la
macroetnografía, hasta la microetnografía. Los objetos de análisis variarán, entonces,
desde el estudio de las sociedades complejas, de múltiples comunidades, de múltiples
instituciones sociales o de múltiples situaciones sociales, para el caso de la
macroetnografía; hasta, el abordaje mediante la microetnografía, de una sola
comunidad local, una sola institución social o una situación social simple o restringida.
La encuesta etnográfica cumple papeles diferentes en los dos tipos de etnografía.

Dentro de la de alcance macro, busca hacer equivalentes las categorías de análisis


empleadas con el propósito de facilitar los análisis comparativos. Es el caso de los
trabajos interculturales desarrollados por Whiting, Child y Lambert (1966) sobre
Prácticas de crianza. Para el caso de la microetnografía, la encuesta etnográfica se
orienta a identificar algunos temas culturales de base, que van a facilitar el trabajo de
mapeo de situaciones y el inventario de actores. Este, a su turno, va a servir como
133

soporte al ulterior proceso de recolección de información, en forma focalizada o


selectiva.

Algunos ejemplos de preguntas genéricas que se plantean en una encuesta etnográfica


son: ¿qué gente hay aquí o quienes hay aquí?, ¿qué hacen? o ¿cuál es el escenario
físico de esta situación social?

Se utilizan para conocer el abanico de opiniones (rompiendo el culto al "experto").


En términos generales puede decirse que existen dos categorías de métodos de
análisis de las condiciones de trabajo.

Una de ellas prescinde de cualquier valoración subjetiva y se centra en un conocimiento


objetivo, a partir de mediciones directas u observaciones. La segunda opción parte de la
base de que la valoración ha de ser hecha por los propios individuos que viven la
situación; son los propios interesados los que aportan el conocimiento evaluador de las
condiciones de trabajo.
Si tenemos en cuenta que la realidad se halla constituida tanto por elementos objetivos
como subjetivos, cuando queramos valorar una situación en su totalidad lo correcto será
tomar en consideración ambos aspectos. En el ámbito de las condiciones de trabajo ello
supone la valoración tanto de los factores que en sí pueden ser agresivos, como de la
vivencia que de estos factores tienen los trabajadores. Por minuciosa que sea una
observación o medición, nunca será capaz de recoger toda la información necesaria: la
carga de trabajo no es sólo la carga en sí, ("contrainte", "strain") sino también la carga
que supone para el trabajador ("astreinte", "stress"). La participación de los trabajadores
aparece así como un elemento básico de la valoración de las condiciones de trabajo.
Por otra parte esta participación ha de estar también presente en el momento de
intervenir sobre estas condiciones de trabajo: "la recogida de las opiniones de los
trabajadores orienta hacia medidas más pertinentes." (J.J. Castillo, 1983)
Los trabajadores conocen su puesto de trabajo y, por tanto, conocen cómo puede
mejorarse; la discusión de grupo puede representar un instrumento para facilitar la
expresión de estos conocimientos.
En Notas Técnicas de Prevención se han recogido diversos métodos de valoración de
las condiciones de trabajo basados tanto en la observación (LEST, método del perfil del
puesto... ) como en la opinión de los trabajadores (la entrevista, la encuesta).
Generalmente los métodos tratados hasta el momento son métodos cuantitativos que
permiten ya sea una descripción de la población (porcentajes, medidas de tendencia
central o de dispersión ... ), una cuantificación del riesgo, o el establecimiento de las
posibles relaciones entre las variables estudiadas.
GRUPO DE DISCUSIÓN
134

Se presenta un método cualitativo, el grupo de discusión, como un método que puede


explotarse por ejemplo para conocer algunos aspectos de las condiciones de trabajo y
que puede ser complementario de otros métodos cuantitativos.
Esta técnica es útil para buscar explicaciones, supone una vía a través de la cual las
personas expresan ideas y opiniones; aplicada a la valoración de las condiciones de
trabajo será una técnica que permitirá al trabajador expresar sus opiniones acerca de
sus condiciones de trabajo y de cómo mejorarlas.
Aunque no es una técnica específica, su objetivo puede adaptarse a la valoración de
una situación de trabajo. Ofrece la ventaja sobre otros métodos, de ser más asequible
para la empresa ya que en ella existe la posibilidad de una convocatoria más inmediata,
dada la cercanía de los interesados, ya que los sujetos están ahí mismo.
Habida cuenta, además, de que uno de los requisitos es que exista un objetivo común,
es evidente, que si los participantes tienen unas mismas condiciones de trabajo, el
grupo de discusión es el entorno oportuno para identificar problemas y apuntar posibles
soluciones. Es el medio adecuado para hacer una primera aproximación al estudio de
una situación de trabajo o incluso para priorizar los problemas, que en muchos de los
casos requerirán un estudio más profundo con las técnicas específicas adecuadas.

Características del grupo de discusión


Se denomina también "reunión de grupo" o "discusión de grupo". Se basa en el grupo
como unidad representativa (célula social) que expresa unas determinadas ideas:
valores, opiniones, actitudes... dominantes en un determinado estrato social. Los
participantes se seleccionan porque tienen ciertas características en común que les
relacionan con el tema objeto de la discusión.
Podemos definirlo, siguiendo a Muchielli como "aquel grupo cuyo objetivo es hacer una
confrontación de opiniones, de ideas o de sentimientos con el fin de llegar a unas
conclusiones, un acuerdo o unas decisiones" (Muchielli, 1972). Merece la pena destacar
de esta definición que un grupo de discusión no es un grupo de trabajo y por tanto su
objetivo no es producir, -no es un lugar de acción, ésta se emprenderá a posteriori- -
sino intercambiar opiniones de manera que se obtenga una información acerca de las
percepciones, actitudes o motivaciones de un colectivo determinado.
Los participantes de un grupo de discusión expresan sus opiniones sobre un tema de
interés común. Las personas aportan informaciones sin modificar las de las demás; no
se trata de un intento de imponerse sino de aportar unas ideas.
Una condición de los grupos de discusión es que estén compuestos por personas
similares entre sí ( edad, experiencia profesional, puesto de trabajo...). La naturaleza de
la homogeneidad es muy variable pudiendo ser más o menos amplia según la finalidad
del estudio. Los participantes se seleccionan porque tienen ciertas características
comunes que les relacionan con el objeto de la discusión de tal manera que se facilite el
intercambio de opiniones sobre aspectos que todos conocen, el no cumplir este
135

requisito puede dar lugar a retraimiento frente a personas que se perciben distintas del
resto del grupo.
Idealmente el grupo estará formado por personas que no se conozcan y probablemente
no volverán a encontrarse. Sin embargo esta metodología puede ser de gran utilidad a
nivel interno pues permite conocer situaciones dentro de una empresa y es en el seno
de la empresa donde deben facilitarse vías de expresión que permitan el análisis de las
condiciones de trabajo y las posibles vías de intervención.
El grupo de discusión realizado en una organización presenta, pues, algunas
circunstancias especiales. En este entorno los participantes se conocen entre sí, incluso
pueden tener una relación o un contacto diario: el grupo es un grupo preexistente y
puede llegar a una total familiaridad, sin embargo el trabajar en la misma empresa tiene
sus ventajas ya que el hecho de conocerse hace que exista una mayor cohesión de
grupo y permite entrar más directamente en la discusión.
Para que los grupos de discusión internos sean realmente productivos, y a fin de
favorecer la participación, deberá tenerse cuidado de lograr un ambiente no
intimidatorio, desarrollar la reunión en un entorno neutral, dejar muy claro el objeto de la
reunión y recordar a los participantes que la intención es recoger información sobre
distintos puntos de vista.

Deberá seleccionarse a los miembros del grupo en función de la relación de los


individuos con el objetivo de la discusión, prescindiendo de jerarquías o de simpatías
personales. Un método para determinara los participantes puede ser hacer una
selección aleatoria de trabajadores de la misma categoría o status dentro de la
organización.
Cabe la posibilidad de recurrir a un moderador externo a la empresa. Esta solución
ofrece la ventaja de que los componentes del grupo tienen mayor libertad para
expresarse, pero, en cambio, si el moderador no está familiarizado con la cultura de la
empresa, puede dar lugar a distorsiones en la interpretación de las distintas
intervenciones. Puede pues moderar la reunión una persona de la propia organización
con la condición de que, por su status o por otras razones, no coarte la libertad de
expresión de los miembros del grupo.
En el estudio de las condiciones de trabajo la técnica de la discusión de grupo puede
aplicarse de manera independiente o como complementaria de otras técnicas de
valoración cuantitativas, cabiendo. en este caso. distintas posibilidades:
A priori, puede utilizarse como un estudio previo para conocer determinados temas,
para definir problemas que deben medirse con más exactitud, para conocer o
comprobar el vocabulario de una encuesta por ejemplo...
En paralelo con el fin de comparar resultados, tener distintos puntos de vista sobre una
situación, profundizar en un estudio...
136

A posteriori para buscar explicaciones a datos obtenidos, para determinar estrategias


de acción , para determinar prioridades o para comprobar hipótesis.

Preparación
El animador juega un papel importante en una reunión de discusión, pero no es el único
determinante del éxito de la misma.
Para que la discusión llegue a buen fin hay que prever una serie de factores, comunes a
cualquier tipo de reunión y emplear algún tiempo en comprobar una serie de detalles
que, aunque a primera vista puedan parecer superfluos, juegan un papel decisivo en el
buen desarrollo de una reunión.
Condiciones materiales
A menudo no suele prestarse la atención necesaria a este aspecto, pero hay que tener
en cuenta que "velar por unas condiciones confortables es velar por la eficacia de la
reunión" (Lebel,1983). No tener en consideración estos aspectos es aceptar unos
riesgos que pueden ser evitados: quién no ha visto fracasar una reunión por un exceso
de calor, o porque la sala estaba ocupada....
Para asegurar el buen desarrollo de un grupo de discusión deberán atenderse a los
siguientes aspectos:
El lugar
El local donde deba desarrollarse la reunión ha de cumplir unos requisitos, ya que su
idoneidad puede influir en las respuestas de los participantes.
El lugar de reunión en la empresa ha de ser neutral de manera que se favorezca un
ambiente de participación y se eviten inhibiciones. La sala ha de ser de dimensiones
adecuadas al número de asistentes, aislada de distracciones que provengan del exterior
o de otras posibles distracciones visuales o sonoras.
En otro orden de cosas hay que tener en cuenta que el confort aumenta la participación,
si las personas están incómodas puede aparecer irritabilidad o impaciencia. Por ello es
conveniente inspeccionar la sala con antelación y comprobar su disponibilidad durante
el tiempo necesario, la existencia de tomas de corriente o ausencia de ruidos si se
quiere grabar la conversación, la ventilación adecuada, la cantidad de sillas, disposición
de mesas....
Disposición de los participantes
Los participantes se situarán de manera que se vean unos a otros, es imprescindible el
contacto ocular para facilitar la interacción. Para ello la mesa deberá ser de medidas
adecuadas y si se dipone de varias mesas su situación no deberá ser en línea sino que
deberán colocarse en círculo o en forma oval. La distancia entre los participantes será
137

equidistante por lo que el tamaño de la mesa deberá adecuarse al número de


asistentes.
La conversación puede grabarse en cinta pero no es recomendable grabarla en vídeo
porque perturba demasiado el desarrollo de la discusión y afecta la espontaneidad de
las intervenciones.
Convocatoria
Es necesario informar previamente a los participantes explicando el motivo de la
reunión y especificando el lugar, la hora y la duración aproximada. Recordemos que no
hay reunión posible si no se está de acuerdo en trabajar en conjunto sobre unos
mismos objetivos. Una ventaja que ofrece la reunión dentro de una organización es que
pueden clarificarse personalmente las posibles dudas sobre el objeto de la reunión y los
puntos a discutir en ella.

Tamaño del grupo


El tamaño ideal para una discusión de grupo es entre 7 y 10 participantes. Si el número
es demasiado reducido, será demasiado pobre como entidad de interacción, no se
darán fenómenos de grupo. Por el contrario si es demasiado elevado el grupo se
escindirá en pequeños subgrupos y no será posible desarrollar una discusión única.
Siguiendo las leyes de la dinámica de grupos podemos establecer el tamaño adecuado
para llevar a cabo una reunión de discusión. Podemos resumirlo en el siguiente
esquema:

El momento de la reunión
Es más adecuado realizar las reuniones por la mañana, siendo totalmente
desaconsejable el llevarlas a cabo después de la comida. La duración no deberá
exceder de dos horas ya que si se alarga demasiado puede bajar el interés en la
reunión, dando lugar a la aparición de subgrupos. Es importante asegurarse que todo el
mundo dispone de tiempo suficiente, de lo contrario se corre el riesgo que las personas
se sientan presionadas o desvíen la atención hacia otros temas ajenos a la reunión.
138

Evitar interrupciones
Es evidente que en la sala en la que se desarrolla la reunión no debe haber teléfono.
Puede dejarse una persona encargada de recoger los mensajes que llegan para los
miembros de la discusión y, si es preciso, se harán llegar al interesado a través del
moderador. Durante el transcurso de la discusión es inaceptable que un miembro de la
reunión se vea interrumpido por una visita.

Desarrollo de la reunión
En la discusión los miembros del grupo expresan sus ideas, dando a conocer
emociones que no surgen a menudo en otro tipo de investigación. Para que esto sea
posible una de las condiciones es que el ambiente sea distendido, de manera que se
facilite un clima en el que las personas puedan manifestar sus sentimientos.
Durante el transcurso de la reunión y con el fin de recoger con mayor exactitud el mayor
número de detalles, es conveniente que, además del moderador, exista otra persona
que tome nota de las incidencias de la reunión: tono en que se hacen las
intervenciones, comunicación no verbal, actitud de los participantes... Sus anotaciones
no tienen como finalidad recoger la totalidad de las intervenciones sino aspectos
importantes a resaltar y a tener en cuenta en el análisis.
Papel del moderador
El animador juega un rol de coordinación y de facilitación primordial, pero no es él quien
enriquece el nivel de ideas. Controla el desarrollo de la discusión y hace progresar al
grupo hacia el objetivo propuesto, sin restar espontaneidad a los participantes. Su papel
principal es velar para que se cumplan los objetivos, facilitar el intercambio de ideas,
hacer respetar el método y establecer síntesis.
Tiene que cumplir dos tipos de objetivos. Unos encaminados hacia la tarea: guiar la
discusión hacia los temas objeto de debate, y otros dirigidos hacia el grupo: facilitar la
expresión de los participantes, manteniendo un clima de participación.
Las funciones hacia la tarea están claramente definidas y tienen una cadencia
cronológica:
• Enfocar la discusión hacia los objetivos.
• Evaluar en qué punto de la discusión se encuentra el grupo.
• Realizar síntesis parciales que permitan poner en evidencia el progreso del
grupo.
• Determinar la posición respecto del objetivo principal.
La funciones hacia el grupo son más sutiles y menos organizadas, dependen del
desarrollo del grupo como tal. Hay que estar atento a los fenómenos de grupo que van
apareciendo de manera que se pueda ir regularizando la situación:
139

• Facilitar un equilibrio de intervenciones.


• Regular el grupo: evitar los subgrupos, crispaciones, inhibiciones...
• Romper el bloqueo del grupo: animar la intervención, reformular, sintetizar.
Puesto que el moderador no debe informar sino facilitar el intercambio de opiniones
entro los miembros del grupo, deberá utilizar las clásicas técnicas de animación para
conseguir un desarrollo adecuado de la discusión (plantear preguntas, invitar a hablar a
los participantes que no lo hacen, evitar que alguien se ponga a la defensiva o intente
monopolizar la discusión..) apoyando aquellos roles que demuestren cohesión y que
ayuden a avanzar en la discusión y por el contrario sabiendo atajar aquellas
intervenciones que puedan ser un obstáculo.
Básicamente su función consistirá en una reformulación y síntesis periódicas de las
opiniones que van apareciendo utilizando las siguientes técnicas:
Plantear preguntas
Estas estarán encaminadas a centrar la discusión no debiendo exceder de 5 ó 6. Puede
disponer de un listado con las preguntas pero no deberá leerlas, lo que rompería el
clima de discusión, sino que las utilizará como guía para pasar de una cuestión a otra.
Su forma no deberá ser dicotómica, pues se corre el riesgo que la respuesta sea "sí" o "
no" con lo que la discusión puede hacerse difícil. Por el contrario deberán ser abiertas,
exponiendo un tema de discusión o un punto sobre el que debe girar la misma. Hay que
ser cuidadoso y no predeterminar la respuesta o reflejar ya una opinión del moderador
sino que deben presentarse como una "página en blanco a rellenar por los
entrevistados" (Merton, 1956, citado en Krueger, 1988) .
Escuchar
El moderador ha de ser consciente de su papel y no debe intentar participar como un
miembro de la discusión sino que ha de ser capaz de escuchar, no sólo oír, es decir,
que debe comprender el razonamiento de los demás, recoger sus ideas y asegurarse
que se han entendido, de manera que pueda hacer hincapié en los aspectos
importantes que merecen ser considerados con mayor profundidad. Para ello es
recomendable que el moderador tenga una base de conocimientos sobre el tema que
se discute.
Reformular
El lenguaje tiene sus dificultades, las personas damos distintos sentidos a las mismas
palabras. Si un participante expone una idea, el moderador debe volver a plantearla con
otras palabras de manera que los participantes tengan ocasión de oírla misma
proposición bajo distintas formas. La reformulación permite asegurarse que todo el
mundo entiende lo mismo.
140

Sintetizar
Si se emiten distintas ideas sobre un punto, el moderador las confronta, las reagrupa,
haciendo una síntesis de lo que aparentemente pueda parecer irreconciliable,
resumiendo las intervenciones más largas, recapitulando lo que se ha dicho sobre un
punto antes de pasar a otro de manera que en todo momento se sepa en qué punto de
la discusión se halla el grupo.

Análisis de los datos


El análisis de datos consiste en examinar, categorizar y reorganizar la información
obtenida. Debe ser sistemático: seguir un proceso, y verificable: otro investigador
llegaría a las mismas conclusiones.
Hay que analizar el discurso en función de los objetivos y de la profundidad del estudio;
la interpretación tiene en cuenta evidencias que están más allá de las palabras
concretas reflejadas en una transcripción y debe en marcarse, a partir de las
anotaciones recogidas durante el trabajo de campo, en las características de los
miembros del grupo y el clima que rodeaba las intervenciones de los participantes,
sabiendo separar los conceptos primordiales de la multitud de detalles y comentarios
que suelen aparecer.
Esta tarea es compleja puesto que a una misma pregunta se respondo con distintas
palabras. Así pues el primer paso del análisis será comparar las palabras o identificar a
través de ellas qué sentimientos o qué ideas son coincidentes aunque estén
expresados de distinta forma.
Hay que cuidar que no existan "ruidos" que perturben la interpretación basados en la
percepción selectiva de los comentarios. Con ello queremos decir que el analizador ha
de ser capaz de separar sus ideas, expectativas y opiniones personales de manera que
se perciba correctamente el mensaje de los demás. Se trata de evitar un sesgo en la
interpretación de los resultados. De ahí que se recomiende grabar la conversación y
transcribirla íntegramente para su correcto análisis.
Otro aspecto a considerar es la consistencia de las opiniones. Aunque no es fácil un
cambio total de actitud, sí suele darse que algún miembro del grupo, a la vista de los
argumentos que aparecen en la discusión, no insista en algún punto de vista
determinado o incluso defienda ideas contrarias a las de que había expuesto con
anterioridad. Para el análisis deberán tenerse en cuenta aquellas ideas que aparecen
de manera repetida durante el discurso pero no se considerarán las que sólo aparecen
una vez puesto que no tienen suficiente consistencia.
Para conseguir que la recogida de datos sea sistemática los pasos a seguir serán:
Inmediatamente después de la reunión
141

Comprobar que la grabación sea correcta de manera que si no lo es se pueda


reconstruir al máximo el discurso.
Puesta en común de las anotaciones del moderador y el ayudante para llegar a elaborar
un corto resumen de las observaciones centrándose en los siguientes aspectos:
• Tomas tratados.
• Aspectos nuevos que han aparecido.
• Características del grupo.
• Puntos en los que ha habido más acuerdo o discusión.
• Comunicación no verbal.
• Tono general de la conversación.
• Vocabulario utilizado.
Posteriormente
Transcribir las conversaciones.
Leer las transcripciones relacionando las respuestas con las respectivas preguntas y
señalando los comentarios de mayor interés.
Releer las transcripciones o escuchar las grabaciones concentrándose en un tema cada
vez y analizando el contenido del discurso basándose en:
• Las palabras.
• El contexto.
• La consistencia de las opiniones.
• Las ideas básicas.
• Los objetivos del estudio.
A modo de conclusión cabría señalar que en la presente nota técnica hemos
presentado someramente la técnica de discusión de grupo por considerar que puede
jugar un importante papel en la valoración de las condiciones de trabajo a partir del
conocimiento de las opiniones de determinados colectivos dentro de una empresa.
Ofrece la ventaja de su viabilidad en el marco de una organización, pero no debemos
dejarnos llevar por su sencillez aparente ya que para que sea válida debe ser utilizada
apropiadamente y preparada y explotada con rigor.

GRUPO FOCAL
142

Es una discusión en grupo.


Las personas que lo componen tienen aspectos comunes.
El investigador permite que se hable espontáneamente.
Permite conocer el abanico de opiniones.
Se puede utilizar antes, durante y después de un proyecto de investigación para obtener
la percepción y creencias que el grupo tiene sobre determinados servicios.

Sobre la población diana se hacen subgrupos que deben representar distintas


opiniones.
Por tanto los subgrupos deberían tener distinta edad, genero, nivel de instrucción,
trabajo,... etc.

¿Numero de participantes? : de 6 a 12.


¿Cuántos grupos? : Hasta que los distintos grupos no aporten nada nuevo.
¿Reclutamiento? : Utilizando la red informal (amigos, vecinos,...) o la red formal (censo).
¿Incentivos? : Hacerles ver que la información que aportan es valiosa. Café, Coca-
cola,...
¿Duración? : 60-90 minutos máximo.
¿Preguntas? : Comenzar con preguntas abiertas. Las preguntas mas importantes
cuando se observe un claro nivel de interés.

Inicio del Grupo Focal.


Los participantes se sientan en círculo, el monitor se presenta, indica que no es un
experto en el tema a tratar.
Pide permiso para grabar en un cassette o en vídeo para poder analizar con
detenimiento las distintas opiniones verbales y paraverbales.
Explica posteriormente el objetivo del estudio.
Da una serie de normas:
Todos deben opinar.
No hablar mas de una persona a la vez.
Decir lo que se piensa, no lo que los demás quieren oír.
No hay opiniones equivocadas.
El monitor debe facilitar la dinámica del grupo (atención al hablador, el experto, el mudo,
el tímido, el distraído, la víctima,...)

Análisis del Grupo Focal.


Otra persona con la misma información, debería llegar a las mismas conclusiones.
A) Organizar los datos: Para la primera pregunta...
B) Darle forma: de aquí sale el abanico de opiniones.
C) Resumir: Sin cuantificar las respuestas. El objetivo que se busca es la amplitud de
opiniones.
D) Explicar: y sacar las conclusiones.
143

Cuidado al generalizar: "Los adolescentes piensan que..." sustituirlos por "en nuestro
grupo, los adolescentes piensan que...".

¿ Y dónde quedan las Técnicas Grupales?


Se utilizan como acciones específicas con sus propios procedimietos, muy conocidas
son:
Para generar ideas:
Brainstorming o Tormenta de ideas.
Role-Playing.
Mesa Redonda.

Para llegar a un consenso:


Grupo Delphi.
Philips 66.

Y para priorizar actuaciones:

Grupo Nominal.
En la técnica delphi, el grupo es virtual, nunca llegan a conocerse. En el grupo nominal,
aunque el grupo se conoce, en un principio no se pueden comunicar verbalmente. El
lenguaje que utilizan es científico-técnico.
En resumen, La Metodología Cualitativa, no solo no utiliza cuestionarios ni cuantifica las
respuestas, sino que analiza e interpreta el lenguaje para encontrar el sentido. Y sobre
el mayor o menor cientificismo de los resultados de investigaciones realizadas mediante
métodos cualitativos, sus resultados son científicos aunque participe la subjetividad, se
investigan discursos y se permiten múltiples interpretaciones de la realidad. Requiere
de un gran sentido común, gran capacidad de curiosidad y escucha e implica
conocimientos de diversas fuentes: sociología, semiología, semántica, psicología,
métodos de investigación, entre otros.
Los contextos fundamentales en los que ha florecido particularmente la IAP han sido, el
de la educación popular, de una parte, y el del desarrollo rural, de la otra. La
perspectiva de focal de esta alternativa de trabajo cualitativo ha sido el llamado
“empoderamiento” a través de la producción y uso del conocimiento por parte de los
sectores más pobres y oprimidos. Coincide este tipo de intencionalidad con el
surgimiento de movimientos sociales dispuestos a realizar cambios radicales
especialmente en los países del llamado tercer mundo (América Latina, África y
Sudeste Asiático).
144

El principio de base, en el que se ancla filosóficamente esta alternativa de investigación,


es que existen relaciones desiguales de conocimiento que se constituyen en un factor
crítico que perpetua la dominación clasista sobre los pueblos. Tales relaciones
conducen a la reproducción de nuevas formas de dominación cuando las viejas pautas
se eliminan sin cuidado ni previsión. La IAP según algunos de sus inspiradores, sería la
base principal de acción para el cambio social y político, así como para el progreso
hacia la igualdad y la democracia, al estimular el saber popular y vincularlo a la
autoinvestigación de los sectores desposeídos.

Desde el punto estrictamente metodológico, no hay una identidad ni una propuesta


relativamente homogénea. Existen aproximaciones diferentes, unas más estructuradas,
como es el caso de la de Bosco Pinto (1987) o Park (1992) y otras más generales,
como son las formuladas por Fals Borda (1986) y Parra (1983), entre otros.

Rahman y Fals Borda (1991), al hacer un balance de 20 años de desarrollos de esta


Opción de investigación, señalan que la IAP debe verse en la actualidad “como un
puente hacia otras formas de explicación de la realidad y otras formas más
satisfactorias de acción para transformarla (...) podríamos decir ahora que hay tal vez
más argumentos en favor de la continuación de la IAP hoy que los que había en 1990
(...) sentimos que la IAP, como procedimiento heurístico de investigación y como modo
de vida altruista, puede perseguir y alcanzar esta meta (...)”.

La legitimación y el reconocimiento de la Investigación Participativa como una


alternativa con una identidad propia y con un lugar tanto en la comunidad académica
como en la contribución a procesos de desarrollo social y de innovación educativa, se
evidencia en el primer caso, por su inclusión en una obra de envergadura como la de
John Keeves quien es el editor del “Educational Research, Methodology, and
Measurement: An International Handbook” publicado por Pergamon Press y que desde
su primera edición en 1988representa un esfuerzo bién importante por hacer una
puesta al día a la manera de un estado del arte de los distintos avances en la
investigación educativa. En la mencionada obra, Keeves recoge dos trabajos que
expresan por separado dos dimensiones de la Investigación Acción Participativa. El
primero es el de S. Kemmis titulado “Action Research”(PP. 42-49) y el segundo el de el
de “Participatory Research” (PP. 150-155); algo interesante es que el primer trabajo lo
sitúa en una sección que el editor denomina “Humanistic Research Methods”, mientras
el segundo lo coloca dentro de una sección que titula “Policy Research”, ubicaciones
estas que denotan cuál es el contexto predominante con el que se identifica este tipo de
propuesta investigativa, de un lado, asociada a una filosofía de corte humanístico y del
otro, al ámbito político de la toma de decisiones.

De otro lado en la literatura sobre desarrollo rural, aún la de organismos multinacionales


como la FAO y la OMS, entre otras, la Investigación Acción y la Investigación
participativa figuran como herramientas valiosas para promover procesos sistemáticos
de desarrollo. Así mismo en nuestra propia experiencia en labores de planeación social
145

en ámbitos locales y aún regionales la investigación acción participativa ha sido un


recurso metodológico primordial. Desde la experiencia real y directa del autor del
presente módulo, derivan dos consideraciones de carácter práctico que es necesario
destacar a la hora de optar por un enfoque participativo de la investigación.

La primera consideración tiene que ver con la necesidad de adoptar una estrategia de
capacitación del tipo “aprender haciendo” orientada a posibilitar que los protagonistas
profanos en temas de investigación social o educativa, realicen un trabajo sistemático y
riguroso de elicitación, registro y análisis de las, percepciones, testimonios, juicios y
comprensiones que son aportados por todos aquellos que son convocados para
intervenir en las distintas fases de la investigación desde su diseño, hasta su uso;
pasando por, su implementación y desarrollo.

La segunda, se relaciona con el interés por retomar la comprensión que de su realidad


social y material tienen aquellos que la viven cotidianamente. La diferencia con otras
alternativas de investigación cualitativa estriba en que la comprensión en sí misma, no
constituye el fin último de la investigación, sino que más bien se le ve como un medio
para orientar la planeación de la acción social organizada, que se encauza a la
Transformación de algún tipo de realidad social le que resulta insatisfactoria al grupo
humano involucrado en el proceso investigativo.

La participación en este sentido, es un recurso metodológico más que una opción


ideológica; la argumentación de esta tesis tiene que ver con las evidencias que
muestran que los enfoques participativos conducidos de manera técnica permiten, en
primer lugar, obviar muchos de los problemas de comprensión que se suscitan en las
actividades de cambio social o educativo planificado. En segundo lugar, facilitan el
proceso de motivación hacia la acción social prevista tras los análisis derivados de la
etapa de investigación y, por último, permite anticipar muchas de las barreras que
desde el punto de vista sociocultural y práctico podrían encontrar las iniciativas de
cambio. Curiosamente, quienes mejor lo han entendido y, por ende, lo han puesto en la
práctica, son quienes orientan procesos de cambio en cultura organizacional y quienes
trabajan en la animación de procesos de calidad total, tanto en las empresas
productoras de bienes de consumo como en las generadoras de servicios.

Villasante, T.R. y otros (2000-2001) explican que la IAP es una metodología que
permite desarrollar un análisis participativo, donde los actores implicados se convierten
en los protagonistas del proceso de construcción del conocimiento de la realidad sobre
el objeto de estudio, en la detección de problemas y necesidades y en la elaboración de
propuestas y soluciones.

Con el fin de detectar esas demandas reales relacionadas con el objeto de estudio y
concretarlas en propuestas de acción ajustadas a necesidades sentidas, se desarrolla
un proceso de investigación que apunta a la transformación mediante el trabajo con
colectivos, asociaciones, grupos de vecinos/as y otros actores del municipio con
146

sensibilidades o intereses comunes, lo cual facilita una movilización hacia la implicación


ciudadana que favorece la creatividad social en beneficio de toda la comunidad local. El
conocimiento de la realidad se construye progresivamente en un proceso participativo
en el cual los actores implicados "tienen la palabra", y de este modo se crean las
condiciones que facilitan espacios de reflexión, programación y acción social
relacionados con los problemas que plantea el objeto de estudio.

Para crear esas condiciones necesarias se aplica un procedimiento de investigación


riguroso bajo el enfoque de la denominada Investigación-Acción Participativa (IAP), que
propone intervenir de forma integral e integradora en el territorio. Tal procedimiento
investigador persigue la elaboración de un conocimiento sobre el objeto de estudio que
sea útil socialmente y que permita la implementación de Planes de Acción Integral,
donde la participación ciudadana, plena y consciente, sea un eje articulador básico. Por
eso se trabaja con grupos humanos, con el fin de transformar su entorno, a partir del
conocimiento crítico de la realidad que les rodea y de la puesta en marcha de un
conjunto de estrategias y propuestas vertebradoras.

La IAP no ofrece una batería de respuestas y soluciones a los problemas, sino que
propicia la conversación y el diálogo como mecanismos con los que crear procesos
donde los sujetos afectados aporten, tras la reflexión, soluciones a sus problemas.
Construyendo las respuestas con los distintos agentes sociales y ciudadanos del
municipio se abre un gran abanico de posibilidades, pero las respuestas, soluciones y
propuestas de acción se ajustarán más a la realidad concreta, en la medida en que han
sido participadas y compartidas por la ciudadanía en el proceso de investigación-acción
Los ejes centrales en que se basa el desarrollo de una Investigación-Acción-
Participativa son los siguientes:
- En primer lugar, se han de delimitar unos objetivos a trabajar que responden a la
detección de determinados síntomas, como por ejemplo: déficits de infraestructuras,
problemas de exclusión social, etc.
- A esta etapa de concreción le siguen otras de apertura a todos los puntos de vista
existentes entorno a la problemática y objetivos definidos: se trata de elaborar un
diagnóstico y recoger posibles propuestas que salgan de la propia praxis participativa y
que puedan servir de base para su debate y negociación entre todos los sectores
sociales implicados.
- Esta negociación es la que da lugar a una última etapa, de cierre, en la que las
propuestas se concretan en líneas de actuación y en la que los sectores implicados
asumen un papel protagonista en el desarrollo del proceso.
- La puesta en marcha de estas actuaciones abre un nuevo ciclo en el que se
detectarán nuevos síntomas y problemáticas, y en el que cabrá definir nuevos objetivos
a abordar.
147

En todo este proceso cabe resaltar la importancia de dos elementos: la comisión de


seguimiento y el grupo de investigación-acción-participativa o GIAP

CAPÍTULO 11. El muestreo en la Investigación cualitativa


Leccion 31. Decisiones de diseño en la investigación cualitativa
La aproximación a la metodología cualitativa suele hacerse después de haber recibido
una formación en la metodología cuantitativa. Un buen consejo para quien se inicie en
la investigación cualitativa es planear ser flexible. No hay un polo cuantitativo y otro
cualitativo sino un continuo. Hay dos tipos extremos de diseños cualitativos, el
emergente y el proyectado.
La mayoría de los estudios demandados se deben realizar en un espacio corto de
tiempo. Los estudios que se llevan a cabo en equipo requieren mayor coordinación y
comparabilidad.
El investigador no suele partir de cero: conoce la literatura o el estado de la cuestión,
cuenta con interrogantes que le mueven a investigar, le atraen unas perspectivas
teóricas más que otras.
La noción de decisiones de diseño complementa la aproximación al concepto de diseño
cualitativo. Diseñar es tomar decisiones a lo largo de todo el proceso de investigación y
sobre todas las fases que conlleva dicho proceso.

Decisiones de diseño en la investigación cualitativa:


148

Al principio del estudio Durante el estudio Al final del estudio


1. Formulación del problema.
Selección de casos y 1. Reajuste cronograma de
contextos. tareas. 1. Decisiones sobre el
3. Acceso al campo. 2. Observaciones y entrevistas a momento y manera de
4. Marco temporal. añadir o anular. abandono del campo.
5. Selección de estrategia/s 3. Modificación de protocolos de 2. Decisiones finales de
metodológica/s. observación y de guiones de análisis.
6. Relación con teoría. entrevista. 3. Decisiones de presentación
7. Detección sesgos e ideología 4. Generación y comprobación y escritura del estudio.
del investigador. de hipótesis.
8. Aspectos éticos.

Decisiones de diseño en la investigación cualitativa:


Secuencia de fases y tareas en el diseño y realización de un estudio cualitativo,
como:
1) Fase de reflexión.
Identificación del tema y preguntas a investigar.
Identificación de perspectivas paradigmáticas.
2) Fase de planteamiento.
2.1) Selección de un contexto.
2.2) Selección de una estrategia.
2.3) Preparación del investigador.
2.4) Escritura del proyecto.
3) Fase de entrada.
3.1) Selección de informantes y casos.
3.2) Realización de primeras entrevistas y observaciones.
Fase de recogida productiva y análisis preliminar.
Fase de salida del campo y análisis intenso.
Fase de escritura.
149

Lección 32. El muestreo


Siguiendo un orden lógico dentro de una secuencia de procedimientos de tipo
cualitativo, la selección del tipo de situaciones, eventos, actores, lugares, momentos y
temas serán abordados en primera instancia en la investigación. Subrayamos esta
precisión de primera instancia, porque, en el caso de la investigación cualitativa,
diferente a la de tipo cuantitativo, el muestreo es progresivo y está sujeto a la dinámica
que se deriva de los propios hallazgos de la investigación.

El muestreo de espacios y escenarios. En el ejemplo tomado, el eje han sido las


personas. Sin embargo, tras el trabajo con representantes de los grupos ya
mencionados, puedo encontrarme con que ellos identifican que los lugares más
propicios para generar las enfermedades que más los aquejan son: la plaza de
mercado, la escuela y el matadero. Yo puedo elegir entre esos tres sitios uno y dentro
de ellos, la situación más ligada con el problema objeto de análisis, por ejemplo, la
escuela y como situación, la preparación de los alimentos.

Muestreo de tiempos y momentos. Cada actividad humana tiene unos tiempos y cada
escenario también puede cambiar con el momento del día o de la actividad que se
desarrolle en él. Así, manteniendo el ejemplo que hemos venido manejando, la
preparación de alimentos pasa por varios momentos, que van desde la selección y su
compra, pasando por el transporte de los mismos, hasta llegar al proceso propiamente
de preparación que tiene su etapa “en crudo” al momento de lavarlos, organizarlos,
cortarlos, licuarlos, macerarlos, hasta llegar a su etapa de cocción. Proceso éste que
lleva los alimentos a su etapa de “preparados”. Es posible que en el tránsito por cada
una de esas etapas se identifiquen “cosas” o “situaciones” que generen enfermedad.

Desde una óptica complementaria y tomando como punto de partida carácter teórico e
internacional del muestreo cualitativo, Strauss y Corbin (1990) distinguen tres
modalidades de éste: abierto, relacional-fluctuante y discriminativo.

El muestreo abierto está asociado con la codificación abierta. Éste, más que
especificar, guía las elecciones del muestreo. Este tipo de muestreo puede realizarse
intencionada o sistemáticamente u ocurrir fortuitamente. Este proceso incluye el
muestreo “in situ”. El muestreo relacional-fluctuante está asociado con la codificación
axial. Su principio es maximizar el hallazgo de diferencias en el nivel dimensional, se
puede realizar deliberada o sistemáticamente.

El muestreo discriminativo está asociado con la codificación selectiva, su principio es


maximizar oportunidades para verificar la argumentación o el argumento construidos,
así como también las relaciones entre categorías, permitiendo alcanzar la saturación de
aquellas que han mostrado un desarrollo insuficiente.
150

El muestreo de variación máxima tiene como propósito capturar y describir los temas
centrales o las principales características que tipifican una realidad humana
relativamente estable. Ésta última es la principal diferencia con el anterior.

El muestreo de casos homogéneos busca describir algún subgrupo en profundidad.


Es la estrategia empleada para la conformación de grupos focales. El punto de
referencia más común para elegir los participantes de un grupo focal es que estos
posean algún tipo de experiencia común en relación con el núcleo temático al que
apunta la investigación.

El muestreo de caso típico pretende mostrar a quién no está familiarizado con la


realidad objeto de análisis los rasgos más comunes de dicha realidad. La definición de
“típico”cualitativamente se construye a partir del consenso de opiniones entre
informantes clave, buenos conocedores de la realidad bajo estudio.

El muestreo de caso crítico se edifica sobre la base de elegir una situación, fenómeno
o realidad humana que permite ganar comprensión sobre una condición hipotética
sometida a análisis por parte del investigador, pero sometida a juicio de un actor social.
Un ejemplo de esto sería preguntarle a una persona que actualmente es muy rica ¿qué
haría si al día siguiente despertara en la ruina absoluta? Como se apreciará, este tipo
de muestreo se distingue del de casos extremos, porque la situación a la que alude este
último es real actualmente, mientras que en el del caso crítico es hipotético. Sin
embargo, tiene en común que permite develar aspectos completamente invisibles en la
vida cotidiana pero que ante la situación planteada afloran con mucha fuerza.

El muestreo en cadena o bola de nieve tiene su origen en la búsqueda de


comprensión de realidades culturales o personales que por su condición de
marginalidad del orden social imperante, o por otras razones, se mantienen en la
clandestinidad o en la oscuridad del anonimato. La clave está, aquí, en encontrar un
caso perteneciente al grupo objeto de investigación y éste lleva al siguiente y al próximo
y así sucesivamente hasta alcanzar el nivel de información suficiente para dar por
terminada la investigación. Es el caso del estudio de las realidades de los delincuentes
o los enfermos del sida.

El muestreo por criterio lógico implica trabajar todos los casos que reúnan algún
criterio predeterminado de importancia. Patton (op. cit.) coloca como ejemplo la
situación de pacientes psiquiátricos que por lo general duran en tratamiento entre 4 y 26
semanas.

Señala entonces, que será necesario examinar los casos de todos aquellos que lleven
28 semanas o más para saber qué está pasando con ellos. En un ejemplo desde otra
perspectiva, al examinar una investigación de satisfacción sobre servicios en la que el
95% dice estar satisfecho, el investigador determina profundizar con la lógica de este
151

tipo de muestreo, lo que opinaba el 5% que no estaba conforme. El supuesto de fondo


del que partió para esta decisión es que la óptica crítica de los inconformes haría
probablemente visibles aspectos del servicio que sería necesario mejorar.

El muestreo de casos confirmatorios o disconfirmatorios. Éste es un tipo de


muestreo que desde la perspectiva cualitativa se puede catalogar como de segundo
orden, en tanto que se realiza sobre patrones que ya han emergido en etapas previas
de la investigación y lo que buscan es enriquecer, profundizar y mejorar la credibilidad
de los datos hasta ese momento obtenidos. Este tipo de muestreo se relaciona
estrechamente con el planteado por la teoría fundada para realizar tanto la codificación
axial como la selectiva.

El muestreo de casos políticamente importantes. Se relaciona con la identificación


en procesos sociales, objeto de investigación, de los actores principales, es decir, los
que intervienen directa o indirectamente, pero de modo significativo en la toma de
decisiones involucradas en dichos procesos. Comprender su visión es fundamental para
conocer el rumbo que seguirán los procesos en cuestión y de ahí la importancia de este
tipo de muestreo.

El muestreo por conveniencia tiene su origen en consideraciones de tipo práctico en


las cuales se busca obtener la mejor información en el menor tiempo posible, de
acuerdo con las circunstancias concretas que rodean tanto al investigador como a los
sujetos o grupos investigados.

Leccion 33. Utilidad de la Técnicas Cualitativas


Revisando las diferentes técnicas, por ejemplo, el proceso básico de la encuesta
estadística, esta se basa en la relación secuencial pregunta-respuesta. En las
encuestas precodificadas, es el investigador quien decide la respuesta, dado que limita
sus posibilidades. El entrevistado sólo puede hacer zapping entre las diferentes
«cadenas» de respuesta, como suele ocurrir al encender el televisor; el encuestado
decide entre la menos mala de las cadenas o apaga la televisión (lo que traducido a la
encuesta equivale a «no sabe/no contesta»). Por ejemplo, es relativamente habitual que
al preguntar por las razones de compra de un determinado producto, ninguna de las
alternativas propuestas se adecue perfectamente a la realidad del entrevistado, o que
varias de ellas encajen, pero sólo parcialmente.
Surgen así las técnicas cualitativas, también, como una vía de investigación
complementaria. Si el objetivo de la investigación cuantitativa es clasificar, agrupar en
categorías y medir (en definitiva, describir la realidad), la finalidad de las técnicas
cualitativas es analizar el substrato social, o sea, encontrar los «porqués» de esa
realidad, o al menos nos marcarán las tendencias.
152

Entre las técnicas cualitativas más difundidas están los grupos de discusión,
denominadas en determinadas ocasiones dinámicas de grupo, y las entrevistas en
profundidad, en ambos casos la recogida de información se traduce en la obtención y
posterior análisis, el diálogo libre y espontáneo entre un reducido grupo de personas
(grupo de discusión) o entre el entrevistador y el entrevistado (entrevista en
profundidad).
Obviamente, el límite de estas técnicas es que no existen unidades de medida muestral,
de ahí que sean complementarias de las cuantitativas. Su relevancia cada vez mayor
por ejemplo en la investigación de mercados, radica en que mediante el análisis del
discurso de los microgrupos podemos ser capaces de captar los ejes motivacionales
que subyacen a las opiniones cotidianas y al comportamiento diario.
Cuándo incluir técnicas cualitativas
En la investigación, a grandes rasgos, se debe incluir una fase cualitativa inicial cuando:
• No se conocen las variables reales que estructuran el mercado, ni los procesos
sociales que lo definen y reproducen.
• Se utilizan como pretest antes del diseño definitivo del cuestionario. No sólo
ayudan a formular correctamente las preguntas, sino que contribuyen a
precodificar y cerrar las posibles respuestas en categorías semánticas claras y
excluyentes entre sí.
• Ayudan a controlar y a ponderar los efectos de variables que afectan al
resultado de la investigación pero que no son el objetivo de ésta. Por ejemplo: es
habitual que el encuestado tienda a situarse en torno a los valores centrales del
intervalo entre las distintas posibilidades de respuesta, puesto que socialmente
es lo que se espera de él (efecto de deseabilidad social). Esto es especialmente
cierto en ámbitos moralizados socialmente: sexo, alcohol... pero también en
mercados donde determinados productos afectan al status del entrevistado.
• Se utilizan igualmente para desarrollar determinado tipo de test actitudinales o
motivacionales.
• En el análisis de conductas no racionales desde una perspectiva económica
(coste/beneficio), las técnicas cualitativas se adecuan mejor para explicar la
irrupción de impulsos y las contradicciones grupales.
• La entrevista en profundidad es especialmente apta para el análisis de casos
individuales típicos o extremos, puesto que es aquí donde se encuentran las
dimensiones motivacionales en su estado puro. Por ejemplo, pueden ser de gran
ayuda para analizar los procesos mentales de consumidores compulsivos.
• Por su parte, el grupo de discusión tiene una ventaja adicional. En el desarrollo
del propio grupo, suelen representarse los distintos roles sociales: líder de
153

opinión, creativo, escéptico, reforzadores... La relación entre la dinámica surgida


y la evolución del discurso en su contexto, es lo que debe reflejar el microcosmos
a partir del cual se extraerán las dimensiones fundamentales.
Conviene puntualizar que estas técnicas poco tienen que ver con ciertas dinámicas de
grupo que se realizan a nivel interno de empresas, con intencionalidades particulares,
tales como las «tormentas de ideas», cuya finalidad es exclusivamente la de producir
ideas, con lo que no requieren un análisis específico, ni una investigación propiamente
dicha, más allá del resumen o de la extracción casi literal de tales ideas.

Capitulo 12. Paradigmas emergentes en investigación cualitativa

Lección 34. El lugar del inconsciente en la investigación cualitativa


(Adaptación de http://www.tecnicasdegrupo.com/articulos/lugar_del_inconsciente3.asp)
Los investigadores contemporáneos se expresan libremente sobre los procesos
reflexivos en la investigación cualitativa. Sin embargo, 20 años atrás esto no era muy
común. La reflexión se ha integrado al mundo de la investigación cualitativa; Pero, ¿a
qué nos referimos cuando hablamos de “reflexión” y qué es lo que ocurre en nuestras
mentes cuando “reflexionamos”? Y quizá lo más importante: ¿cómo aprovechar este
proceso para que sea lo más útil posible?
La presente no es la primera vez que la reflexión haya recibido la atención de la
investigación. En 1620 Sir Francis Bacon señaló:
“Existen y sólo pueden existir dos maneras de buscar y descubrir la verdad. La primera
aflora desde los sentidos y lo particular hasta los axiomas más generales…esta es la
manera que actualmente está de moda. La otra obtiene sus axiomas desde los sentidos
y lo particular, que surgen a partir de una ascensión gradual y continua, de modo que
llega hasta los axiomas más generales de todos. Esta constituye la forma correcta, no
obstante aún no ha sido probada”. (Bacon, 1620 aforismo 19).
Bacon nos habla sobre algo similar a lo que ahora estamos analizando como “reflexión”.
Hacia finales del siglo XIX, la reflexión volvió a ponerse de moda. Sigmund Freud hizo
referencia a las aproximaciones de su maestro Charcot sobre el estudio del material
desconcertante:
“Aquí está lo que él mismo nos dijo acerca de su método de trabajo. El acostumbraba a
mirar, una y otra vez, las cosas que no entendía; a profundizar sus impresiones del día
a día hasta que repentinamente aparecía una comprensión de las cosas. En su mente,
el aparente caos presentado por una repetición continua de los mismos síntomas,
encontraba un camino hacia el orden”. (Freud 1897)
154

“Aprendí a restringir mis tendencias especulativas y a seguir la pista de los olvidados


consejos de mi maestro Charcot; aprendí a ver una y otra vez las mismas cosas hasta
que éstas mismas empezaran a hablar” (Freud 1914).
Sin profundizar en la historia de la ciencia, parecería que estos movimientos pendulares
son comunes. De modo que no se hace necesario profundizar más sobre ello.
Quizá sea útil pensar a qué nos referimos por “reflexión”. El Webster’s New World
Dictionary dice:
“1) Un reflejo o ser reflejado 2) El retorno a partir de una superficie de un sonido, luz,
calor, etc. 3) Cualquier cosa reflejada. Una imagen 4. a) La fijación de la mente sobre
algún tema; pensamiento serio; contemplación b) el resultado de este pensamiento;
idea o conclusión, especialmente si se expresa en palabras”.
En la investigación, en el trabajo clínico y en la enseñanza, al hablar de “reflexión”
normalmente nos referimos al cuarto significado. Cuando reflexionamos, generalmente
estamos intentando pensar detalladamente sobre algo. Frecuentemente intentamos ver
de nuevas formas un fenómeno. Y obtener así una nueva y fresca comprensión del
mismo. Tendemos a aplicar diversos métodos en un proceso reflexivo.
Los procesos reflexivos son frecuentemente reconstructivos. Pueden identificarse los
componentes de una idea previamente a aceptarla en su totalidad. A veces se identifica
una secuencia de eventos junto a la su interrelación. Frecuentemente se emplea la
metáfora de una lente, con el observador ampliando su campo de observación de modo
que puedan apreciarse más detalles, o derrumbándose el campo pues muchos rasgos
quedan fuera.
En la introducción a un popular libro de consulta sobre análisis cualitativo, Miles y
Huberman (1994) nombran varias maneras de escudriñar y ordenar el material a
analizar. Ello incluye la identificación de frases similares, relaciones entre variables,
patrones, temas, diferencias entre subgrupos y secuencias comunes (1994). En un
momento posterior, Miles y Huberman exponen métodos de análisis adicionales:
patrones para tomar notas, temas, posibilidad de visionado, criterios de agrupamiento,
elaboración de metáforas, comparaciones, variables de separación, hallazgo de
variables, construcción de una cadena lógica de resultados y darles coherencia lógica y
conceptual.
Metafóricamente, el proceso de investigación implica hacer destellar una luz en una
esquina oscura. Se ve algo que hace que se despierte la curiosidad del observador. Se
observa a mayor proximidad y se plantean preguntas, que ayudan a formar
observaciones adicionales. En algún punto, se consulta la literatura y ello ayuda a dar
forma a las observaciones y a plantear más preguntas. Este proceso se repite hasta
que la curiosidad del observador haya quedado satisfecha.
155

Significados
Sabemos bien que nuestra decisión sobre qué estudiar, la metodología mediante la que
encontraremos los resultados, las preguntas que plantearemos y los puntos que
consideraremos para dar sentido a nuestros hallazgos, afectarán el proceso de
investigación. La mayoría de investigadores intentan identificar la mayor cantidad
posible de estos elementos. No obstante, parece ser que son considerados como
molestias o como factores inevitables del proceso de investigación y como peligros que
pueden hacer disminuir el valor de los resultados. ¿No nos hemos comportado, al
menos algunas veces, como si fuesen los datos en sí mismos los que sostienen el
sentido de la investigación?
Por supuesto, el sentido está en los datos, pero depende de nosotros encontrar ese
sentido. Es en esta área del proceso de investigación donde la actividad reflexiva –
conciente o inconsciente - del investigador, resulta más importante. Los métodos
analíticos del investigador sirven como un juego de lentes que posibilitan que surja
algún sentido y que se descarten otros tantos. Este artículo explora cómo la reflexión
puede emplearse tanto para profundizar y fortalecer el proceso y, así, encontrar
significados, como para ayudar a evitar algunos de los obstáculos con los que el
investigador a veces se topa.
El procesamiento mental inconsciente no constituye un tema favorecido de discusión
dentro de los círculos de investigación. Como ya he señalado, un desinteresado silencio
surge frecuentemente al sacar este tema a colación, ya que parece ser que una parte
importante del proceso reflexivo no es del todo conciente y el psicoanálisis constituye el
campo en el que los procesos inconscientes se exploran con mayor rigurosidad.

Aquellos que no tienen una inclinación psicoanalítica, con frecuencia observan al


inconsciente como algo que está fuera del control de la persona. Ello puede resultar
atemorizante y, por ende, debe evitarse. Una reacción es la pretensión de poder ser
concientes de todo con sólo hacer un gran esfuerzo; otra es reconocer nuestros límites
y ser concientes de aquello que no estamos en posibilidad de realizar. Ambas
posibilidades son importantes

Sobre el lugar del inconsciente en la investigación cualitativa


Diferentes estilos de manejo de información implican cosas distintas. Este es el motivo
por el que existen distintos paquetes informáticos para la investigación cualitativa.
Diferentes softwares ofrecen diferentes aproximaciones a los retos planteados por los
distintos objetivos. Inclusive con una cuidadosa elección del software a emplear, todavía
debe ser el investigador quien conduzca el proyecto. El planeamiento, estructuración,
identificación de preguntas, elección del software, método de codificación e incluso
aquello que surge como “datos”, proceden no solamente del ordenador y de las
herramientas de investigación: lo hacen también a partir de la mente del investigador.
En investigación cualitativa continuamente se lanza una red para ver qué es lo que
podemos atrapar. Si lanzamos una red fina, con probabilidad atraparemos cosas
156

pequeñas, algunas importantes y otras no. Si tenemos suerte, de vez en cuando


podremos atrapar alguna perla. Por otro lado, si lanzamos una red grande, perderemos
muchos objetos pequeños, pero tendremos una mejor perspectiva de asuntos más
grandes. Siempre hay elecciones que hacer, y es la persona quien realiza estas
elecciones.
Al intentar formular ideas para encontrar el significado básico de nuestros datos de
investigación, tendemos a comportarnos como si estos procesos fueran lógicos, como si
operaran de forma completamente conciente. No obstante, siempre damos algún “salto
intuitivo”. En algún punto, somos dependientes de nuestra mente para decidir de una u
otra manera. Es en este punto donde podemos empezar a tratar con el inconsciente. La
mayoría de nosotros estaremos de acuerdo en que ganar distancia o perspectiva
constituye una parte omnipresente en el proceso de investigación, a veces vista como
fastidiosa o incluso peor. Es justamente aquí hacia donde debemos mirar al intentar
comprender un poco más estos “saltos” intuitivos”. Necesitamos encender una luz más
brillante sobre estos aspectos, en lugar de intentar restarles importancia al señalar que
constituyen algo sobre lo que nada podemos hacer.
W. Bion, un psicoanalista inglés, señaló que el proceso de pensar requiere tanto el
compromiso de los afectos como del intelecto. Particularmente con respecto a la
investigación, existe el peligro de que nos establezcamos demasiado rígidamente en el
lado de lo racional. A veces olvidamos dar paso a otras partes de nuestra mente. E
incluso, muchas de las dificultades y obstrucciones que encontramos mientras estamos
realizando la investigación, se dan por no escuchar la información de la que
disponemos. Tenemos la tendencia a no reconocer esta información como mensajes
dirigidos a nosotros mismos, que han llegado camufladamente y que necesitan ser
descifrados. Tendemos a asumir que no existe ningún sentido en la tendencia a perder
el tiempo, por ejemplo, cuando la deconstrucción pueda dar alguna luz sobre el
significado de tal o cual comportamiento y darnos claves que nos permitan deshacer la
obstrucción que tenemos. Existen muchas formas de llevar el problema a partes menos
cognitivas de la mente, que tienen capacidades especiales para lidiar con problemas
engorrosos.

Lección 35. Tendencias actuales de la investigación cualitativa online


http://www.baquia.com/noticias.php?id=8980
Mauri Edo - Responsable de Proyectos de Netquest

La investigación cualitativa por Internet una mera conversión del cualitativo tradicional al
mundo online, o supone nuevas técnicas de investigación con características propias?
Si bien la investigación cuantitativa dispone de una clara conversión hacia el mundo
electrónico, en el mundo cualitativo dicha conversión es menos evidente, generando un
debate sobre la conveniencia de la misma.
157

En la actualidad, la investigación cualitativa online se concentra en tres técnicas


principales de obtención de información:
• Reuniones de grupo o Focus Groups.
• Entrevistas en profundidad.
• Listas de discusión o Bulletin Boards.
Dejamos al margen los Bulletin Boards (discusiones asincrónicas entre unas 12 a 20
personas en periodos de hasta 5 días) ya que, al no tener parangón en la investigación
tradicional, no presentan problemas ni alteraciones de sus características al trasladarse
al mundo online, y nos concentraremos en los Focus Groups y las Entrevistas en
Profundidad online, cuya transformación en técnica de investigación por Internet supone
suficientes cambios como para abrir el debate antes presentado.
Podría aceptarse que la Entrevista en Profundidad, por lo que al traslado al mundo
online se refiere, es una versión individualizada de los Focus Groups; de manera que
resolviendo el problema de la transformación de los grupos al mundo online obtenemos
también una solución aceptable para la realización por Internet de Entrevistas en
Profundidad y sus derivados (Díadas y Tríadas, entrevistas con dos y tres
interlocutores... cada vez más cerca de una reunión de grupo estándar).
En la actualidad, podemos distinguir tres tendencias básicas en la realización de Focus
Groups online, todas ellas nacidas como modos distintos de afrontar el gran problema
de esta técnica en su formato online, esto es, la pérdida de la comunicación no
verbal:
• Chat-Groups: Emplea un entorno de Chat-room para llevar a cabo las sesiones
de grupo.
• Graph-Groups: Mantiene el trasfondo de chat-room incorporando recursos
gráficos con diversas finalidades.
• Cam-Groups: Lo más parecido a los grupos tradicionales pero en formato online,
emplea webcams para la realización de los grupos online, sin trasfondo de Chat-
room.
A continuación, pasamos a describir más profundamente estos tipos de Focus Groups
online:
Los llamados Chat-Groups son la versión más básica de Focus Group online. Su
interface se basa en un entorno de chat-room y no emplea ningún tipo de recurso
adicional para paliar la carencia de comunicación no verbal. Este tipo de Focus Groups
online es el más extendido, siendo empleado por las principales empresas
internacionales de investigación online (Harris Interactive, Ipsos-USA, etc.), y también
en nuestro país, al ser la utilizada por Netquest.
158

El segundo tipo de Focus Groups, los Graph-Groups utilizan recursos gráficos para
solucionar el problema de la comunicación no verbal antes comentado, aunque también
para otras finalidades. Esta técnica es la empleada por Imprint Research, cuyo entorno
de chat-room viene acompañado por una representación de los participantes a través
de caracterizaciones humanas con capacidad para expresar emociones de aprobación,
rechazo, sorpresa…
También en esta línea operan los avances concentrados en el software Babble, todavía
no explotados por ninguna empresa en particular. Este software, resultado del proyecto
Social Translucence, desarrollado por investigadores pertenecientes a IBM; se orienta
hacia el diseño de interfícies gráficas que permiten hacer visible la actividad colectiva
incorporando, entre otras, la posibilidad de visualizar la participación de los distintos
integrantes en el grupo, algo de lo que todos ellos y el moderador son conscientes en
un grupo tradicional y cuya idea se pierde en el traslado al entorno web. Babble
pretende evitar también la pérdida de autonomía de los integrantes a la hora de
participar en actividades colectivas a través de entornos web, de ahí la translucidez
social como título del estudio, refiriéndose al mantenimiento en entornos web de
ambigüedades características de una comunicación verbal (por ejemplo la posibilidad
que tienen los integrantes de una reunión de simular que prestan atención sin prestarla
en realidad).
Por último, los Cam-Groups suponen la aproximación electrónica más fidedigna a los
Focus Groups tradicionales. Esta técnica es explotada exclusivamente por la empresa
estadounidense EQualitative Research y, si bien la inexistencia del entorno chat-room
característico de los Focus Groups electrónicos supone la pérdida de la ventajosa
transcripción inmediata de las sesiones, el empleo de webcams supone el fin del debate
por la falta de comunicación no verbal en los grupos online. Esta técnica se emplea
abundantemente y con éxito en grupos de médicos, farmacéuticos y similares, target de
más difícil captación para Focus Groups tradicionales.
Lección 36. Variedad de paradigmas en la investigación cualitativa
http://html.rincondelvago.com/tecnicas-cualitativas-de-investigacion-social_1.html
a) Dos paradigmas:
La clasificación más simple es la de dos paradigmas contrapuestos.
Paradigma prevaleciente, clásico, racionalista, positivista. Asume la existencia de
una sola realidad objetiva averiguable a través de los cinco sentidos, sujetas a las leyes
universales de la ciencia, y manipulable mediante procesos lógicos.
Paradigma emergente, alternativo, naturalista, constructivista, interpretativista.
Asume la existencia de realidades múltiples, con diferencias entre ellas que no pueden
resolverse a través de procesos racionales o aumentando los tamaños muestrales.
b) Tres paradigmas:
159

El paradigma de la indagación materialista. Positivismo y modelo biomédico. Basado


en el conocimiento que nos ayuda a mantener la vida física, nuestro trabajo y
tecnología. Lógica: sigue un proceso lineal: definición del problema, revisión de la
literatura, formulación de hipótesis, diseño, operaciones de instrumentación, muestreo,
recogida de información y análisis, y resultados y la revisión de hipótesis. El
investigador enfatiza la primacía del método.
El paradigma de la indagación constructivista, basado en el conocimiento que nos
ayuda a mantener la vida cultural, nuestra comunicación y significados simbólicos. Se
buscan relatos. Diseño abierto a la invención; el análisis, a la interpretación.
El paradigma de la indagación crítica o ecológica. Ayuda a mantener la vida social,
enfoca la realidad de la dominación, la distribución del poder y las desigualdades
asociadas. Se adecua al compromiso político y al estudio de los sistemas.
c) Cuatro paradigmas: positivismo, postpositivismo, teoría crítica y enfoques afines,
constructivismo.
Rasgos comunes a la teoría crítica y enfoques agrupables:
Componente ontológico: realismo histórico, contrapuesto al realismo ingenuo del
positivismo y al realismo crítico del postpositivismo. El constructivismo se caracteriza
por un relativismo.
Componente epistemológico: la investigación está mediada por los valores de un
sujeto investigador y uno investigado que interactúan. Positivismo clásico: separación
del sujeto y el objeto. Pstpositivismo: replanteamiento de la separación entre sujeto y
objeto.
Posición respecto a una serie de cuestiones de orden metodológico-práctico:
Meta de indagación. Teoría crítica: está en la transformación de las estructuras
sociales, políticas, culturales, étnicas, económicas y de género que explotan a la
humanidad. Constructivismo: reconstrucción de los puntos de vista implicados en lo
estudiado, interpretación consensuada suficientemente documentada.
Generación y acumulación de conocimiento. Críticos: el conocimiento surge y va
modificándose en un proceso dialéctico de revisión histórica. Positivistas: hipótesis
sometidas a verificación. Postpositivistas: hipótesis sometidas a falsación.
Constructivistas: conocimiento equiparado a las interpretaciones consensuadas
expuestas a revisiones posteriores.
Criterios evaluativos de la calidad de una investigación. Críticos: resumen los criterios
evaluativos de la calidad de una indagación en tres principales:
• Contextualización histórica de la situación estudiada.
• Grado en que el estudio incide en la erosión de la ignorancia.
160

• Grado en que proporciona un estímulo para la acción.


Constructivismo e interpretativismo
El constructivismo surge contra el objetivismo, contra el realismo empírico, contra el
esencialismo. La realidad, la verdad, se descubren y se construyen.
Críticas comunes:
Problema de la objetividad y los criterios de validez.
Problema del descriptivismo, falta de compromiso social crítico.
Problema de la autoridad y privilegio concedidos al investigador intérprete.
Confusión de los aspectos psicológicos y epistemológicos del conocimiento.
Fenomenología sociológica y etnometodología
Etnometodología: perspectiva teórica y metodológica a la que se atribuye como
principal raíz la sociología. Una fuente clave en el surgimiento y desarrollo de la
etnometodología es la fenomenología sociológica.
La historia de la sociología tiene en la relación entre teoría e investigación empírica uno
de sus hilos conductores más perennes, una constante.
La tradición empírica adquiere una gran importancia a lo largo del siglo XIX. Durkheim
logra la fusión de la teoría y la investigación social empírica. Su legado intelectual
influyó en el desarrollo de la sociología cuantitativa.
Weber es importante para las corrientes de la sociología cualitativa. Su obra es una
síntesis teórico-metodológica de las corrientes de pensamiento que concurren en su
época: historicismo, neokantianismo, positivismo y marxismo.
En la vieja Europa se fundó la sociología teórica en E.U.A. cristalizó como ciencia
empírica.
Revalorización de lo cualitativo en los años sesenta y setenta.
Reconocimiento de las aportaciones de la sociología funcionalista en el terreno de la
teoría y de la investigación sociológicas.
Fin del franquismo y comienzo de la democracia: en la sociología española se produce
un sinsentido respecto a los métodos y técnicas de investigación social.
Perfil de la sociología en los años ochenta y primeros noventa que guarda relación con
las coyunturas sociopolíticas del momento.
El problema de la falta de integración entre teoría y empiria reviste especial importancia
en la actualidad.
161

La sociología actual proviene de dos crisis: la del paradigma estructural-funcionalista,


en los años sesenta; la de su oponente, el marxismo, con el derrumbamiento de los mal
llamados regímenes de socialismo real.
Lo novedoso de la actualidad es el reconocimiento de la necesidad de múltiples
perspectivas y estrategias de análisis en el estudio de una realidad social cada vez más
compleja.
Las técnicas cualitativas más difundidas son los grupos de discusión, denominadas en
determinadas ocasiones dinámicas de grupo, y las entrevistas en profundidad, en
ambos casos, la recogida de información se traduce en la obtención y posterior análisis,
del diálogo libre y espontáneo entre un reducido grupo de personas (grupo de
discusión) o entre el entrevistador y el entrevistado (entrevista en profundidad).
Obviamente, el límite de estas técnicas es que no existen unidades de medida muestral,
de ahí que sean complementarias de las cuantitativas. Su relevancia cada vez mayor en
la investigación de mercados radica en que mediante el análisis del discurso de los
microgrupos podemos ser capaces de captar los ejes motivacionales que subyacen a
las opiniones cotidianas y al comportamiento diario.
162

UNIDAD 5. ANALISIS DE LA INFORMACION

Introducción:

Muchas personas, a veces se sienten inseguras al llevar a cabo una investigación de


tipo empírico, por miedo a verse en la necesidad de utilizar la estadística para el análisis
de la información. En la presente unidad tratare de dar una visión general de las
pruebas estadísticas que mas se utilizan en ciencias sociales y naturales. Existen
estudios en los que un análisis estadístico no es necesario, debido al reducido tamaño
de la muestra o a que el investigador se interesa por llevar a cabo un estudio cualitativo
y no cuantitativo.

Creo que el estudiante o lector deseara o necesitara llevar a cabo análisis estadísticos
de sus datos en varias ocasiones, por lo que a pesar de que en el curso de estadística
descriptiva trata con mas detalle todo lo relacionado con las diversas pruebas
estadísticas especificas, en esta unidad se tratara básicamente de ilustrar con
ejemplos prácticos para cada situación en especial que tipo de herramienta estadística
aplica, o que pruebas estadísticas son apropiadas para analizar los datos,
dependiendo de las hipótesis formuladas y los niveles de medición de las variables

La relación que existe entre el análisis estadístico de los datos, la descripción de estos
y su interpretación, varía entre unos estudios y otros.Tener presente que el análisis
estadístico de los datos no es indiscriminado, cada método tiene su razón de ser y un
propósito especifico, no deben hacerse más análisis de los necesarios. La estadística
no es un fin en si misma, es una herramienta par analizar los datos

Generalmente se presentan mas problemas de descripción de resultados e


interpretación de los mismos en estudios exploratorios, que en investigaciones de tipo
experimental; esto se debe, probablemente a la diferencia en el grado de estructuración

La estadística se divide fundamentalmente en dos áreas; la estadística descriptiva, cuya


función consiste en organizar y resumir los datos; y la estadística inferencial que
permite realizar inferencias, es decir, generalizaciones acerca de una población, las
cuales van Más allá de las observaciones que se hicieron.

Esta unidad proporcionara en forma las bases que sustentan ambos tipos de
estadística, sin ser su propósito el de dar una visión detallada de los métodos
estadísticos mismos. Para el estudiante que se interese en profundizar en este campo,
163

ya sea en el curso de estadística descriptiva, o al final de la unidad consular las


referencias, o lecturas recomendadas al respecto.

Objetivos:

Comprender el concepto de prueba estadística

Entender que no se aplican las pruebas estadísticas simplemente por aplicarlas, sino
que se aplican con sentido y justificación.

Conocer las principales pruebas estadísticas desarrolladas para las ciencias sociales y
naturales, así como sus aplicaciones, situaciones en que se utiliza cada una y formas
de interpretarlas.

Analizar la inter-relación entre distintas pruebas estadísticas.

Comprender los procedimientos para analizar la información o los datos.

Aprender a diferenciar cuando aplicar y diferenciar entre estadística parametrica y no


parametrica.

CAPITULO 13. COMO SE ANALIZAN ESTADISTICAMENTE LOS DATOS

Lección 37: Definición, y Procedimiento análisis de datos

DEFINICION:
El análisis de la información puede definirse como la aplicación de técnicas estadísticas
para el e procesamiento de los datos Esta definición corresponde al análisis asistido por
computador. En general, por análisis de la información se entiende la fase de
interpretación que el usuario realiza de una manera directa y manual. Los límites de
este tipo de análisis son evidentes desde el momento que se trabaja sobre una cantidad
importante de datos, y se trata además de incorporar el análisis en un sistema de
producción de información elaborada o especializada.
El análisis estadístico de la información también se define como la ciencia de la
recolección, análisis, interpretación y presentación de la información que puede
expresarse en forma numérica
Procedimiento

Una vez que los datos han sido codificados y transferidos a una matriz, así como
guardados en un archivo, el investigador puede proceder a analizarlos.
164

En la actualidad el análisis de los datos, generalmente se realiza mediante software


estadístico como: pExcel, SAS, SPSS, entre otros. Prácticamente pocos lo hacen de
forma manual, si tiene un volumen considerable de datos,

Por otra parte, en la mayoría de instituciones de educación superior, centros de


investigación, empresas, se dispone de sistemas de computo y software antes
mencionados para archivar y analizar la información. De esta suposición parte el
presente capitulo.

El análisis de los datos se efectúa sobre la matriz de datos utilizando un programa de


computadora. El procedimiento de análisis se esquematiza en los siguientes pasos:

a. Toma de decisiones respecto a los análisis a realizar (pruebas estadísticas)

b. Elaboración del programa de análisis

c. ejecución del programa o software

d. Obtención del análisis

e. interpretación del análisis

Conclusiones

paramétrica y no paramétrica.

Los análisis de los datos que vayamos a practicar dependen de tres factores:

a) Nivel o escala de medición de las variables

b) La manera como se hayan formulado las hipótesis

c) El interés del investigador

por ejemplo, no es lo mismo los análisis que se le realizan a una variable nominal que a
una por intervalos, enseguida estudiaremos los niveles o escalas de medición.
Usualmente el investigador busca, en primer término, describir sus datos y
posteriormente efectuar análisis estadísticos para relacionar sus variables. Es decir,
realiza análisis de estadística descriptiva para cada una de sus variables. Es decir,
describe la relación entre estas.Enseguida haré referencia solo de los niveles o escalas
de medición, no estudiadas previamente
165

. Niveles o escalas de medición

En la escala nominal, los números sólo se usan para identificar categorías. No


representan ningún monto o cantidad propiamente dichos.

Ejemplo. Si cuatro regiones de ventas se numeran del 1 al 4 únicamente como


números de identificación general, en ello está implicada la escala nominal, puesto que
los números sirven sencillamente como nombres de categorías.

En la escala ordinal, los números representan rangos o jerarquías. Indican magnitud


relativa, aunque las diferencias entre los rangos no se asumen como iguales.

Ejemplo. Un analista de inversión clasifica cinco emisiones accionarías del 1 al 5 en


términos de potencial de apreciación. La diferencia en el potencial de apreciación entre
las emisiones clasificadas como 1 y 2 no sería generalmente la misma que, digamos, la
diferencia entre las emisiones clasificadas como 3 y 4.

En la escala de intervalo se representan medidas que son diferencias entre valores.


Sin embargo, el punto cero es arbitrario, y no se trata de un cero "absoluto". Por lo
tanto, los números no pueden compararse usando razones.

Ejemplo. En las escalas de temperatura ya sea Fahrenheit o Celsius, una diferencia de


5o de 70oF a 75oF por ejemplo, es el mismo monto de diferencia en temperatura de 80oF
a 85oF Sin embargo, no podemos decir que 60oF sea dos veces más caliente que 30oF,
porque el punto 0oF no es un punto cero absoluto (ausencia absoluta de calor).

En la escala de razón sí existe un punto cero real, y en consecuencia las medidas


pueden compararse en forma de razones.

Ejemplo. Además de ser cierto que una diferencia en valor de inventario de $5 000 es
el mismo monto de diferencia entre, por decir algo, $50 000 y $55 000 o entre $60 000 y
$65 000, también lo es que un valor de inventario de $100 000 es dos veces más
grande que un valor de inventario de $50 000.
CAPITULO 14. Estadística descriptiva o Deductiva

La Estadística Descriptiva: formula reglas y procedimientos para la presentación de


una masa de datos en una forma más útil y significativa. Establece normas para la
representación gráfica de los datos. También son una base importante para el análisis
en casi todas las disciplinas académicas.

La Estadística descriptiva, una vez que se han recogido los valores que toman las
variables de nuestro estudio (datos), procederemos al análisis descriptivo de los
mismos. Para variables categóricas, como el sexo o el estadiaje, se quiere conocer el
166

número de casos en cada una de las categorías, reflejando habitualmente el porcentaje


que representan del total, y expresándolo en una tabla de frecuencias.
Para variables numéricas, en las que puede haber un gran número de valores
observados distintos, se ha de optar por un método de análisis distinto, respondiendo a
las siguientes preguntas:
a. ¿Alrededor de qué valor se agrupan los datos?
b. Supuesto que se agrupan alrededor de un número, ¿cómo lo
hacen? ¿muy concentrados? ¿muy dispersos?
Lección 40. Distribución tablas de frecuencias, y su representación
grafica)http://www.universidadabierta.edu.mx/SerEst/MAP/METODOS%20CUANTITATI
VOS/Pye/tema_11.htm)

El manejo de la información requiere de la ordenación de datos de tal forma que permita


la obtención de una forma más fácil la obtención de conclusiones acerca de la muestra.
Una primera ordenación se realiza mediante el manejo de tablas, en las que se ordenan
los datos de acuerdo a ciertas características de los datos.

El manejo de datos discretos permite la manipulación de tablas, sobre todo cuando el


número de datos no es muy reducido. A continuación describiremos la manipulación de
datos mediante el manejo de datos discretos y continuos. Las variables a ser
manejadas en el estudio, en el caso de valores discretos, se puede representar
mediante una tabla en la que se representa los variables mediante variables con
nombre como (xi) y el número de veces en que un dato se representara mediante
frecuencias, frecuencias absolutas, frecuencias relativas. La representación de esta
tabla mediante frecuencias se le conoce como tabla estadística cuya función es la
determinar la frecuencia de cada clase las cuales aparecen a un lado de cada clase

Como antes se menciono, la estadística cuenta con procedimientos para recoger,


organizar y presentar información acerca de un problema determinado, y con métodos
para establecer la validez de las conclusiones obtenidas a partir de la información
recogida.
167

descriptiva

La estadística se clasifica en:


Inferencial

La descriptiva también presenta la información en forma cómoda, utilizable y


comprensible.
La inferencial se ocupa de la generalización de esa información haciendo
deducciones acerca de las poblaciones basándose en muestras tomadas de ellas.
Para estudiar el comportamiento de un fenómeno se requiere información y ¿Cómo
recopilarla?
1) Por medio de encuestas (interrogatorio oral o escrito que se aplica a varias
personas acerca del problema).
2) Por medio del registro de las observaciones que se hacen de él.

Cualitativos (expresan cualidad). Ej: Sexo:


Los datos pueden ser Masculino, Femenino.
: Cuantitativos(expresan cantidad). Ej: Edad en
años cumplidos: l5, l8,20,etc.

La información obtenida debe presentarse en forma organizada.


¿Cómo?
Se puede utilizar una distribución de frecuencias ( o también llamada tabla de
frecuencias), en donde se asocia a cada dato o subgrupo de datos (llamado intervalo de
clase o clase) una frecuencia (número de observaciones que corresponden a cada dato
o a cada grupo de datos).

La presentación de los datos puede hacerse en forma ordenada, si son datos:

Cualitativos Cuantitativos
168

- Orden alfabético - Forma creciente (menor al mayor).

- Escribir, primero el que más


- Forma decreciente (mayor al
se repite, luego el que sigue y
menor)
así sucesivamente.

EJEMPLO:
A) Se preguntó a un grupo de alumnos de Ingeniería Industrial su materia preferida.
Distrib. de frecuencia
Respuestas obtenidas datos f

mat eco adm inv Ind Administracion 6

mat inv Ind prob eco Ing. Econ. 5

prob mat mat adm Inv Ing. Indust. 11

eco mat prob ind prob Inv. de op. 6

mat prob Ind ind Inv Matematicas 12

eco prob mat adm Ind Prob. y est 10

mat ind mat inv Ind Total N= 50


169

adm prob mat ind prob

mat eco adm ind prob

prob mat Ind adm Inv

¿Observamos que los datos se colocaron en orden alfabético?


B) Se preguntó a un grupo de alumnos su estatura en cms.

Distrib. de frecuencia
Respuestas obtenidas datos f

152 163 154 170 164 154 166 151 1

163 162 168 168 172 170 160 152 1

161 158 165 165 151 161 157 154 2

160 155 158 158 170 169 168 155 2

155 156 162 162 166 168 160 156 1

157 1

158 2
170

160 4

161 2

162 2

163 2

164 1

165 2

166 2

168 5

169 1

170 3

172 1

TotN = 35

¿Observamos que los datos al ser cuantitativos se ordenaron en forma creciente?


Pero….. Cuando los datos son cuantitativos y se presentan más de 15 valores
diferentes, se recomienda resumir la información. ¿ Y cómo?

Acomodándolos en grupos (llamados clases o intervalos de clase).


171

Grupos
F
(clases)

151-
6 Los grupos deben formarse de igual tamaño
155

156-
8 (tamaño de clase : c)
160

161-
9 El total de grupos o clases no deben ser menor a
165

166-
11 5 ni mayor a 15
170

171-
1
175

N= 35

Los límites extremos de cada clase se les llama Límite Inferior y Superior de
clase respectivamente. En la la. Clase 151 es el L.I. , y 155 es el L.S.
Existen también Límites Reales Inferior y Superior de clase, estos se obtienen
sumando el límite superior de un intervalo de clase con el límite inferior de la clase
siguiente y dividiéndolos entre dos.
Marca de clase es el punto medio de cada clase y se obtiene sumando los límites
de clase y dividiéndolos entre dos.
Tamaño o anchura de clase es la diferencia entre los límites reales de clase, o la
diferencia entre los límites de clase más una unidad (la misma que se esté trabajando)
ó la diferencia entre las marcas de clase.
Por ejemplo:
En la distribución de frecuencias anterior, se tiene:
172

Clases LI Limit. reales Marcas de Clase Tamaño de


F
LS LRI LRS X Clase

151-
6 150.5-155.5 153 c=5
155

156-
8 155.5-160.5 158
160

161-
9 160.5-165.5 163
165

166-
11 165.5-170.5 168
170

171-
1 170.5-175.5 173
175

N=35

También se pueden hallar:


Frecuencias acumuladas.- la suma de cada frecuencia con la frecuencia de la
clase contigua superior.
Frecuencias relativas.- Dividiendo cada frecuencia entre el número total de
observaciones y multiplicándolas por l00 para tenerlas en forma de porcentaje.
Frecuencias relativas acumuladas.- La suma de cada frecuencia relativa con la
frecuencia relativa de la clase contigua superior. También se pueden obtener dividiendo
cada frecuencia acumulada entre el total de frecuencias por l00.
Rango.- Dato mayor menos dato menor.

Entonces en nuestro ejemplo tenemos:


173

Clases F fa Fr (%) fra(%) ó fra(%)

151-155 6 6 (6/35)100= 17.1 17.1 (6/35)100= 17.1

156-160 8 14 (8/35)100= 22.9 40 (14/35)100= 40

161-165 9 23 (9/35)100= 25.7 65.7 (23/35)100= 65.7

166-170 11 34 (11/35)100= 31.4 97.1 (34/35)100= 97.1

171-175 1 35 (1/35)100= 2.9 100 (35/35)100= 100

Rango = Dato Mayor – Dato Menor.

R = 172 - 151 = 21

¿Y para qué nos sirven estas frecuencias?

Para contestar preguntas tales como:

1) ¿Cuántos alumnos tienen estatura entre 156 y 160 cms?

R = se busca en la columna de frecuencias y la respuesta es 8.

2)¿Cuántos alumnos tienen estatura de l65 o menos?

R = Se busca en la columna de frec. ac. y la respuesta es 23.

3) ¿Qué porcentaje de alumnos tienen estatura entre 166 y 170 cms?

R = Se busca en la columna de frec. rel. y la respuesta es 31.4%.

4) ¿Qué porcentaje de alumnos tienen estatura menor o igual que l60?

R = Se busca en la columna de fre. rel. ac. Y la respuesta es 40%.

PRESENTACION DE LA INFORMACION A TRAVES DE GRAFICAS.


174

En dos grupos de una escuela se realizó un examen de matemáticas y los


resultados se presentaron de la manera siguiente:

Grupo1

calif F

5 3

6 8

7 14

8 9

9 4

10 2

Total 40

Grupo2
175

¿Cuál de los dos reportes te pareció mejor y porqué?

Realmente el gráfico se observa mejor, llama más la atención el gráfico y se


puede interpretar mejor y más rápido. Por eso se utilizan para la representación de la
información una serie de gráficas como son:

-Diagrama de Barras ó Gráfica de Barras.

-Histograma.

-Polígono de Frecuencias.

-Gráfica circular o Gráfica de pastel.

-Pictograma.

-Ojiva ó Polígono de Frecuencias acumuladas.

-Ojiva Porcentual ó Polígono de Frecuencias relativas acumuladas.

Diagrama de barras
Se utilizan rectángulos separados, que tienen como base a cada uno de los
datos y como altura la frecuencia de ese dato.
Ejemplo: En la siguiente tabla se muestra el total de vacunas aplicadas durante el
verano de l991 en un estado de la República Mexicana.

Datos Fr(%)
f (en miles)
(vacunas) (redondeado

BCG 47 17

SABIN 111 41

DPT 73 27

SARAMPION 41 15

TOTAL 272 100


176

El diagrama de barras o gráfica de barras suele elaborarse con algunas


variantes; por ejemplo, se pueden utilizar líneas en vez de rectángulos ó barras ( ó
líneas) horizontales en vez de verticales.
Si se tienen datos cuantitativos se grafica en el eje de las x los valores centrales
(marcas de clase), cuyas alturas son proporcionales a sus frecuencias. Así en la
distribución de frecuencias de las alturas de 35 alumnos se tiene:
177

Histograma.
Se utiliza en datos cuantitativos en distribuciones de frecuencia. Son rectángulos
verticales unidos entre sí, en donde sus lados son los límites reales inferior y superior
de clase y cuya altura es igual ala frecuencia de clase.
Con la distribución de frec. anterior se tiene:

Polígono de Frecuencias:
Consiste en una serie de segmentos que unen los puntos cuyas abscisas son los
valores centrales de cada clase y cuyas ordenadas son proporcionales a sus
frecuencias respectivas.

Gráfica Circular:
Se forma al dividir un círculo en sectores circulares de manera que:
a) Cada sector circular equivale al porcentaje correspondiente al dato o grupo que
representa.
b) La unión de los sectores circulares forma el círculo y la suma de sus porcentajes
es 100.
178

c)

Datos (vacunas) f (miles) Fr(%) Grados (redondeados)

BCG 47 17 .17 x 360 = 61

SABIN 111 41 .41 x 360 = 148

DPT 73 27 .27 x 360 = 97

SARAMPION 41 15 .15 x 360 =54

TOTAL 272 100 360

Pictograma:
Se utiliza un dibujo relacionado con el tema, para representar cierta cantidad de
frecuencias.

Este tipo de gráfica atrae la atención por los dibujos, pero la desventaja es que
se lee en forma aproximada.
179

Ejemplo:
En una biblioteca de una escuela se tienen los siguientes libros:

Libros f

Biología 25

Matematicas 30

Fisica 43

Quimica 20

Filosofia 10

Total 128

Ojiva o Polígono de frecuencias acumuladas:


Una gráfica de distribución de frecuencias acumuladas es llamada una ojiva. Se
trazan los límites reales superiores contra las frecuencias acumuladas.
180

Ojiva Porcentual ó Polígono de frecuencias relativas acumuladas.


Se trazan los límites reales superiores contra las frecuencias relativas
acumuladas.

Lección 41. Medidas de tendencia central y de dispersión o variabilidad

Estadígrafos de posición: (llamados también de tendencia central) indican alrededor de


cuál valor se agrupan los datos obtenidos. La media, la mediana, la moda son los más
comunes y conocidos estadígrafos de posición o tendencia central. Si se graficaran todos
los valores, esa especie de “nube” de puntos se distribuiría alrededor de una zona central,
donde se ubican estos índices. La media o promedio suele ser la mejor medida para
cuantificar esta zona, una especie de centro de “gravedad” de esos datos. Dentro de este
grupo entran los percentiles: la mediana es el percentil 50, o bien el segundo cuartil, o bien
el quinto decil.

Las medidas de centralización vienen a responder a la primera pregunta. La medida


más evidente que podemos calcular para describir un conjunto de observaciones
numéricas es su valor medio. La media no es más que la suma de todos los valores de
una variable dividida entre el número total de datos de los que se dispone.
181

Como ejemplo, consideremos 10 pacientes de edades 21 años, 32, 15, 59, 60, 61, 64,
60, 71, y 80. La media de edad de estos sujetos será de:

Más formalmente, si denotamos por (X1, X2,...,Xn) los n datos que tenemos recogidos de
la variable en cuestión, el valor medio vendrá dado por:

Otra medida de tendencia central que se utiliza habitualmente es la mediana. Es la


observación equidistante de los extremos.
La mediana del ejemplo anterior sería el valor que deja a la mitad de los datos por
encima de dicho valor y a la otra mitad por debajo. Si ordenamos los datos de mayor a
menor observamos la secuencia:
15, 21, 32, 59, 60, 60,61, 64, 71, 80.
Como quiera que en este ejemplo el número de observaciones es par (10 individuos),
los dos valores que se encuentran en el medio son 60 y 60. Si realizamos el cálculo de
la media de estos dos valores nos dará a su vez 60, que es el valor de la mediana.
Si la media y la mediana son iguales, la distribución de la variable es simétrica. La
media es muy sensible a la variación de las puntuaciones. Sin embargo, la mediana es
menos sensible a dichos cambios.
Por último, otra medida de tendencia central, no tan usual como las anteriores, es la
moda, siendo éste el valor de la variable que presenta una mayor frecuencia.
En el ejemplo anterior el valor que más se repite es 60, que es la moda.
Medidas de dispersión o variabilidad

Tal y como se adelantaba antes, otro aspecto a tener en cuenta al describir datos
continuos es la dispersión de los mismos. Existen distintas formas de cuantificar esa
variabilidad. De todas ellas, la varianza (S2) de los datos es la más utilizada. Es la
media de los cuadrados de las diferencias entre cada valor de la variable y la media
aritmética de la distribución.
182

Esta varianza muestral se obtiene como la suma de las de las diferencias de cuadrados
y por tanto tiene como unidades de medida el cuadrado de las unidades de medida en
que se mide la variable estudiada.
En el ejemplo anterior la varianza sería:

S x 2=

La desviación típica (S) es la raíz cuadrada de la varianza. Expresa la dispersión de la


distribución y se expresa en las mismas unidades de medida de la variable. La
desviación típica es la medida de dispersión más utilizada en estadística.

Aunque esta fórmula de la desviación típica muestral es correcta, en la práctica, la


estadística nos interesa para realizar inferencias poblacionales, por lo que en el
denominador se utiliza, en lugar de n, el valor n-1.
Por tanto, la medida que se utiliza es la cuasi desviación típica, dada por:

Aunque en muchos contextos se utiliza el término de desviación típica para referirse a


ambas expresiones.
En los cálculos del ejercicio previo, la desviación típica muestral, que tiene como
denominador n, el valor sería 20.678. A efectos de cálculo lo haremos como n-1 y el
resultado seria 21,79.
El haber cambiado el denominador de n por n-1 está en relación al hecho de que esta
segunda fórmula es una estimación más precisa de la desviación estándar verdadera
de la población y posee las propiedades que necesitamos para realizar inferencias a la
población.
Cuando se quieren señalar valores extremos en una distribución de datos, se suele
utilizar la amplitud como medida de dispersión. La amplitud es la diferencia entre el
valor mayor y el menor de la distribución.
Por ejemplo, utilizando los datos del ejemplo previo tendremos 80-15 =65.
Como medidas de variabilidad más importantes, conviene destacar algunas
características de la varianza y desviación típica:
183

• Son índices que describen la variabilidad o dispersión y por tanto


cuando los datos están muy alejados de la media, el numerador de
sus fórmulas será grande y la varianza y la desviación típica lo
serán.
• Al aumentar el tamaño de la muestra, disminuye la varianza y la
desviación típica. Para reducir a la mitad la desviación típica, la
muestra se tiene que multiplicar por 4.
• Cuando todos los datos de la distribución son iguales, la varianza y
la desviación típica son iguales a 0.
• Para su cálculo se utilizan todos los datos de la distribución; por
tanto, cualquier cambio de valor será detectado.
Otra medida que se suele utilizar es el coeficiente de variación (CV). Es una medida
de dispersión relativa de los datos y se calcula dividiendo la desviación típica muestral
por la media y multiplicando el cociente por 100. Su utilidad estriba en que nos permite
comparar la dispersión o variabilidad de dos o más grupos. Así, por ejemplo, si tenemos
el peso de 5 pacientes (70, 60, 56, 83 y 79 Kg) cuya media es de 69,6 kg. y su
desviación típica (s) = 10,44 y la TAS de los mismos (150, 170, 135, 180 y 195 mmHg)
cuya media es de 166 mmHg y su desviación típica de 21,3. La pregunta sería: ¿qué
distribución es más dispersa, el peso o la tensión arterial? Si comparamos las
desviaciones típicas observamos que la desviación típica de la tensión arterial es
mucho mayor; sin embargo, no podemos comparar dos variables que tienen escalas de
medidas diferentes, por lo que calculamos los coeficientes de variación:

CV de la variable peso =

CV de la variable TAS =

A la vista de los resultados, observamos que la variable peso tiene mayor dispersión.
Cuando los datos se distribuyen de forma simétrica (y ya hemos dicho que esto ocurre
cuando los valores de su media y mediana están próximos), se usan para describir esa
variable su media y desviación típica. En el caso de distribuciones asimétricas, la
mediana y la amplitud son medidas más adecuadas. En este caso, se suelen utilizar
además los cuartiles y percentiles.
Los cuartiles y percentiles no son medidas de tendencia central sino medidas de
posición. El percentil es el valor de la variable que indica el porcentaje de una
distribución que es igual o menor a esa cifra.
Así, por ejemplo, el percentil 80 es el valor de la variable que es igual o deja por debajo
de sí al 80% del total de las puntuaciones. Los cuartiles son los valores de la variable
184

que dejan por debajo de sí el 25%, 50% y el 75% del total de las puntuaciones y así
tenemos por tanto el primer cuartil (Q1), el segundo (Q2) y el tercer cuartil (Q3).
Existen aun otras variaciones de las medidas de dispersión, par a mayor información
se puede consultar los libros de estadística de Blalock (1960) o McNemar (1962).
Para ver como se distribuyen algunas características de la muestra con respecto a la
variable que se esta midiendo, se puede estudiar la forma de la curva de distribución.
Es fundamental saber cual es la forma de dicha curva para poder utilizar métodos
estadísticos mas avanzados ya que en ellos se requiere que dicha curva sea normal, es
decir en forma de campana
DISTRIBUCIÓN NORMAL
o campana de Gauss-Laplace
Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio
nombre indica su extendida utilización, justificada por la frecuencia o normalidad con la
que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica
tiene forma de campana.
En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo
valor de p y valores de n cada vez mayores, se ve que sus polígonos de frecuencias
se aproximan a una curva en "forma de campana".
En resumen, la importancia de la distribución normal se debe principalmente a que hay
muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal
• Caracteres morfológicos de individuos (personas, animales, plantas,...) de una
especie, p.ejm. tallas, pesos, envergaduras, diámetros, perímetros,...
• Caracteres fisiológicos, por ejemplo: efecto de una misma dosis de un fármaco, o
de una misma cantidad de abono.
• Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo
grupo de individuos, puntuaciones de examen.
• Caracteres psicológicos, por ejemplo: cociente intelectual, grado de adaptación a
un medio,...
• Errores cometidos al medir ciertas magnitudes.
• Valores estadísticos muestrales, por ejemplo : la media.
Otras distribuciones como la binomial o la de Poisson son aproximaciones normales.
Y en general cualquier característica que se obtenga como suma de muchos factores.
185

FUNCIÓN DE DENSIDAD
Empleando cálculos bastante laboriosos, puede demostrarse que el modelo de la
función de densidad que corresponde a tales distribuciones viene dado por la fórmula
Representación gráfica de esta función de densidad

La distribución normal queda definida por dos parámetros, su media y su desviación


típica
FUNCIÓN DE DISTRIBUCIÓN
• Puede tomar cualquier valor (- ¥, + ¥)
• Son más probables los valores cercanos a uno central que llamamos media m
• Conforme nos separamos de ese valor m , la probabilidad va decreciendo de
igual forma a derecha e izquierda (es simétrica).
• Conforme nos separamos de ese valor m , la probabilidad va decreciendo de
forma más o menos rápida dependiendo de un parámetro s , que es la
desviación típica.
a la variable Z se la denomina variable tipificada de X, y a la curva de su función de
densidad curva normal tipificada.
Característica de la distribución normal tipificada (reducida, estándar)
• No depende de ningún parámetro
• Su media es 0, su varianza es 1 y su desviación típica es 1.
• La curva f(x) es simétrica respecto del eje OY
• Tiene un máximo en este eje
Existen formas de calcular la manera en que están distribuidos los datos bajo esta
curva. Es posible transformar los valores de una curva normal determinada en valores
186

numéricos, de tal forma que utilizando una tabla se pueda evaluar la proporción de
casos que se encuentra en un intervalo dado. A esta técnica se le conoce como
calificación “Z”, calificación estándar.
Antes de pasar al capitulo de estadística inferencial, se presenta una tabla que resumen
la estadística descriptiva
Tabla ¿Resumen de la estadística descriptiva

Nivel de medición Aplicación Técnicas

Nominal Proporciones,
porcentajes

Intervalar Agrupación de datos Frecuencias, graficas,


histogramas,
distribuciones
acumulativas
La tipicidad de un grupo
Medidas de tendencia
central: media, mediana
Ver que tanto varían los y moda
individuo dentro de un
Medidas de
grupo
dispersión::rango,
desviación cuartilar
desviación media,
Ver la distribución d e a desviación estándar,
muestra con respecto a coeficiente de variación
alguna variable
Distribución de datos
bajo la curva,
Distribución, calificación
“Z” o estándar

Capitulo 15. Estadística inferencial


1.1 Introducción a la estadística inferencial
La estadística Inferencia, es el proceso por el cual se deducen (infieren) propiedades o
características de una población a partir de una muestra significativa. Uno de los
aspectos principales de la inferencia es la estimación de parámetros estadísticos. Por
ejemplo, para averiguar la media, µ, de las estaturas de todos los soldados de un
reemplazo, se extrae una muestra y se obtiene su media. La media de la muestra
(media muestral), es un estimador de la media poblacional, µ. Si el proceso de
muestreo está bien realizado (es decir, la muestra tiene el tamaño adecuado y ha sido
187

seleccionada aleatoriamente), entonces el valor de µ, desconocido, puede ser inferido a


partir de
La inferencia siempre se realiza en términos aproximados y declarando un cierto nivel
de confianza. Por ejemplo, si en una muestra de n = 500 soldados se obtiene una
estatura media = 172 cm, se puede llegar a una conclusión del siguiente tipo: la
estatura media, µ, de todos los soldados del reemplazo está comprendida entre 171 cm
y 173 cm, y esta afirmación se realiza con un nivel de confianza de un 90%. (Esto
quiere decir que se acertará en el 90% de los estudios realizados en las mismas
condiciones que éste y en el 10% restante se cometerá error.)
Si se quiere mejorar el nivel de confianza, se deberá aumentar el tamaño de la muestra,
o bien disminuir la precisión de la estimación dando un tramo más amplio que el
formado por el de extremos 171, 173. Recíprocamente, si se quiere aumentar la
precisión en la estimación disminuyendo el tamaño del intervalo, entonces hay que
aumentar el tamaño de la muestra o bien consentir un nivel de confianza menor.
Finalmente, si se quiere mejorar tanto la precisión como el nivel de confianza, hay que
tomar una muestra suficientemente grande
Lección 42. Fin y Propósitos de la estadística inferencial

El fin principal de la estadística inferencial consiste en poder hacer generalizaciones de


varias características de alguna muestra de la población de la cual fue extraída.
La estadística inferencial comprende las técnicas con las que, con base únicamente en
una muestra sometida a observación, se toman decisiones sobre una población o
proceso estadísticos. Dado que estas decisiones se toman en condiciones de
incertidumbre, suponen el uso de conceptos de probabilidad. Mientras que a las
características medidas de una muestra se les llama estadísticas muestrales, a las
características medidas de una población estadística, o universo, se les llama
parámetros de la población. El procedimiento para la medición de las características de
todos los miembros de una población definida se llama censo. Cuando la inferencia
estadística se usa en el control de procesos, al muestreo, le interesa en particular el
descubrimiento y control de las fuentes de variación en la calidad de la producción.
A las características representativas de una población se conoce con el nombre de
parámetros, y las de una muestra con el de estadísticas. Para referirse a las
características de una población se utilizan generalmente letras griegas, y para las de
una muestra se emplea el abecedario romano.
En relación con los parámetros y las estadísticas de las muestras y las poblaciones, es
muy importante conocer la ley d e los grandes números. Esta ley dice que entre mayor
sea el tamaño d e una muestra menor será la probabilidad de que el valor de una
observación dada se desvié del “verdadero” valor de esa observación por mas de una
cierta cantidad fija. Si las medidas de las muestras son tomadas d e manera
188

independiente, entre mas grande sea la muestra, mas cerca estaremos de obtener el
“verdadero” valor que tiene la población.
La importancia de la curva normal, la cual mencionamos en capitulo anterior, en este
contexto consiste en el hecho de que eventos que suceden al azar en grandes
números, tienden a distribuirse en la forma de la curva normal. Muchos fenómenos,
tales como la estatura, la edad, la inteligencia, altura de los árboles, calificaciones de
una asignatura, entre otros se distribuyen de esta manera:
Ejemplo. Para estimar el voltaje requerido para provocar fallas en un dispositivo
eléctrico, una muestra de estos dispositivos puede someterse a voltajes crecientes
hasta que falle cada uno de ellos. Con base en estos resultados muestrales puede
estimarse la probabilidad de falla a varios niveles de voltaje de los demás dispositivos
de la población muestreada.
¿Para que es útil la estadística inferencial?

Frecuentemente, el propósito de la investigación va más allá de describir las


distribuciones de las variables: se pretende generalizar los resultados obtenidos en la
muestra a la población o universo. Los datos casi siempre son recolectados de una
muestra y sus resultados estadísticos se denominan “estadígrafos”, la media o la
desviación estándar de la distribución de una muestra son estadígrafo. A las
estadísticas de la población o universo se les conoce como “parámetros”. Los
parámetros no son calculados, porque no se recolectan datos de toda la población, pero
pueden se inferidos de los estadígrafos, de ahí el nombre “estadística inferencial”.

La inferencia de los parámetros se lleva a cabo mediante técnicas estadísticas


apropiadas para ello. Estas técnicas se explicaran mas adelante.

La estadística inferencial puede ser utilizada para dos procedimientos:

a) Probar hipótesis
b) Estimar parámetros

En la figura... se esquematiza el procedimiento de la estaditica inferencial

Procedimiento de la estadística inferencial


189

Recolección Calculo de Inferencia de los Población o


estadígrafos parámetros mediante
de los datos técnicas estadísticas
de la muestra apropiadas
universo

Errores que se pueden cometer al realizar estadistica inferencial

Nunca podemos estar completamente seguros de nuestra estimación. Trabajamos


con altos niveles de confianza o seguridad y- aunque el riesgo es mínimo- podría
cometerse un error. Los resultados posibles al probar hipótesis pueden ser:

1) Aceptar una hipótesis verdadera (decisión correcta)

2) Rechazar una hipótesis falsa (decisión correcta)

3) Aceptar una hipótesis falsa (error conocido del tipo II o beta).

4) Rechazar un hipótesis verdadera (error conocido como de tipo II o error alfa)

Ambos tipos de error son indeseables y puede reducirse la posibilidad de que se


presenten mediante:

a) Muestras representativas probabilísticas.

b) Inspección cuidadosa de los datos

c) Selección de las pruebas estadísticas apropiadas

d) Mayor conocimiento de la población.

Lección 43. Prueba de hipótesis, Nivel de Significancia, Distribución Muestral

Pruebas de hipótesis
190

La hipótesis en el contexto de la estadística inferencial es una proposición respecto a


uno o varios parámetros, y lo que el investigador hace a través de la prueba de
hipótesis es determinar si la hipótesis es consistente con los datos obtenidos en la
muestra (Wiersma, 1986). Si la hipótesis es consistente con los datos, esta es retenida
como un valor aceptable del parámetro. Si la hipótesis no es consistente con los datos,
se rechaza esta (pero los datos no son descartados) (Wiersma,1986). Para comprender
lo que es la prueba de hipótesis en la estadística inferencial es necesario revisar el
concepto de distribución muestral y nivel de significancia,, conceptos lo cuales
estudiaremos posteriormente

El propósito de la prueba de hipótesis es determinar si el valor supuesto (hipotético) de


un parámetro poblacional, como la media de la población, debe aceptarse como
verosímil con base en evidencias muestrales. Recuérdese que sobre distribuciones de
muestreo, se dijo que, en general, una media muestral diferirá en valor de la media
poblacional. Si el valor observado de una estadística muestral, como la media muestral,
se acerca al valor paramétrico supuesto y sólo difiere de él en un monto que cabría
esperar del muestreo aleatorio, el valor hipotético no se rechaza. Si la estadística
muestral difiere de la supuesta en un monto que no es posible atribuir al azar, la
hipótesis se rechaza por inverosímil.

Se han desarrollado tres procedimientos distintos para la prueba de hipótesis, todos los
cuales conducen a las mismas decisiones cuando se emplean los mismos estándares
de probabilidad (y riesgo). En este capítulo describiremos primeramente el método del
valor crítico para la prueba de hipótesis. De acuerdo con este método, se determinan
los así llamados valores críticos de la estadística de prueba que dictarían el rechazo de
una hipótesis, tras de lo cual la estadística de prueba observada se compara con los
valores críticos. Éste fue el primer método en desarrollarse, motivo por el cual buena
parte de la terminología de las pruebas de hipótesis se deriva de él. Más recientemente,
el método del valor P ha cobrado popularidad a causa de ser el más fácilmente
aplicable a software de cómputo. Este método se basa en la determinación de la
probabilidad condicional de que el valor observado de una estadística muestral pueda
ocurrir al azar, dado que un supuesto particular sobre el valor del parámetro poblacional
asociado sea en efecto correcto. El método de intervalos de confianza se basa en la
observación de si el valor supuesto de un parámetro poblacional está incluido en el
rango de valores que define a un intervalo de confianza para ese parámetro.

Pero más allá del método de prueba de hipótesis que se use, debe hacerse notar que si
un valor hipotético no se rechaza, y por lo tanto se acepta, ello no constituye una
"prueba" de que sea correcto. La aceptación de un valor supuesto de un parámetro
indica simplemente que se trata de un valor verosímil, con base en el valor observado
de la estadística muestral.

5.2 Pasos básicos de la prueba de hipótesis con el método de valor crítico


191

Paso1. Formule la hipótesis nula y la hipótesis alternativa. La hipótesis nula (H0 es el


valor paramétrico hipotético que se compara con el resultado muestral. Se le rechaza
sólo si es poco probable que el resultado muestral haya ocurrido dado lo correcto de la
hipótesis. La hipótesis alternativa (H1) se acepta sólo si la hipótesis nula es rechazada.
En muchos libros de texto la hipótesis alternativa también se designa como Ha.

Ejemplo Un auditor desea probar el supuesto de que el valor medio de la totalidad de


las cuentas por cobrar de una empresa dada es de $260.00 tomando una muestra de n
= 36 y calculando la media muestral. El auditor desea rechazar el valor supuesto de
$260.00 sólo si es claramente contradicho por la media muestral, caso éste en el que el
valor hipotético recibiría el beneficio de la duda en el procedimiento de prueba. Las
hipótesis nula y alternativa de esta prueba son H0 : = $260.00 y H1 :  $260.00.

Paso 2. Especifique el nivel de significancia por aplicar. El nivel de significancia es el


estándar estadístico que se especifica para rechazar la hipótesis nula. Si se especifica
un nivel de significancia de 5%, la hipótesis nula se rechaza sólo si el resultado
muestral es tan diferente del valor hipotético que una diferencia por ese monto o un
monto superior ocurriría al azar con una probabilidad de 0.05 o menos.

Nótese que si se usa el nivel de significancia de 5%, hay una probabilidad de 0.05 de
rechazar la hipótesis nula aun siendo efectivamente cierta. Esto se llama error tipo I La
probabilidad del error tipo I siempre es igual al nivel de significancia empleado como
estándar para rechazar la hipótesis nula; se le designa con la letra griega minúscula
(alfa), de modo que a designa también al nivel de significancia. Los niveles de
significancia de uso más frecuente en la prueba de hipótesis son los de 5% y 1%.

Ocurre un error tipo II si la hipótesis nula no se rechaza, y es por lo tanto aceptada,


cuando en realidad es falsa. La determinación de la probabilidad del error tipo II se
explica. En la tabla correspondiente se resumen los tipos de decisiones y las posibles
consecuencias de las decisiones tomadas en pruebas de hipótesis.

Paso 3. Seleccione la estadística de prueba. La estadística de prueba será ya sea la


estadística muestral (el estimador insesgado del parámetro a prueba) o una versión
estandarizada de la estadística muestral. Por ejemplo, para probar un valor hipotético
de la media poblacional, la media de una muestra aleatoria tomada de esa población
podría servir como la estadística de prueba. Sin embargo, si la distribución de muestreo
de la media es normal, el valor de la media muestral se convierte usualmente en un
valor z, el cual funge entonces como la estadística de prueba.

Paso 4. Establezca el valor o valores críticos de la estadística de prueba. Habiendo


especificado la hipótesis nula, el nivel de significancia y la estadística de prueba por
usar, se establece entonces el(los) valor(es) crítico(s) de la estadística de prueba. Estos
valores pueden ser uno o dos, dependiendo de si están implicadas las así llamadas
pruebas unilaterales o bilaterales. En cualquier caso, un valor crítico identifica el valor
de la estadística de prueba requerido para rechazar la hipótesis nula.
192

Paso 5. Determine el valor de la estadística de prueba. Por ejemplo, al probar un valor


hipotético de la media poblacional, se recolecta una muestra aleatoria y se determina el
valor de la media muestral. Si el valor crítico fue establecido como un valor z, la media
muestral se convierte a un valor z.

Paso 6. Tome la decisión. El valor observado de la estadística muestral se compara con


el valor (o valores) crítico(s) de la estadística de prueba. Se rechaza o no entonces la
hipótesis nula. Si la hipótesis nula es rechazada, se acepta la hipótesis alternativa. Esta
decisión tendrá relevancia a su vez para otras decisiones por tomar por los gerentes de
operación, como la de si se está sosteniendo o no cierto estándar de desempeño o cuál
de dos estrategias de comercialización seguir.

. Significancia estadística
El nivel de significancia en su concepto mas sencillo es: la probabilidad de que un
evento ocurra oscila entre 0 y 1, donde 0 significa la imposibilidad de ocurrencia y 1 la
certeza de ocurrencia del fenómeno. Al lanzar al aire una moneda no cargada, la
probabilidad de que salga “cruz” es 0.50 y la probabilidad de que la moneda caiga al
suelo en “cara” también es de 0.50. Con un dado, la probabilidad cualquiera de sus
lados al lanzarlo es de 1/6 = 0.1667. La suma de posibilidades siempre es de 1.

Aplicando el concepto de probabilidad a la distribución muestral, podemos tomar el área


de esta como 1.00, y consecuentemente, cualquier área comprendida entre dos puntos
de la distribución corresponderá a la probabilidad de la distribución. Para poder probar
hipótesis inferenciales respecto a la media, el investigador tiene que evaluar si la
posibilidad de que la media de la muestra este cerca de la media de la distribución
muestral es grande o pequeña. Si es pequeña, el investigador dudara de generalizar a
la población. Si es grande, el investigador podrá hacer generalizaciones. Es aquí donde
entra el nivel de significancia o nivel alfa (nivel α) Este es un nivel de probabilidad de
equivocarse y se fija antes de probar hipótesis inferenciales.

Se acudirá a un ejemplo coloquial para ejemplificarlo y luego explicarlo.


Si usted fuera a apostar en las carreras de caballos y tuviera 95% de probabilidad de
atinarle al ganador, contra solo un 5% de perder, ¿apostaría? Seguramente si, siempre
y cuando le aseguraran ese 95% en su favor. O bien, si le dieran 95 boletos de 100
para la rifa de un automóvil., ¿tendría confianza en que va a estrenar vehiculo?.
Seguramente si. No tendría la certeza total, esta no existe en el universo, al menos
para los seres humanos.
Pues bien, algo similar hacen los investigadores. Obtienen una estadística en una
muestra ( ej. , la media) y analizan que porcentaje tiene de confianza de que dicha
estadística se acerque al valor de la distribución muestral (que es el valor de la
población o parámetro). Buscan un alto porcentaje de confianza, una probabilidad
elevada para estar tranquilos. Porque saben que puede haber error de muestreo, y
aunque la evidencia parece mostrar una aparente “cercanía” entre el valor calculado en
193

la muestra y el parámetro, esta “cercanía” puede no ser real y deberse a errores en la


selección de la muestra.

En muchos campos de experimentación, se acostumbra usar los niveles de


significancia del 5 y del 1 por ciento. El nivel del 5% implica que el investigador tiene
95% de seguridad para generalizar sin equivocarse, y solo el 5% en contra. En términos
de probabilidad, 0.95 y .05 respectivamente, ambos suman la unidad. En el caso del
1%, implica que el investigador tiene un 99% en su favor para generalizar sin temor y un
1% en contra (0.99 + 0,01 = 1.00).
A veces el nivel de significancia puede ser todavía mas exigente y confiable) ej. 0.001,
0.00001). pero lo mínimo es el 5%, no se acepta un nivel de .06 (94% a favor de la
generalización confiable). Porque se busca hacer ciencia, no intuición.
El nivel de significancia es un valor de certeza que fija el investigador “ a priori”. De
certeza respecto a no equivocarse.

Si por azar un valor más discrepante del criterio de prueba que el obtenido ocurre
probablemente menos del 5 por ciento de las veces pero no menos del 1 por ciento
cuando la hipótesis nula es cierta, entonces se dice que la diferencia es significativa, y
el valor del criterio de la prueba se marca con un asterisco *. Si un valor más
discrepante del criterio de prueba que el obtenido ocurre con probabilidad menor que el
1 por ciento de las veces cuando la hipótesis nula es verdadera, se dice que la
diferencia es altamente significativa y el valor muestral del criterio de prueba se señala
con dos asteriscos **. La aceptación de la hipótesis nula puede indicarse con las letras
ns, que significan diferencias no significativas.

Los niveles del 5 y del 1 por ciento son arbitrarios, pero parecen haberse escogido
adecuadamente en el campo de la agricultura donde fueron usados por primera vez. Si
un experimentador usa niveles diferentes del 5 y del 1 por ciento, esto debe quedar
claramente establecido.

La distribución muestral, es la distribución de los valores individuales en una muestra,


la cual sea representativa de la población. Cabe señalar que el valor de una estadística
muestral varia de una muestra a otra, a causa de la variabilidad del muestreo aleatorio,
o el error de muestreo.
Como se relaciona la distribución muestral y el nivel de significancia

El nivel de significancia se expresa en términos de probabilidad (0.05 y 0.01) y la


distribución muestral también se expresa como probabilidad (el área total de esta como
1.00). Pues bien, para ver si tenemos o no confianza al generalizar acudimos a la
distribución muestral, probabilidad apropiada para la investigación en general. El nivel
de significancia lo tomamos como un área bajo la distribución muestral….
194

Coeficiente de correlación de Pearson Lección 44.

Coeficiente de correlación de Pearson

Definición: Es una prueba estadística para analizar la relación entre dos variables
medidas en un nivel por intervalos de razón. se simboliza por r o R

La medida más habitualmente utilizada para el estudio de la correlación es el


coeficiente de correlación lineal de Pearson. El coeficiente de Pearson mide el grado de
asociación lineal entre dos variables cualesquiera, y puede calcularse dividiendo la
covarianza de ambas entre el producto de las desviaciones típicas de las dos variables
.Para un conjunto de datos, el valor r de este coeficiente puede tomar cualquier valor
entre –1 y +1. El valor de r será positivo si existe una relación directa entre ambas
variables, esto es, si las dos aumentan al mismo tiempo. Será negativo si la relación es
inversa, es decir, cuando una variable disminuye a medida que la otra aumenta. Un
valor de +1 ó –1 indicará una relación lineal perfecta entre ambas variables, mientras
que un valor 0 indicará que no existe relación lineal entre ellas. Hay que tener en
consideración que un valor de cero no indica necesariamente que no exista correlación,
ya que las variables pueden presentar una relación no lineal.
Para un conjunto de datos cualquiera, y una vez calculado el coeficiente de correlación
entre un par de variables X e Y, puede realizarse un sencillo test de hipótesis, basado
en la distribución t de Student, para valorar la significación del coeficiente de correlación
y confirmar si existe o no una asociación estadísticamente significativa entre ambas
características. Estudiar la significación estadística del coeficiente de correlación es, en
definitiva, determinar si r es estadísticamente diferente de cero. Así mismo, puede
obtenerse un intervalo de confianza para el coeficiente de correlación en la población.
Sin embargo, mientras que el valor del coeficiente de correlación de Pearson puede ser
calculado para cualquier conjunto de datos, la validez del test de hipótesis sobre la
correlación entre las variables requiere que al menos una de ellas tenga una
195

distribución normal en la población de la cual procede la muestra. Para el cálculo del


intervalo de confianza, se requiere además que ambas variables presenten una
distribución normal. Aún bajo esta suposición, la distribución del coeficiente de
correlación no será normal, pero puede transformarse para conseguir un valor de z que
siga una distribución normal y calcular a partir de él su correspondiente intervalo de
confianza

Hipótesis a probar: Correlacionad, del tipo de “A mayor X, mayor Y”, “A mayor X,


menor Y”, “Altos valores en X están asociados con altos valores en Y”, “Altos valores
en X se asocian con bajos valores de Y”.

Regresión lineal

Definición: Es un modelo matemático para estimar el efecto de una variables sobre otra.
Esta asociado con el coeficiente r de pearson.

La Regresión y la correlación son dos técnicas estadísticas que se pueden utilizar para
solucionar problemas comunes en los negocios.
Muchos estudios se basan en la creencia de que es posible identificar y cuantificar alguna
Relación Funcional entre dos o más variables, donde una variable depende de la otra
variable.
Se puede decir que Y depende de X, en donde Y y X son dos variables cualquiera en
un modelo de Regresión Simple.
"Y es una función de X"
Y = f(X) Como Y depende de X,
Y es la variable dependiente, y
X es la variable independiente.
En el Modelo de Regresión es muy importante identificar cuál es la variable dependiente
y cuál es la variable independiente.
En el Modelo de Regresión Simple se establece que Y es una función de sólo una
variable independiente, razón por la cual se le denomina también Regresión Divariada
196

porque sólo hay dos variables, una dependiente y otra independiente y se representa
así:
Y = f (X)
"Y está regresando por X"
La variable dependiente es la variable que se desea explicar, predecir. También se le
llama REGRESANDO ó VARIABLE DE RESPUESTA.
La variable Independiente X se le denomina VARIABLE EXPLICATIVA ó REGRESOR y
se le utiliza para EXPLICAR Y.
Hipótesis a probar: Correlacionales y causales
Variables involucradas: Dos.
Nivel de medición de las variables: Intervalos o razón
Procedimiento e interpretación: la regresión lineal se determina en base al diagrama
de dispersión---

ANÁLISIS ESTADÍSTICO: REGRESION LINEAL SIMPLE


En el estudio de la relación funcional entre dos variables poblacionales, una variable X,
llamada independiente, explicativa o de predicción y una variable Y, llamada
dependiente o variable respuesta, presenta la siguiente notación:
Y=a+bX+
Donde: a es el valor de la ordenada donde la línea de regresión se intercepta con el eje
Y.
b es el coeficiente de regresión poblacional (pendiente de la línea recta)
es el error
SUPOSICIONES DE LA REGRESIÓN LINEAL
Los valores de la variable independiente X son fijos, medidos sin error.
1. La variable Y es aleatoria
2. Para cada valor de X, existe una distribución normal de valores de Y
(subpoblaciones Y)
3. Las variancias de las subpoblaciones Y son todas iguales.
197

4. Todas las medias de las subpoblaciones de Y están sobre la recta.


5. Los valores de Y están normalmente distribuidos y son estadísticamente
independientes.
6. Los valores de Y están normalmente distribuidos y son estadísticamente
independientes.
ESTIMACIÓN DE LA ECUACIÓN DE REGRESIÓN MUESTRAL
Consiste en determinar los valores de "a" y "b " a partir de la muestra, es decir,
encontrar los valores de a y b con los datos observados de la muestra. El método de
estimación es el de Mínimos Cuadrados, mediante el cual se obtiene:

Luego, la ecuación de regresión muestral estimada es

Que se interpreta como:


a es el estimador de a
Es el valor estimado de la variable Y cuando la variable X = 0
b es el estimador de b , es el coeficiente de regresión
Está expresado en las mismas unidades de Y por cada unidad de X. Indica el número
de unidades en que varía Y cuando se produce un cambio, en una unidad, en X
(pendiente de la recta de regresión).
Un valor negativo de b sería interpretado como la magnitud del decremento en Y por
cada unidad de aumento en X.
ANTECEDENTES DEL PROBLEMA
Los datos de la siguiente tabla representan las estaturas (X, cm) y los pesos (Y, kg) de
una muestra de 12 hombres adultos. Para cada estatura fijada previamente se observó
el peso de una persona seleccionada de entre el grupo con dicha estatura, resultando:

X 152 155 152 155 157 152 157 165 162 178 183 178
198

Y 50 61.5 54.5 57.5 63.5 59 61 72 66 72 84 82

Con estos datos vamos a plantear una ecuación de regresión simple que nos permita
pronosticar los pesos conociendo las tallas. Utilizaremos a = 0.05.
. DESARROLLO
• Representación matemática y gráfica de los datos:
Representación Matemática

I.C. para la I. C.
estatura pesos Regresión Lineal media individual

datos x y x ^2 y ^2 xy y est. Residual L. I. L. S. L. I. L. S.

1 152 50 23104 2500 7600 56.43 -6.43 53.07 59.79 47.30 65.56

2 155 61.5 24025 3782.3 9532.5 59.03 2.47 56.09 61.97 50.05 68.02

3 152 54.5 23104 2970.3 8284 56.43 -1.93 53.07 59.79 47.30 65.56

4 155 57.5 24025 3306.3 8912.5 59.03 -1.53 56.09 61.97 50.05 68.02

5 157 63.5 24649 4032.3 9969.5 60.77 2.73 58.05 63.48 51.85 69.68

6 152 59 23104 3481 8968 56.43 2.57 53.07 59.79 47.30 65.56

7 157 61 24649 3721 9577 60.77 0.23 58.05 63.48 51.85 69.68

8 165 72 27225 5184 11880 67.71 4.29 65.17 70.24 58.85 76.57

9 162 66 26244 4356 10692 65.11 0.89 62.65 67.56 56.27 73.94

10 178 72 31684 5184 12816 78.99 -6.99 74.65 83.33 69.45 88.52

11 183 84 33489 7056 15372 83.32 0.68 78.01 88.64 73.31 93.34

12 178 82 31684 6724 14596 78.99 3.01 74.65 83.33 69.45 88.52

Representación Gráfica
199

Hipótesis.

HO: No hay relación entre la variable peso y la variable estatura.


HA: Hay relación entre la variable peso y la variable estatura.:

Lo que nos permite obtener los coeficientes a y b.


Luego,
b = 1223 / 1409.667 = 0.8676
a = 65.25 – (0.8676) (162.167) = -75.446
Interpretación

La ecuación de regresión estimada es:


Coeficiente de correlación: R= 0.9379
Coeficiente de determinación: R²=0.8796
El valor de b = 0.8676 indica el incremento del peso en kilogramos, en promedio, por
cada centímetro de aumento en la estatura de los hombres adultos.
El valor de a, no tiene interpretación práctica en el ejemplo, se interpretaría como el
valor obtenido, en promedio, para el peso Y, cuando la estatura es 0.
200

Utilizando la ecuación de regresión para estimar o predecir valores de la variable Y:


Para una talla de 180 se obtiene un peso de 80.7 kg.
¿Cuánto se espera que pese (en promedio) una persona que mide 1.60 m?
Sustituyendo el valor de interés en la ecuación:

Se obtiene:

Conclusion
La ecuación de Regresión lineal estimada para las variables estatura y peso muestran,
de acuerdo a la prueba F, relación.
Esta relación se ha estimado en un R = 93.7, que indica una fuerte relación positiva.
Además si consideramos el coeficiente de determinación R² = 87.9 podemos indicar
que el 87.9% de las variaciones que ocurren en el peso se explicarían por las
variaciones en la variable estatura.

Prueba “t “de Student

Definición:

Probablemente el primer análisis estadístico que uno realiza en su vida es la


comparación de dos medias. Esta situación se plantea cuando se están comparando
dos grupos (normalmente dos tratamientos) con relación a una variable de eficacia
cuantitativa (p.ej. VEMS). La prueba de elección es la t de Student. Su cálculo no tiene
mayor dificultad, sin embargo, requiere de ciertas asunciones que a menudo no se
suelen verificar, pudiendo llegar a conclusiones erróneas según veremos en este
artículo.

de las hipótesis sobre las que habitualmente se fundamentan las pruebas estadísticas
de comparación de grupos es que las observaciones pertenecientes a cada una de las
muestras son independientes entre sí, no guardan relación; siendo precisamente ese
uno de los objetivos de la aleatorización (elección aleatoria de los sujetos o unidades de
observación, asignación aleatoria del tratamiento a cada paciente, etc). Sin embargo,
como veremos en este artículo, la falta de independencia entre las observaciones de los
grupos puede ser una característica de diseño del estudio para buscar
201

fundamentalmente una mayor eficiencia del contraste estadístico al disminuir la


variabilidad. En otras ocasiones con este tipo de diseño pareado lo que se busca es dar
una mayor validez a las inferencias obtenidas, controlando o eliminando la influencia de
variables extrañas cuyo efecto ya es conocido o sospechado, y no se desea que
intervenga en el estudio actual pudiendo enmascarar el efecto del tratamiento o de la
variable de interés.

Símbolo: “t”

Hipótesis a probar: De diferencia entre dos grupos. La hipótesis de investigación


propone que los grupos difieren significativamente entres si y la hipótesis nula propone
que los grupos no difieren significativamente.

Variable involucrada: la comparación se realiza sobre una variable. Si hay diferentes


variables, se efectuaran varias pruebas “t” (una por cada variable) Aunque la razón que
motiva la creación de los grupos puedes ser una variable independiente. Por ejemplo:
un experimento con dos grupos, uno al cual se le aplica el estimulo experimental y el
otro grupo el de control.

Nivel de medición de la variable: Intervalos o razón

Asunciones de la prueba t de Student


Técnicamente se puede describir la prueba t de Student como aquella que se utiliza en
un modelo en el que una variable explicativa (var. independiente) dicotómica intenta
explicar una variable respuesta (var. dependiente) dicotómica. Es decir en la situación:
dicotómica explica dicotómica.
La prueba t de Student como todos los estadísticos de contraste se basa en el cálculo
de estadísticos descriptivos previos: el número de observaciones, la media y la
desviación típica en cada grupo. A través de estos estadísticos previos se calcula el
estadístico de contraste experimental. Con la ayuda de unas tablas se obtiene a partir
de dicho estadístico el p-valor. Si p<0,05 se concluye que hay diferencia entre los dos
tratamientos.
Las hipótesis o asunciones para poder aplicar la t de Student son que en cada grupo la
variable estudiada siga una distribución Normal y que la dispersión en ambos grupos
sea homogénea (hipótesis de homocedasticidad=igualdad de varianzas). Si no se
verifica que se cumplen estas asunciones los resultados de la prueba t de Student no
tienen ninguna validez.
Por otra parte no es obligatorio que los tamaños de los grupos sean iguales, ni tampoco
es necesario conocer la dispersión de los dos grupos.
202

¿Qué hacer cuando las asunciones no se cumplen?


Existen varias pruebas estadísticas para contrastar la Normalidad de los datos: la más
utilizada la de Kolmogorov-Smirnov. De igual modo existen también

¿Qué hacer cuando las asunciones no se cumplen?


Existen varias pruebas estadísticas para contrastar la Normalidad de los datos: la más
utilizada la de Kolmogorov-Smirnov. De igual modo existen también varias pruebas que
permiten contrastar la homogeneidad de varianzas: la más utilizada es la prueba de
Levene.
En el caso de que no se cumpla la asunción de Normalidad se suele intentar alguna
transformación de los datos que "normalice" los datos, siendo la transformación
logaritmo neperiano la más usual. Ocurre en la práctica que la transformación que
"normaliza" los datos también consigue igualdad de varianzas. En el caso de que no se
diera la hipótesis de igualdad de varianzas ni siquiera después de transformar los datos,
hay que utilizar una modificación de la prueba t de Student debida a Satterthwaite que
es válida para el caso de no homogeneidad de varianzas.

Ejemplo:
Se supone que se quiere comparar dos tratamientos con relación a una variable
cuantitativa. Los datos experimentales son:
Trat A: 25, 24, 25, 26
Trat B: 23, 18, 22, 28, 17, 25, 19, 16

Formula:
Si estamos comparando un resultado cuantitativo en dos grupos de datos, a partir de
muestras extraídas de forma aleatoria de una población normal, siendo nA el tamaño de
la primera muestra y nB el de la segunda, la cantidad:

(donde son las medias muestrales, las correspondientes medias


poblacionales, s la desviación típica muestral conjunta), se distribuye como una t de
Student con nA+nB-2 grados de libertad, proporcionándonos una referencia
probabilística con la que juzgar si el valor observado de diferencia de medias nos
203

permite mantener la hipótesis planteada, que será habitualmente la hipótesis de


igualdad de las medias (por ejemplo igualdad de efecto de los tratamientos), o lo que es
lo mismo nos permite verificar si es razonable admitir que a la luz de los
datos obtenidos en nuestro experimento.
Si se aplica la formula t de Student directamente se obtiene una p=0,096>0,05 con lo
que se concluye que no se puede demostrar diferencias entre los dos tratamientos. Sin
embargo la prueba de Levene pone de manifiesto que p=0,014<0,05 con lo que se
concluye que en estos datos no se verifica la igualdad de varianzas, con lo que la
conclusión anterior queda en suspenso. Tras aplicar Satterthwaite, que es válido en
este caso de heterocedasticidad, se obtiene que p=0,032<0,05 con lo que la conclusión
correcta es que sí hay diferencia entre los dos tratamientos.
Conclusiones
La prueba t de Student es muy utilizada en la práctica, sin embargo a menudo su
aplicación se hace sin excesivo cuidado, no comprobando las asunciones que requiere.
En este artículo se ha puesto de manifiesto que la falta de normalidad o la falta de
homogeneidad en las varianzas invalida la prueba t de Studen

Análisis de varianza unidireccional o de una vía:

Distribución de F

Definición: Es una prueba estadística para analizar si mas de dos grupos difieren
significativamente entre si en cuanto a sus medias y varianzas. Como vimos la prueba
“t” es utilizada para dos grupos y el análisis de varianza unidireccional es para tres,
cuatro, o mas grupos. Y aunque con dos grupos, el análisis de varianza unidireccional
se puede utilizar, no es una práctica común.

Hipótesis a probar: De diferencia entre mas de dos grupos: La hipótesis de


investigación propone que los grupos difieren significativamente entre si y la hipótesis
nula propone que los grupos no difieren significativamente.

Variables involucradas: Una variable independiente y una variable dependiente.

Nivel de medición de las variables: La variable independiente es categórica y la


dependiente es por intervalos o razón. Al ser categórica la variable independiente
significa que se pueden formar grupos diferentes.

Interpretación: este análisis de varianza produce un valor conocido como “F” o razón
“F” , que se basa en una distribución muestral, conocida como la distribución F, que es
otro miembro de las distribuciones muestrales. La Prueba de “F” compara las
204

variaciones en las puntuaciones debidas a dos diferentes fuentes: variaciones entre los
grupos que se comparan y variaciones dentro de los grupos.

Distribución de F:

Sean X2(m) y X2(n) dos variables aleatorias independientes con distribución Ji cuadrado
con m y n grados de libertad, respectivamente. Entonces, la variable aleatoria F,
definida como:

F = X2(m)/m
X2(n)/n

Presenta distribución F con m y n grados de libertad.


La distribución F esta completamente definida por los parámetros m y n que son los
grados de libertad de las variables Ji cuadrado que la originan
Los valores de la variable aleatoria son mayores que cero y la forma de la distribución
es asimétrica, pero la asimetría disminuye a medida que aumenta el número de grados
de libertad.

Las probabilidades de la distribución F se han tabulado con valores Fo para niveles de


α tales que:

P ( F≥ Fo) = α

El valor de Fo se puede indicar como Fα(m,n), que significa que a la derecha de este valor
existe un área o probabilidad en la curva igual a α .Diferentes autores, entre ellos
(Infante y zarate ,1989; Dixon y Massey,1965, y Guenther, 1977) presentan tablas
apropiadas para esta y otras distribuciones de uso común en la investigación.

Ejemplo:
Tabla .Rendimientos clones de un pasto con 5 tratamientos y 4 replicas

Tratamientos

Maceta 1 2 3 4 5

1 101 51 83 67 29
2 93 61 68 40 45
3 93 59 72 46 51
4 96 58 75 52 42
205

Total 383 229 298 205 167 1282

Media 95.75 57.25 74.50 51.25 41.75

(X..)2
1. calculo factor corrección (FC) es: FC = 5.4

(1282)2
FC = 20 = 82176

2.Calculo de SC total = (101)2 + (51) 2 + … (52) 2 + (42) 2 – FC = 8168

3. SC tratamientos = (383) 2 + (229) 2 + (298) 2 + (205) 2+(167) 2 - FC = 7286


4
4. SC del error = SC total – SC de tratamientos
= 8168 – 7286 = 882
5.CM tratamientos = SC tratamientos/ g. l. = 7286/4 = 1821.5
6.CM Error = SC error/ g. l = 682/ 15 = 58.8
7.Fc = CM tratamiento/ CM error = 1821.5/ 58.8 = 30.98

Los resultados se presentan en la tabla

.Tabla ... Análisis de varianza clones pasto estrella

Fuentes de Grados de Suma de Cuadrados Ft


Variación Libertad Cuadrados Medios Fc 5% 1%

Tratamiento 4 7286 1821.5 30.98** 3.06 4.89


Error 15 882 58.8

Total 19 8168
** Diferencias altamente significativas entre tratamientos )P < 0.01)
Fc > Ft , 30.98 > 3.06 y 4.89
Se pueden aplicar pruebas de comparación de medias para saber entre cuales
promedios de tratamientos hay o no diferencias significativas.
Análisis factorial de varianza
206

En este capitulo se estudian también los experimentos factoriales. Aquí hay varios
tratamientos en cada una de varias categorías y definen un marco de tratamientos.
Esta elección de diseño de tratamientos conduce a una partición lógica de las sumas
de cuadrados de tratamientos en componentes aditivas con pruebas correspondientes
de hipótesis.

Se encuentra claramente fuera del propósito de este texto desarrollar las bases
matemáticas y los procedimientos de cálculo del análisis factorial, pero pretende facilitar
el entendimiento de los resultados del mismo dado que aún sin comprender cómo se
calcularon las saturaciones de los factores, el lector podrá familiarizarse con la forma de
utilizar una matriz factorial y con la interpretación de los mencionados factores.

El concepto de análisis factorial

Vamos a comenzar este trabajo examinando el concepto general de análisis factorial


según como es introducido por diferentes autores.

Anastasi(1977) considera al análisis factorial como un procedimiento estadístico para la


identificación de rasgos psicológicos. En esencia, el análisis factorial es una técnica
depurada para el análisis de las interrelaciones de los datos de la conducta.

Mediante el proceso del análisis factorial, el número de variables o categorías en


función de las cuales puede describirse la ejecución de cada individuo se reduce desde
el número original de tests a otro relativamente pequeño de factores o rasgos comunes.

Para ejemplificar estos enunciados Anastasi considera un caso en el cual se aplicaron


20 tests diferentes a cada una de las 300 personas que conforman una muestra, el
primer paso consiste en calcular las correlaciones de cada uno de los tests con todos
los demás. Una simple revisión de la tabla o matriz de las 190 correlaciones resultantes
puede revelar por sí misma ciertas agrupaciones entre los tests que sugieren la
presencia de rasgos o factores comunes; por ejemplo, si tests como los de vocabulario,
de analogías, de los opuestos y de completamiento de frases tienen correlaciones
elevadas entre sí y bajas con todos los demás, podríamos inferir la presencia de un
factor común de comprensión verbal que subyace la ejecución de los tests
mencionados.

Dado que una simple inspección de una tabla de correlación es difícil e incierta, se han
desarrollado técnicas estadísticas precisas para localizar los factores comunes
necesarios en la explicación de las correlaciones obtenidas. Dichas técnicas constituyen
el análisis factorial.
207

Siguiendo con el ejemplo anterior, cinco o seis factores podrían ser suficientes para dar
cuenta de las intercorrelaciones entre los 20 tests originales, de manera que podemos
sustituir las 20 puntuaciones originales de cada persona por cinco o seis puntuaciones,
una por cada factor, sin sacrificar ninguna información esencial. La práctica habitual es
retener, de los tests originales, aquellos que proporcionan las mejores medidas de cada
uno de los factores.
Cuesta y Herrero definen al análisis factorial como una técnica que consiste en resumir la
información obtenida en una matriz de datos con V variables. Para ello se identifican un
número reducido de factores F, siendo el número de factores menor que el número de
variables. Los factores representan a las variables originales, con una pérdida mínima de
información.

Yela(1963) considera que el análisis factorial es un método fundamentalmente


matemático que se apoya en un concepto operativo -la unidad funcional-, y en dos
procedimientos empíricos -el test y la correlación.

Lee, en psicología llama unidad funcional al conjunto de procesos o funciones


psicológicas que varían concomitantemente. Por ejemplo, cuando dos aptitudes, como
las que exigen dos tests distintos, se presentan siempre juntas, de modo que los sujetos
que poseen una de ellas poseen también a la otra, y varían juntas, de modo que cada
sujeto posee a ambas en el mismo grado, esas aptitudes o actividades definen una
unidad de función y pueden considerarse como manifestaciones diversas de una aptitud
funcionalmente única.

El test sirve para suscitar las actividades y respuestas de los sujetos; la correlación,
para indicar el grado de concomitancia entre las diversas respuestas.

Las correlaciones entre un número suficiente de tests que cubran un determinado


campo de actividades podrán indicarnos los aspectos comunes entre dichas actividades
y servirán para averiguar las unidades funcionales que entre todos definen. Cada una
de ellas será un factor.

Un factor es, así, una dimensión de variabilidad del comportamiento, verificada por la
covariación empírica de una serie de respuestas y definida por la significación común
de esas respuestas.
Por lo tanto el análisis factorial en psicología ayuda descubrir las dimensiones de
variación común de la conducta o factores; y el conjunto de factores constituye una
clasificación general de los rasgos psicológicos en función de los cuales se puede
describir las características de los individuos.

Nunnally(1973) sostiene que el análisis factorial consiste esencialmente en métodos de


encontrar grupos de variables relacionadas. Cada uno de estos grupos (o factor) es
señalado por un conjunto de variables cuyos miembros tienen entre sí mayor
correlación que con variables no incluidas en el grupo. Se concibe a cada factor como
208

un atributo unitario que es medido en distintos grados por instrumentos determinados


según cuánto se correlacionan con el factor.
Como podrá observarse, las definiciones dadas por los diferentes autores considerados
no se contraponen, sino que, por el contrario, se complementan unas o otras siendo
diferentes maneras de aproximarse a la complejidad que el análisis factorial presenta.

Características

Un factor es una clase de tratamiento, y en experimentos factoriales, todo factor


proporcionara varios tratamientos. Por ejemplo, si la dieta es un factor en un
experimento, entonces se usaran varias dietas; si la temperatura de horneado es un
factor, entonces el horneado se hará a varias temperaturas.

Un nivel de un factor es un tratamiento particular de un conjunto de tratamientos que


constituyen el factor. Si el factor es cuantitativo, los niveles están formados por las
cantidades o dosis del mismo. Si el factor es cualitativo los niveles lo constituyen las
manifestaciones del mismo o los tratamientos dentro del factor. Por lo general se
designan con letras minúsculas

Usos

Los experimentos factoriales se usan prácticamente en todos los campos de


investigación. Son de gran valor en trabajo exploratorio cuando se sabe poco sobre
niveles óptimos de los factores, o ni siquiera cuales son importantes. Considérese un
cultivo nuevo para el cual se tienen varias variedades promisorias, pero se sabe poco
respeto a fecha y densidad de siembra adecuadas. En este caso es indicado usar un
experimento de tres factores. Si se usa el enfoque de un solo factor, se seleccionan una
fecha y una densidad y se efectúa un experimento con las variedades. Sin embargo,
puede ocurrir que la mejor variedad para la fecha y densidad de siembra escogidas, no
sea la mejor para otras fechas y densidad. Cualquier otro factor individual debe implicar
solo una variedad. Otras veces, el experimentador puede estar ante todo interesado en
la intersección entre los factores, es decir, saber si las diferencias en respuesta a los
niveles de un factor son semejantes o diferentes a niveles diferentes de otro factor o
factores. Cuando se dispone de información considerable, el mejor enfoque puede ser
comparar solo un numero muy limitado de combinaciones de varios factores o niveles
específicos.

Así vemos que el alcance de un experimento, o la población para la cual pueden


hacerse inferencias, puede a menudo aumentarse mediante el uso de un experimento
factorial. Es particularmente importante hacer esto cuando se requiere información
sobre algún factor para el cual se van a hacer recomendaciones con amplio margen de
condiciones.
209

Así, un experimento factorial es aquel en el que el conjunto de tratamientos consiste en


todas las combinaciones posibles de los niveles de varios factores. En la palabra
“factorial” esta implicado el concepto de diseño de tratamientos.

Notación y definiciones
Los sistemas de notación que se usan en experimentos factoriales son similares, pero
presentan diferencias suficientes como para que el lector tenga que comprobar con
cuidado cuando utilice nuevas referencias. Se sigue una notación parecida en muchos
aspectos a la sugerida por Yates (1933). Las tres letras mayúsculas se usan para
designar factores, y las minúsculas para designar los niveles.
Contrastes de hipótesis en un anova de dos vías
Modelo mixto
Supóngase el primer factor de efectos fijos y el segundo de efectos aleatorios, lo que no
supone ninguna perdida de generalidad, ya que el orden de los factores es arbitrario.
MS Valor esperado
MSA
MSB
MSAB
MSE
Se contrastan la interacción y el factor aleatorio con el término de error, si la interacción
fuera significativa no tiene sentido contrastar el efecto fijo y si no lo fuera, el efecto fijo
se contrasta con el término de interacción o con el promedio de interacción y error

Pasos del análisis factorial

Cualquier análisis factorial consta de cuatro pasos esenciales:

1. Preparación: en esta fase se estudia , por ejemplo en ciencias sociales, el campo de la


actividad humana en cuestión, se recoge la información existente y se formulan las
hipótesis oportunas. Estas hipótesis se refieren al número e índole de los factores que
se buscan. Según estas hipótesis, el investigador idea o selecciona los tests que sean,
en principio, capaces de ponerlas de manifiesto, procurando cubrir todo el campo que
se estudia, de modo que cada hipotético factor esté representado por varios tests. Estos
tests son aplicados a la población conveniente y calculadas sus intercorrelaciones. Con
éstas se forma la llamada matriz de correlaciones.

Aquí cabe hacer una distinción entre análisis factorial confirmatorio en el cual, a través
de las hipótesis mencionadas, se propone un modelo “a priori” que mediante el análisis
se va a confirmar o no, y análisis factorial exploratorio en el cual no se realizan hipótesis
210

previas acerca de un modelo posible sino que el modelo se construye luego de realizar
el análisis.
De cualquier manera, ya sea que se trate de un análisis confirmatorio o exploratorio,
esta etapa finaliza cuando se obtiene la matriz de correlaciones entre todas las
variables que entran en el análisis.

2. Factorialización: el objeto de esta fase es averiguar el número de factores comunes


necesarios para explicar las correlaciones halladas. Se han ideado varios métodos para
cumplir con este objetivo. Ya en 1901, Pearson señaló el camino para este tipo de
análisis y luego otros muchos investigadores han creado procedimientos alternativos,
modificaciones y refinamientos. La disponibilidad de calculadoras electrónicas y
computadoras han conducido a la adopción de técnicas más refinadas y laboriosas. En
su mayoría, estos métodos, aunque difieran en sus postulados iniciales, arrojan
resultados similares
3. Rotación: la matriz factorial indica, como sabemos, la relación entre los factores y las
variables. Sin embargo, a partir de dicha matriz muchas veces resulta difícil la
interpretación de los factores pues no queda claro en qué factor satura cada variable.
La rotación es, precisamente, la operación por la cual los ejes se giran hasta una
posición que tenga una significación psicológica; el objetivo de la rotación es obtener
una solución más interpretable

4. Interpretación: en esta etapa se averigua la significación de cada factor examinando


los procesos que intervienen en todos los tests que dependen de él. La interpretación
de cada factor debe ser coherente asimismo con el hecho de que otros tests tengan
coeficientes nulos en él y con la circunstancia, si se da, de que uno o varios tests
tengan coeficientes en ese factor y en otro u otros diferentes
Análisis factorial y validez

Los tests surgieron antes que el análisis factorial y en muchos aspectos se han
desarrollado con independencia de él. Sin embargo, el análisis factorial proporciona a
los tests un fundamento científico más firme y unas posibilidades, antes insospechadas,
para su empleo en la investigación del psiquismo y de la conducta, a tal punto que en la
actualidad constituye el fundamento más serio y coherente de la teoría de los tests.
El requisito más importante de un test es su validez; es decir, si no aprecia lo que dice
apreciar, si no sirve para lo que dice servir, huelga todo lo demás. Ahora bien, ¿cómo
averiguar y comprobar la validez de un test? Según Yela(1963) hay dos modos
fundamentales para hacerlo:

modo extrínseco: consiste en comprobarlo con un criterio externo al test. Si los


resultados del test coinciden con los del criterio, el test es válido; tanto más cuanto más
211

se relacionen; tanto menos, cuanto menos relación haya entre ellos. La correlación
entre el test y el criterio suele llamarse coeficiente de validez. El valor práctico de este
procedimiento es insustituible pero no logra ocultar su insuficiencia teórica. Por ejemplo,
si un test que dice medir inteligencia discrimina bien entre los alumnos peores y mejores
de una clase, este valor práctico no garantiza que sea verdaderamente un test de
inteligencia.
- modo intrínseco: consiste en descubrir cuáles son los procesos y funciones que
reclaman la solución del test. Supongamos que el test de inteligencia se propone
apreciar la capacidad de razonamiento, ¿lo consigue el test?, ¿exige en verdad
razonar?, ¿cómo comprobarlo?, ¿hay un solo modo de razonar o hay varios? Si hay
varios ¿son independientes entre sí? Por otra parte ¿cabe limitar la inteligencia al
razonamiento? ¿no cubrirá también otras funciones y procesos, como abstraer,
comparar, comprender, etc.? En definitiva ¿cuántas son las aptitudes que cabe
distinguir en el campo de la actividad inteligente? ¿cuántos y cuáles son los rasgos
fundamentales en los demás campos del psiquismo?
El medio experimental de enfrentarse con estas cuestiones y abordar estos problemas
será el procedimiento para comprobar intrínsecamente la validez de los tests. La validez
del test vendrá indicada por la medida en que con él se aprecie uno o varios de los
rasgos previa y experimentalmente determinados. El análisis factorial pretende ser
precisamente ese procedimiento.

EJEMPLO
(http://www.hrc.es/bioest/Anova_18.html)
Se quiere probar la eficacia de un somnífero estudiando posibles diferencias de la
misma por el sexo de los sujetos. Se eligen al azar dos grupos de insomnes varones y
otros dos de mujeres y tanto para los hombres como para las mujeres se suministra a
un grupo el somnífero y a otro un placebo y se mide, en minutos, el tiempo que tardan
en dormirse.
Los resultados son:
Placebo Somnífero
30 35
50 32
45 30 Hombre
47 25
38 30
50 42
35 30
46 15 Mujer
25 18
32 23
212

Se trata de un anova de dos factores fijos. Llamamos primer factor a la droga que tiene
dos niveles: placebo y somnífero. El segundo factor es el sexo también con 2 niveles:
hombres y mujeres. El tamaño de las muestras es n=5.
La tabla de anova es:
Fuente de GL SS MS
variación
Somnífero 1 696,2 696,2
Sexo 1 105,8 105,8
Interacción 1 0,2 0,2
Error 16 1197,6 74,85
Total 19 1999,8
Se empieza contrastando la interacción: f = 0,2/74,85 = 0,0026 que como es menor que
F0,05(1,16)=4,49 no se rechaza la hipótesis nula de que no existe interacción.
A continuación se contrastan los factores: para el somnífero f = 696,2/74,85 = 9,3 que
es mayor que 4,49 por lo tanto existe efecto del somnífero y para el sexo f =
105,8/74,85 = 1,41 que como es menor que 4,49 no existe diferencias entre los sexos.
La estimación del efecto del somnífero será la diferencia entre las medias de los que lo
toman y los que tomaron placebo, sin tener en cuenta el sexo, una vez que se ha visto
que no tiene efecto.
Para analizarlo con un paquete estadístico, p.e. el Statgraphics, se necesita crear un
archivo con tres variables
213

y el resultado, pidiendo la tabla de anova


214

y la tabla de medias

Por tanto la estimación del efecto del somnífero es 39,8 - 28,0=11,8 min.
En el ensayo clínico de los analgésicos descrito anteriormente se encuentran los
siguientes resultados:
Placebo Analgésico A <Analgésico B
35 20 22
40 35 42
60 50 30
50 40 35
50 30 22
La tabla de anova correspondiente:
Fuente de variación G.L. SS MS
Analgésico (tratamiento) 2 748,8 374,4
Paciente (bloque) 4 767,6 191,9
Error 8 409,2 51,15
Total 14 1925,6
Como resultado final se acuerdo a los contrastes de hipótesis se hacen:
para el analgésico f=374,4/51,15=7,32 que como es mayor que F0,05(2,8)=4,46 existe un
efecto del tratamiento.
para los bloques f=191,9/51,15=3,75 que es menor que F0,05(4,8)=3,84 por tanto no hay
componente añadida por los pacien

. Análisis de Covarianza (Ancova).


215

Definición
El análisis de covarianza es un procedimiento muy importante en experimentación.
Utiliza el análisis de varianza y el de regresión para eliminar la variabilidad que existe
en la variable independiente X; también ajusta medias de tratamiento y así estima
mucho mejor el efecto de la variable independiente X sobre la variable dependiente Y.
El análisis de covarianza trata de dos o más variables medidas y donde cualquier
variable independiente medible no se encuentra a niveles predeterminados, como en
un experimento factorial. Este aparte trata de la covarianza lineal. A menudo, una
relación lineal es una aproximación razonablemente buena para una relación no lineal
con tal que los valores de las variables independientes no cubran un intervalo muy
amplio.

La variable independiente X es una observación hecha en cada unidad experimental


antes de aplicar los tratamientos, e indica hasta cierto grado la respuesta final Y de la
unidad experimental. Por ejemplo, en un experimento con cerdos se tienen pesos
iniciales X, y consumo de alimento Y; si se hubieran usado varias raciones las
diferencias entre sus efectos podrían o no ser significativas, es decir, puede o no haber
diferencias en cuanto a la calidad de las raciones. Sin embargo, antes de llegar a
conclusiones hay que preguntarse, ¿al existir la variación de lo s pesos iniciales de las
camadas, la diferencia en los pesos finales de los cerdos se puede atribuir a la bondad
de alguna de las raciones?, O ¿quizá alguna parte en las diferencias en los pesos
finales se debe a la diferencia en los pesos iniciales de dichas camadas? Con respecto
a esta última pregunta se sabe que los lechones de mayor peso al nacer son más
agresivos y, en consecuencia, consumen mayor cantidad de alimento y aumentan de
peso con mayor facilidad que los lechones pequeños de poco peso.

Al ajustar los valores de Y, de acuerdo con los valores correspondientes de X, es


posible analizar con mayor precisión los resultados del ensayo. Por medio del análisis
de covarianza se puede calcular y eliminar la parte correspondiente a las diferencias en
los pesos iniciales. En general, en ensayos de alimentación con animales, las
diferencias entre medias de tratamiento no ajustadas se deben al valor nutritivo de las
raciones, a la cantidad consumida por los animales, o a ambas causas. Si se ajustan las
diferencias de aumento de peso a un peso inicial común y se aplican las raciones, las
medias ajustadas indicaran si en realidad las dietas tienen valor nutritivo diferente.

Usos del análisis de Covarianza

Los usos más importantes del análisis de covarianza son:


1. controlar el error y aumentar la precisión
2. Ajustar medias de tratamientos de la variable dependiente a las diferencias en
conjuntos de valores de variables independientes correspondientes.
216

1. Ayudar en la interpretación de los datos, especialmente en lo concerniente a la


naturaleza de los efectos de los tratamientos.

4. Particionar una covarianza total o suma de productos cruzados en componentes.

5. Estimar datos faltantes.

Estos usos se exponen ahora con más detalle.

1. Control del error


La varianza de una media de tratamiento es σ2y = σ2 /n.. Así, para disminuir esta
varianza, solo tenemos dos enfoques: el aumento del tamaño de la muestra o el control
de la varianza de una población muestreada.

El control de σ2 se logra mediante el diseño experimental o mediante el uso de una o


más covariables. Ambos métodos pueden usarse simultáneamente. Cuando se usa la
covarianza como método para reducir el error, esto es, de controlar σ2, se hace
reconociendo el hecho de que la variación observada de la variable dependiente Y es
parcialmente atribuible a la variación de la variable independiente X. El uso de la
covariable exige el uso de las técnicas de regresión del capitulo 6.

El uso de la covarianza para controlar el error es un medio de aumentar la precisión con


la cual los efectos de los tratamientos pueden medirse eliminando, por regresión,
ciertos efectos reconocidos que no pueden ser o no han sido controlados efectivamente
por el diseño experimental, Por ejemplo, en un experimento de nutrición animal para
comparar el efecto de varias raciones en el aumento de peso, los animales asignados a
un bloque varían en peso inicial. Ahora, si el peso inicial esta correlacionado con la
ganancia de peso, una porción del error experimental en la ganancia puede deberse a
las diferencias en el peso inicial. Mediante el análisis de la covarianza, esta porción, una
contribución que puede atribuirse a diferencias en el peso inicial puede calcularse y
eliminarse del error experimental para ganancia.

Ahora se mostrara un ejemplo donde se hace un repaso general de estadística


descriptiva e inferencial, que incluye análisis de varianza y covarianza
Ejemplo (http://www.seh-lelha.org/ancova.htm)
Supongamos que se está comparando la presión arterial sistólica de un grupo de
mujeres diabéticas según su nivel de estudios, para lo que efectuamos un análisis de la
varianza cuyos resultados se resumen a continuación:
Estadísita Descriptiva PAS
217

Sin estudios 1º grado 2º y 3º grado

Media 141,16 140,93 131,27

Desv.Típ. 13,67 16,23 18,03

Tamaño 215 202 60

Análisis de la varianza PAS

Fuente var. Suma cuadrados gl Varianza F p Nivel signif.

Factor 5020,04 2 2510,02 10,61 0,0000310 p < 0.001

Residual 112119,55 474 236,54

Total 117139,59 476 246,09

Vemos que hay diferencias estadísticamente significativas en cuanto a la media de la


PAS entre los diferentes niveles de estudios, siendo inferior la media de PAS en el
grupo de mujeres con estudios de 2º o 3º grado (del orden de 10 mmHg inferior). Ahora
bien, sabemos que uno de los principales factores de riesgo en la hipertensión es la
edad, por lo que nos podemos plantear que al tratarse de un estudio observacional, en
el que las pacientes han sido seleccionadas de forma aleatoria entre las que acuden a
la consulta, si éstas fueran representativas de la población, es de sospechar que las
mujeres con mayor nivel de estudios sean en promedio más jóvenes, debido a que en el
pasado las mujeres solían a menudo recibir como mucho una formación elemental.
Si para comprobarlo efectuamos un análisis de la varianza para la edad según el nivel
de estudios, los resultados que obtenemos son
Estadística Descriptiva Edad

Sin estudios 1º grado 2º y 3º grado

Media 69,75 64,80 54,25

Desv.Típ. 8,26 10,57 18,33


218

Tamaño 215 202 60

Análisis de la varianza

Fuente var. Suma cuadrados gl Varianza F p Nivel signif.

Factor 11563,46 2 5781,73 48,19 0,0000 p < 0.001

Residual 56869,86 474 119,98

Total 68433,32 476 143,77

donde, como nos temíamos, la edad media de las mujeres con estudios de 2º o 3º
grado es inferior a la de los otros grupos, lo que por sí solo podría explicar las
diferencias encontradas en cuanto a la media de PAS.
Utilizando el análisis de la covarianza nos planteamos la posiblidad de "corregir" o
"ajustar" esa diferencia de edad, con el fin de hacer comparables los grupos. Para ello
se construye un modelo de regresión entre la variable resultado PAS y la variable de
confusión EDAD y la pregunta que nos hacemos es ¿explica la regresión por sí sola la
diferencia de PAS media observada entre los grupos?.
Vamos pues a estimar una ecuación de regresión entre la PAS y la EDAD, pero ¿qué
tipo de regresión?, porque tenemos tres posibilidades, que vamos a representar para el
caso de que haya sólo dos grupos de estudio:
219

Fig. Pendiente de regresión diferente para cada grupo

Fig. Igual pendiente para los grupos, a diferente altura


220

Fig. Igual pendiente, misma altura


Se trata pues de decidir, a la luz de nuestros datos, cuál de las tres posibilidades es
más verosímil .
En la primera figura vemos que hay interacción entre la variable para la que ajustamos,
covariante, y el grupo, de tal manera que en uno de los grupos la relación entre la PAS
y la edad es más acusada, aumenta más rápidamente al aumentar la edad.
Cuando existe interacción la interpretación es complicada ya que puede incluso ocurrir
que en uno de los grupos esa relación se invierta y que al aumentar el covariante X el
valor de Y disminuya (pendiente negativa).
En el análisis de la covarianza en primer lugar nos planteamos si es razonable creer
que la regresión tiene pendientes diferentes en cada grupo o si por el contrario es
verosímil pensar que la pendiente se mantiene, pudiendo entonces considerar una
pendiente común para todos los grupos. Solo en el caso de que aceptemos esta última
situación tiene sentido decidir entre la segunda y tercera alternativa: plantearnos si la
diferencia observada entre los grupos se explica sólo por la regresión (figura 3) o por
algo más.
Una vez aceptada la hipótesis de igual pendiente en todos los grupos, el razonamiento
a seguir se explica de forma gráfica en la figura 4, aunque un tanto exagerado
221

Fig. 4 Comparación de medias ajustadas


Ahora, dado que no hay razón para pensar que la pendiente de la ecuación sea
diferente en cada grupo, calculamos cuál sería el valor de la PAS previsto por la
ecuación de regresión para la media global de la edad (media calculada combinando
ambos grupos), y determinamos el valor de la PAS estimado a partir de la ecuación de
regresión en cada grupo, este valor es lo que denominamos medias ajustadas de la
PAS: aquellas que obtendríamos si ambos grupos hubiesen tenido la misma media de
edad. Vemos claramente en el dibujo como la diferencia de medias de PAS ajustadas
ha disminuido con respecto a la diferencia de medias sin ajustar, y será tanto menor
cuanto más nos acerquemos a la situación reflejada en la figura 3, cuanto menor sea la
separación de alturas entre las dos rectas de regresión.
En la siguiente figura vemos ilustrado un caso en el que la media sin ajustar de la PAS
para el grupo 2 es inferior a la del grupo 1 (representado por las líneas rectas en la
figura), mientras que si efectúa la corrección para la edad estaremos en la misma
situación de la figura anterior: media ajustada del grupo 2 superior a la del grupo 1;
situación debida a que en el grupo 2 tenemos edades más bajas que en el grupo 1.
222

Fig. 5
Veamos cuales son nuestros resultados cuando efectuamos un análisis de la
covarianza en el ejemplo planteado:
Análisis de la covarianza PAS

Fuente var. Suma gl Varianza F p Nivel


cuadrados signif.

Pendientes iguales 596,28 2 298,14 1,306 0,2718 NO

Error 107501 471 228,24

Igualdad medias 1994,7 2 997,34 4,364 0,0132 p < 0.05


ajustadas

Error 108097 473 228,53

Medias

Grupo Media Media ajustada Nº de casos


223

Sin estudios 141,16 140,08 215

1º grado 140,93 141,17 202

2º y 3º grado 131,27 134,32 60

Total 139,82 477

Medias covariante EDAD según ESTUDIOS

Sin estudios 1º grado 2º o 3º grado

EDAD 69,75 64,80 54,25

Los contrastes en el análisis de la covarianza se efectuan utilizando el valor de la suma


de cuadrados medios residual de Y (la variable respuesta estudiada) en cada una de las
tres situaciones, por lo que el parámetro obtenido se distribuye según una F.
En primer lugar efectuamos un contraste para ver si es razonable suponer pendientes
iguales (p=0,27) hipótesis que no llegamos a rechazar. Una vez aceptada esa premisa
tiene sentido plantearnos el comprobar si son iguales las medias ajustadas, hipótesis
que en este ejemplo rechazamos (p=0.013), aunque ahora la diferencia de medias no
es tan acusada como antes de ajustar.
El modelo planteado se puede extender a más de un covariante, en ese caso el ajuste
se realiza de tal manera que los cálculos se efectúan como si todos los grupos hubiesen
tenido la misma distribución de covariantes.
Leccion 45. Estadística no paramétrica

Introduccion
Como ya sabemos, la estadística es considerada como el conjunto de procedimientos
utilizados para clasificar, calcular, analizar y resumir los datos obtenidos de manera
sistemática.
Dentro de los principales análisis estadísticos que se pueden llevar a cabo, se
encuentran las pruebas estadísticas paramétricas (como la regresión lineal) y las
pruebas estadísticas no paramétricas.
Estas últimas, objeto del presente estudio, en realidad son poco utilizadas a pesar de la
potencia y certeza de sus resultados. Normalmente se utilizan cuando no se dispone de
información suficiente de la población de la cual se extrajeron los datos; careciendo
224

entonces de un soporte para la realización de una inferencia con base a una muestra
observada.
ANALISIS NO PARAMETRICOS
Para realizar este tipo de análisis, se debe partir de las siguientes consideraciones:
La mayoría de estos análisis no requieren de presupuestos acerca de la forma de la
distribución poblacional y acepta distribuciones no normales.
Las variables no necesariamente tienen que estar medidas en un nivel por intervalos o
de razón.

Métodos estadísticos paramétricos contra no paramétricos

La mayoría de los métodos estadísticos descritos en este libro se llaman métodos


paramétricos. El punto focal del análisis paramétrico es algún parámetro de la población
en relación con el cual la estadística de muestreo sigue una distribución conocida, con
medidas tomadas en la escala de intervalo o razón. Cuando no se cumplen uno o más
de estos requisitos o supuestos, pueden usarse los así llamados métodos no
paramétricos. A estos métodos se les conoce también como métodos libres de
distribución, con lo que se enfatiza en particular el hecho de que no se conoce la
distribución de la estadística de muestreo.

Si el uso de una prueba paramétrica, como la prueba t, está garantizado, siempre es


preferible recurrir a él que al uso del equivalente no paramétrico. Esto se debe a que si
aplicáramos el mismo nivel de significancia en ambas pruebas, la potencia asociada
con la prueba no paramétrica se revelaría siempre inferior a la del equivalente
paramétrico. Las pruebas no paramétricas suelen emplearse en conjunto con muestras
pequeñas respecto de las cuales es imposible apelar al teorema central del límite.

Las pruebas no paramétricas pueden dirigirse a hipótesis referentes a la forma,


dispersión oposición (mediana) de la población. En la mayoría de las aplicaciones, las
hipótesis aluden al valor de una mediana, la diferencia entre dos medianas o la
diferencia entre varias medianas. Esto contrasta con los procedimientos paramétricos,
centrados principalmente en medias poblacionales.

PRUEBAS NO PARAMÉTRICAS
En estas técnicas, solamente se necesitan conocimientos elementales de matemáticas,
pues los métodos son relativamente más sencillos que en las pruebas paramétricas. En
estas pruebas, también se tienen supuestos, pero son pocos y no tienen que ver con la
naturaleza de la distribución de la población, por lo que a estas técnicas también se les
conoce como de libre distribución.
225

Una limitación que tienen es que no son aplicables a casos en los que se desean
manejar muchas variables al mismo tiempo, para estos casos, sí se requeriría una
prueba paramétrica; lo que sí se requiere y en general es el supuesto que se debe
cumplir en la mayoría de las pruebas no paramétricas para confiar en ellas, es que la
muestra haya sido seleccionada en forma probabilística.
Además del problema de los supuestos, algunos experimentos o estudios que se
deseen realizar producen respuestas que no es posible evaluar con la escala que tiene
más ventajas, por ejemplo, cuando los datos solamente se encuentran en una escala
ordinal como cuando se evalúan las habilidades de los vendedores, o el atractivo de
cinco modelos de casas, o la preferencia por sopas de cinco marcas diferentes. En
general aspectos como la habilidad o preferencias de un alimento o producto,
solamente los podemos ordenar; resultados de este tipo se presentan frecuentemente
en estudios de mercado y en otros del campo de las ciencias sociales.
Las pruebas que se mencionarán son las que se podrían necesitar con mayor
frecuencia, se mencionarán sus principales características y aplicaciones, además de la
prueba paramétrica a la que podrían sustituir en caso necesario, así como los
supuestos en los que se basa la prueba, que como se podrá ver, son menos rigurosos
que para las pruebas paramétricas.

1.Prueba de signos de una sola muestra


Se cree que esta prueba es la más antigua dentro de la estadística no paramétrica,
pues se reporta en la literatura desde 1710 t
Esta prueba corresponde a la prueba de media de una sola muestra y se recurre a ella
cuando la muestra es de menos de 30 elementos y no se puede sostener el supuesto
de normalidad de la población.
Se le llama prueba del signo porque la información contenida en la muestra
seleccionada se puede transformar en un conjunto de signos más y menos; y cuando se
hace la prueba no se hace uso de la magnitud de los valores de la muestra, sino
solamente se consideran los signos.
Ésta se aplica cuando se muestrea una población simétrica continua de tal manera que
la probabilidad de que una valor sea mayor que la media o menor que la media es de
un medio. Para esta prueba se utiliza la distribución binomial.
En esta prueba se tiene la hipótesis nula H0 : m = m0 contra la alternativa pertinente,
pudiendo ser ésta de uno o dos extremos. Los supuestos que se deben tomar en
cuenta para aplicarla, son los siguientes: se tiene una muestra aleatoria que proviene
de una población con mediana desconocida, la variable de interés se mide en escala
ordinal o más fuerte y esta misma variable es de naturaleza continua .Cuando la
variable se mide en escala ordinal, las hipótesis se referirán a la mediana y no a la
media.
226

2. Prueba U de Mann- Whithey para muestras aleatorias independientes


Cuando se quieren comparar las ubicaciones relativas de dos poblaciones o cuando se
quiere determinar si pertenecen a una misma población, dando por hecho que se
trabaja con muestras aleatorias independientes, se utiliza esta prueba propuesta por
Mann y Whitney en 1947.
Ésta es una alternativa a la prueba t de Student de dos muestras para medias. Se
puede recurrir a esta prueba no paramétrica cuando el supuesto de normalidad no se
cumple o el relativo a la igualdad de varianzas poblacionales.
El procedimiento que se sigue en esta prueba, consiste en unir las dos muestras y
posteriormente ordenar sus valores que toman independientemente de la muestra a que
pertenecen para que después se les asignen los rangos a la muestra conjunta. Luego se
calcularán para cada muestra, la suma de los rangos que le correspondan y estas sumas
se utilizan para obtener la estadística de prueba.
Para realizar esta prueba, usando sus rangos correspondientes, se puede utilizar la
distribución binomial cuando las muestras son pequeñas, o también se puede utilizar una
tabla que ha sido elaborada especialmente para esta prueba, llamada tabla U; la cual fue
hecha basándose en la distribución binomial. Cuando los tamaños de muestra son de 10
o mayores, se puede utilizar la distribución normal estándar. Los supuestos en los que se
basa, son: que cada una de las muestras haya sido obtenida de una distribución aleatoria
continua, que las muestras sean independientes y que la escala de medición empleada
sea por lo menos la ordinal.
3. Prueba H de suma de rangos o prueba de Kruskal-Wallis para comparar k
muestras independientes
También se conoce esta prueba como prueba H de Kruskal-Wallis para diseños
completamente aleatorizados.
Cuando se tiene interés o necesidad de probar una hipótesis nula en la que se afirma que
k tratamientos son iguales o que k muestras aleatorias independientes provienen de
poblaciones idénticas, siendo k > 2, la prueba estadística que se realizaría dentro de la
estadística paramétrica sería el análisis de varianza de un sentido y para la prueba se
utilizaría la distribución F; sin embargo, cuando la escala es ordinal o se desconfía del
supuesto de que las muestras provienen de poblaciones con forma de distribución
normal, se puede utilizar esta prueba para muestras independientes. La hipótesis
alternativa sería que al menos dos poblaciones tienen una distribución diferente.
Esta prueba solamente se puede usar cuando el tamaño de cada muestra sea mayor o
igual a cinco. Se puede afirmar que el procedimiento que se realiza en esta prueba es
una extensión del utilizado en la prueba U de Mann-Withney. Para proceder a realizar
esta prueba, se utiliza la distribución ji cuadrada con (k-1) grados de libertad, siendo k el
número de muestras con las que se trabaja.
227

4. Pruebas de aleatoriedad
Muchos métodos de tipo inferencial, se basan en el supuesto de que se manejan
muestras aleatorias. Cuando se tiene una aplicación en la que es difícil saber si esta
suposición se justifica o cuando no es posible seleccionar una muestra aleatoria por
contar solamente con cierta información; se tienen dentro de las técnicas no
paramétricas varios métodos que hacen posible juzgar la aleatoriedad sobre la base del
orden o secuencia en el que se realizan las observaciones o en el que los puntajes u
observaciones fueron obtenidos originalmente. Lo que se analiza es si aparecen
patrones de los que se sospeche no sean aleatorios.
En las variables de tipo nominal, una corrida es una sucesión de letras u otro símbolo
idénticos que van seguidos o precedidos de otra letra, símbolo, diversas letras o de
ninguna, si se encuentra en el inicio o al final de una sucesión.4 Por ejemplo, cuando se
lanza una moneda diez veces y si representamos por A el águila y con S el sol, se
puede presentar la siguiente sucesión de resultados:
A SS AAA S AA S
1 2 3 4 5 6
Aquí se presentan seis corridas o rachas. Esta prueba puede aplicarse a variables de
tipo cualitativo y cuantitativo, en el segundo caso, se utiliza la mediana como medida de
referencia y a los valores que caigan arriba de ella se les asigna un signo positivo (+) o
una letra como por ejemplo la A y a los que caigan abajo de ella, se les asigna el signo
negativo (-) o una letra distinta, como por ejemplo la B y a partir de los signos o letras
asignados, se identifican las rachas o corridas.
En estos casos, el número de corridas que se tiene es una buena indicación de una
posible falta de aleatoriedad, que se presentaría con pocas o demasiadas corridas. Aquí
se prueba aleatoriedad en el proceso de generación de una serie de observaciones de
una variable aleatoria que sólo toma dos valores y la probabilidad de cada uno de ellos
es 0.5, por lo cual la prueba se basa en una distribución binomial con probabilidad igual
a 0.5. Se tiene una tabla realizada a partir de la distribución mencionada, mediante la
que se hace la prueba de aleatoriedad de rachas en la que se encuentran los valores
críticos del número de rachas tomando en cuenta el número de elementos de una clase
(n1) y el número de elementos de la otra clase (n2). Cuando n1 y n2 son mayores que 20,
la distribución muestral se puede determinar en forma muy aproximada con una
distribución de probabilidad normal.

5. Medidas de asociación
Cuando se tienen observaciones formadas por una pareja de valores a partir de dos
variables, surge la pregunta o necesidad de conocer acerca de si las variables estarán o no
relacionadas y qué tan fuerte es esa relación. Para saber esto, generalmente se piensa en
obtener un coeficiente de correlación que nos indique el grado de relación lineal entre las
variables, pero debe tenerse cuidado de no interpretarlo como una medida de la relación
228

causal entre las variables y también tomar en cuenta que si la relación no es lineal, la
correlación no detecta la relación existente entre las variables.
En la estadística paramétrica se puede calcular el coeficiente de correlación de Pearson,
que se puede aplicar a variables que se miden en escala de intervalo o mayor, pero bajo el
supuesto de que los datos se distribuyen en base a una distribución normal bivariada,
cuando esto no se cumple o cuando la escala de medida solamente es ordinal, es
preferible usar una medida de asociación de las que se tienen en la estadística no
paramétrica.
Un coeficiente de correlación que se basa en rangos y que es muy utilizado, es el de
Sperman éste resultado es muy fácil de calcular porque su cálculo es semejante al de
correlación que generalmente se usa. Sperman desarrolló un trabajo en 1940 donde
presentó este coeficiente que en lugar de utilizar los valores de las variables, utilizaba los
rangos asociados a ellas, mediante éste se tiene una medida de asociación y además
permite probar hipótesis; el único supuesto que tiene es que la escala de medida de la
variable es al menos ordinal.
Además de este coeficiente que nos permite medir la asociación entre dos variables, hay
otras medidas de asociación para aquéllos casos en los que la escala con la que se miden
las variables es de tipo nominal.
6. PRUEBA DE INDEPENDENCIA
En el análisis de independencia se considera que la muestra, una vez escogida, se
clasifica según los criterios de interés; por ello se supone que las muestras provienen
de una población.
En las aplicaciones estadísticas es frecuente interesarse en calcular si dos variables de
clasificación, ya sea cuantitativa o cualitativa, son independientes o si están
relacionadas. En situaciones como las siguientes, se puede estar interesado en
determinar si dos variables están relacionadas:
¿Están relacionados los hábitos de lectura con el sexo del lector?
¿Están relacionadas las calificaciones obtenidas con el número de faltas?
¿Es independiente la opinión sobre la política exterior de la política partidista?
¿Es independiente el sexo de una persona de su preferencia en colores?
¿Está relacionado el sexo con tener una educación universitaria?
¿Están relacionadas las enfermedades del corazón con el tabaquismo?
¿Son independientes el tamaño de una familia y el nivel de educación de los padres?
¿Está relacionado el desempleo con el incremento de la criminalidad?
229

¿El precio está asociado con la calidad de un producto electrodoméstico?


¿El estado nutricional esta asociado con el desempeño académico?
Otra forma de expresar el hecho de que dos variables sean independientes, es
diciendo, que no se afectan entre si; esto es que no están relacionadas o asociadas.
Ilustraremos esta técnica tomando como ejemplo una de las situaciones antes
mencionadas:
¿El precio está asociado con la calidad de un producto electrodoméstico?
Lo que nos interesa determinar en esta situación en particular, es si los productos
electrodomésticos caros, son de mayor calidad que los baratos.
Para nuestra prueba de independencia formularemos dos hipótesis:
• Una hipótesis tentativa acerca de un parámetro poblacional, llamada hipótesis
nula y que se representa con H0 y
• Una segunda hipótesis llamada hipótesis alternativa que será opuesta a lo que
afirma la hipótesis nula y se representa con Ha.

Entonces:
H0: La calidad de un producto electrodoméstico es independiente a su precio.
Ha: La calidad de un producto electrodoméstico no es independiente a su precio.
Una vez establecidas nuestras hipótesis, procederemos a elaborar una tabla de
contingencia, la cual es una combinación de dos o mas tablas de distribución de
frecuencia, arregladas de manera que cada celda o casilla de la tabla resultante,
represente una única combinación de nuestras variables (precio y calidad).
TABLA DE CONTINGENCIA DEL ANALISIS DE LA RELACION QUE EXISTE ENTRE
EL PRECIO Y LA CALIDAD DE LOS APARATOS ELECTRODOMESTICOS
Ahora, supongamos que se ha hecho un muestreo aleatorio simple de 150 aparatos
electrodomésticos. Después de someterlos a estudios exhaustivos para determinar su
calidad y comparar sus respectivos precios, procederemos a vaciar los resultados en
nuestra tabla de contingencia, que obtendrá las frecuencias observadas (FOi) para las
nueve combinaciones o categorías existentes:
Posteriormente, se calculan las frecuencias esperadas (FEi) para cada celda,
basándonos en el siguiente razonamiento:
230

Primero suponemos que es verdadera la hipótesis nula, de independencia entre los


precios y la calidad de los aparatos electrodomésticos. A continuación observamos que
en toda la muestra de 150 aparatos, hay 57 de buena calidad, 52 de regular y 41 de
mala. Si lo expresamos en fracciones, la conclusión es que 57/150 de los aparatos son
de buena calidad, 52/150 de regular y 41/150 de mala. Si es válida la hipótesis de
independencia, decimos que estas fracciones se deben aplicar por igual a los precios
barato, razonable y caro. Así, bajo la hipótesis de independencia esperaríamos que la
muestra de 41 aparatos baratos indicara que (57/150)41 = 15.58 fueran de buena
calidad, (52/150)41 = 14.21 fueran de regular calidad y (41/150)41 = 11.21 fueran de
mala calidad. La aplicación de las mismas fracciones a los 56 aparatos de precio
razonable y a los 53 aparatos caros, producen las frecuencias esperadas que aparecen
en las siguiente tabla:
FRECUENCIAS ESPERADAS SI LA CALIDAD DE UN APARATO
ELECTRODOMESTICO ES INDEPENDIENTE A SU PRECIO.
El procedimiento para comparar las frecuencias observadas con las frecuencias
esperadas, se hace mediante una prueba estadística denominada Ji cuadrada que
evalúa la hipótesis acerca de la relación entre dos variables categóricas. Se calcula de
la siguiente manera:
X2=
En donde:
∑ significa sumatoria.
0 es la frecuencia observada en cada celda.
E es la frecuencia esperada en cada celda.
Es decir, se calcula para cada celda la diferencia entre la frecuencia observada y la
esperada, esta diferencia se eleva al cuadrado y se divide entre la frecuencia esperada.
Finalmente se suman tales resultados y la sumatoria es el valor de ji cuadrada obtenida:
La ji cuadrada proviene de una distribución muestral denominada X2 y los resultados
obtenidos en la muestra están identificados por los grados de libertad. Esto es, para
saber si un valor de X2 es o no significativo, debemos calcular los grados de libertad.
Estos se obtienen mediante la siguiente fórmula:
Gl = (r - 1)(c - 1)
En donde:
r es el número de renglones de la tabla de contingencia
c es el número de columnas en la tabla de contingencia
231

En nuestro caso:
Gl = (3-1)(3-1) = 4
Entonces acudimos con los grados de libertad que corresponden a la tabla de
distribución ji cuadrada (anexo 1), eligiendo nuestro nivel de confianza (0.05 o 0.01). Si
nuestro valor calculado de X2 es igual o superior al de la tabla, decimos que las
variables están relacionadas, por lo que rechazamos la hipótesis nula.
En nuestro caso:
2 = 33.80
X2.05 = 9.48773
X2.01 = 13.2767
Por lo tanto, podemos concluir que en nuestro caso, la hipótesis nula es completamente
falsa, ya que si existe una dependencia entre nuestras variables (precio y calidad).
Bibliografía Complementaria
Gene V. Glass y Julien C. Stanley, Métodos estadísticos aplicados a las ciencias
sociales, Madrid: Prentice Hall Internacional, 1974, p. 7.

2
Alberto Castillo M. y Mario Miguel Ojeda R., Principios de estadística no paramétrica,
Xalapa: Universidad Veracruzana, 1994, p.19.

3
William Mendenhall , Estadística para administradores, México: Grupo Editorial
Iberoamérica, 1990, pp. 660-665

Sidney Siegel, Estadística no paramétrica, México: Editorial Trillas, 1991, pp. 74-79
Alberto Castillo M. y Mario Miguel Ojeda R., op.cit. pp. 143-146.
232

Bonilla Gildaberto, Métodos prácticos de inferencia estadística, Trillas 1991. ISBN 968-
24-3960-4.
Kazmier Leonard J., Estadística aplicada a la administración y a la economía,
McGrawHill, 3ª ed 1998. ISBN 970-10-0961-4.
Freund John E. y Simon, Estadística elemental, Prentice Hall, 8ª ed 1994. ISBN 0-13-
602699-0.
Levin Richard I y Rubin, Estadística para administradores, Prentice may, 6a ed, ISBN
968-880-675-7
Biblioteca de Consulta Encarta 2003, Microsoft Corporation.

WALPOLE, Ronald E. y MEYERS, Raymond H. PROBABILIDAD Y ESTADISTICA


PARA INGENIEROS; 6 ed. PRENTICE HALL. México 1.999

MILTON, J. Susan y ARNOLD, Jesse C. PROBABILIDAD Y ESTADISTICA. 4 ed. Mc


GRAW HILL. México 2.004

BERENSON, Mark y LEVINE, David. ESTADISTICA PARA ADMINISTRACION; 2 ed.


PRENTICE HALL. México 2.001

MENDENHALL, William. ESTADÍSTICA PARA ADMINISTRADORES. 2 ed. GRUPO


EDITORIAL IBEROAMÉRICA. México 1.990.
ESTADISTICA PARA ADMINISTRACION Y ECONOMIA; Massòn y Lind; Ed. Alfa
Omega.

ESTADÍSTICA PARA ADMINISTRADORES; Richard I. Levin y David S. Rubin; Ed.


Prentice Hall.

ESTADÍSTICA APLICADA A LA ADMINISTRACION Y ECONOMIA; Leonard Kazmier;


Mc Graw Hill.

PROBABILIDAD Y ESTADÍSTICA - Aplicaciones y Metòdos, George C. Canavos, Mc


Graw Hill
233

Introducción:

Muchas personas, a veces se sienten inseguras al llevar a cabo una investigación de


tipo empírico, por miedo a verse en la necesidad de utilizar la estadística para el análisis
de la información. En la presente unidad tratare de dar una visión general de las
pruebas estadísticas que mas se utilizan en ciencias sociales y naturales. Existen
estudios en los que un análisis estadístico no es necesario, debido al reducido tamaño
de la muestra o a que el investigador se interesa por llevar a cabo un estudio cualitativo
y no cuantitativo.

Creo que el estudiante o lector deseara o necesitara llevar a cabo análisis estadísticos
de sus datos en varias ocasiones, por lo que a pesar de que en el curso de estadística
descriptiva trata con mas detalle todo lo relacionado con las diversas pruebas
estadísticas especificas, en esta unidad se tratara básicamente de ilustrar con
ejemplos prácticos para cada situación en especial que tipo de herramienta estadística
aplica, o que pruebas estadísticas son apropiadas para analizar los datos,
dependiendo de las hipótesis formuladas y los niveles de medición de las variables

La relación que existe entre el análisis estadístico de los datos, la descripción de estos
y su interpretación, varía entre unos estudios y otros.

Generalmente se presentan mas problemas de descripción de resultados e


interpretación de los mismos en estudios exploratorios, que en investigaciones de tipo
234

experimental ; esto se debe, probablemente a la diferencia en el grado de


estructuracion

La estadística se divide fundamentalmente en dos áreas; la estadística descriptiva, cuya


función consiste en organizar y resumir los datos; y la estadística inferencial que
permite realizar inferencias, es decir, generalizaciones acerca de una población, las
cuales van Más allá de las observaciones que se hicieron.

Esta unidad proporcionara en forma las bases que sustentan ambos tipos de
estadística, sin ser su propósito el de dar una visión detallada de los métodos
estadísticos mismos. Para el estudiante que se interese en profundizar en este campo,
ya sea en el curso de estadística descriptiva, o al final de la unidad consular las
referencias, o lecturas recomendadas al respecto.

Objetivos:

Comprender el concepto de prueba estadística

Entender que no se aplican las pruebas estadísticas simplemente por aplicarlas, sino
que se aplican con sentido y justificación.

Conocer las principales pruebas estadísticas desarrolladas para las ciencias sociales y
naturales, así como sus aplicaciones, situaciones en que se utiliza cada una y formas
de interpretarlas.

Analizar la inte-relación entre distintas pruebas estadísticas.

Comprender los procedimientos para analizar la información o los datos.

Aprender a diferenciar cuando aplicar y diferenciar entre estadística parametrica y no


parametrica.

CAPITULO 13. Como se analizan estadísticamente los datos

Introducción.

Muchas personas se sienten inseguras al llevar a cabo una investigación de tipo


empírico, por miedo de verse en la necesidad de utilizar la estadística para el análisis
de los datos.
235

En el presente capitulo se tratara de dar una visión general de las pruebas estadísticas
que mas se emplean en el análisis de datos. Existen estudios en los que un análisis
estadístico no es necesario, debido al reducido tamaño de la muestra o a que el
investigador se interesa por llevar a cabo un estudio cualitativo y no cuantitativo.

Se es consciente de la validez de la posición de este tipo de investigaciones y no


pretendo que este capitulo sea utilizado en todo tipo de estudio. Sin embargo, creemos
que el lector deseara o necesitara llevar a cabo análisis estadísticos de sus datos en
varias ocasiones, por lo cual se ha considerado que la inclusión de de estos capítulos
son de gran importancia

Lección 37. . : DEFINICIÓN

El análisis de la información puede definirse como la aplicación de técnicas estadísticas


para el e procesamiento de los datos Esta definición corresponde al análisis asistido por
computador. En general, por análisis de la información se entiende la fase de
interpretación que el usuario realiza de una manera directa y manual. Los límites de
este tipo de análisis son evidentes desde el momento que se trabaja sobre una cantidad
importante de datos, y se trata además de incorporar el análisis en un sistema de
producción de información elaborada o especializada.

Lección 38. Procedimiento para analizar los datos

Una vez que los datos han sido codificados y transferidos a una matriz, así como
guardados en un archivo, el investigador puede proceder a analizarlos.

En la actualidad el analisis de los datos, generalmente se realiza mediante software


estadístico como: Excel, S.A.S, SPSS, entre otros. Prácticamente pocos lo hacen de
forma manual, si tiene un volumen considerable de datos,

Por otra parte, en la mayoría de instituciones de educación superior, centros de


investigación, empresas, se dispone de sistemas de computo y software antes
mencionados para archivar y analizar la información. De esta suposición parte el
presente capitulo.

El análisis de los datos se efectúa sobre la matriz de datos utilizando un programa de


computadora. El procedimiento de análisis se esquematiza en la figura
236

Figura 4

PROCEDIMIENTO USUAL DE ANALISIS DE LOS DATOS

sin embargo, con una calculadora

Lección 39. Niveles o escalas de medicion

Nivel o escala nominal

Nivel o escala ordinal

Nivel oescala intercalar

Nivel o escala de razon

CAPITULO 14. Estadística descriptiva o Deductiva


237

La Estadística Descriptiva: formula reglas y procedimientos para la presentación de


una masa de datos en una forma más útil y significativa. Establece normas para la
representación gráfica de los datos. También son una base importante para el análisis
en casi todas las disciplinas académicas.

La Estadística descriptiva, una vez que se han recogido los valores que toman las
variables de nuestro estudio (datos), procederemos al análisis descriptivo de los
mismos. Para variables categóricas, como el sexo o el estadiaje, se quiere conocer el
número de casos en cada una de las categorías, reflejando habitualmente el porcentaje
que representan del total, y expresándolo en una tabla de frecuencias.
Para variables numéricas, en las que puede haber un gran número de valores
observados distintos, se ha de optar por un método de análisis distinto, respondiendo a
las siguientes preguntas:
c. ¿Alrededor de qué valor se agrupan los datos?
d. Supuesto que se agrupan alrededor de un número, ¿cómo lo
hacen? ¿muy concentrados? ¿muy dispersos?
Lección 40. Distribucion de frecuencias, medidas de tendencia central y de
dispersion

a. distribución de frecuencias
. ¿Qué es una distribución de frecuencias?
Es un conjunto de puntuaciones ordenadas en sus respectivas categorías
Lección 40. Distribución y Tablas de frecuencias.

http://www.universidadabierta.edu.mx/SerEst/MAP/METODOS%20CUANTITATIVO
S/Pye/tema_11.htm

El manejo de la información requiere de la ordenación de datos de tal forma que permita


la obtención de una forma más fácil la obtención de conclusiones acerca de la muestra.
Una primera ordenación se realiza mediante el manejo de tablas, en las que se ordenan
los datos de acuerdo a ciertas características de los datos.

El manejo de datos discretos permite la manipulación de tablas, sobre todo cuando el


número de datos no es muy reducido. A continuación describiremos la manipulación de
datos mediante el manejo de datos discretos y continuos. Las variables a ser
manejadas en el estudio, en el caso de valores discretos, se puede representar
238

mediante una tabla en la que se representa los variables mediante variables con
nombre como (xi) y el número de veces en que un dato se representara mediante
frecuencias, frecuencias absolutas, frecuencias relativas. La representación de esta
tabla mediante frecuencias se le conoce como tabla estadística cuya función es la
determinar la frecuencia de cada clase las cuales aparecen a un lado de cada clase

La estadística cuenta con procedimientos para recoger, organizar y presentar


información acerca de un problema determinado, y con métodos para establecer la
validez de las conclusiones obtenidas a partir de la información recogida.

descriptiva

La estadística se clasifica en:


Inferencial

La descriptiva presenta la información en forma cómoda, utilizable y


comprensible.
La inferencial se ocupa de la generalización de esa información haciendo
deducciones acerca de las poblaciones basándose en muestras tomadas de ellas.

Para estudiar el comportamiento de un fenómeno se requiere información y


¿Cómo recopilarla?
1) Por medio de encuestas (interrogatorio oral o escrito que se aplica a
varias personas acerca del problema).
2) Por medio del registro de las observaciones que se hacen de él.

Cualitativos (expresan cualidad). Ej: Sexo:


Los datos pueden ser Masculino, Femenino.
: Cuantitativos(expresan cantidad). Ej: Edad en
años cumplidos: l5, l8,20,etc.
239

La información obtenida debe presentarse en forma organizada.


¿Cómo?

Se puede utilizar una distribución de frecuencias ( o también llamada tabla de


frecuencias), en donde se asocia a cada dato o subgrupo de datos (llamado intervalo de
clase o clase) una frecuencia (número de observaciones que corresponden a cada dato
o a cada grupo de datos).

La presentación de los datos puede hacerse en forma ordenada, si son datos:

Cualitativos Cuantitativos

- Orden alfabético - Forma creciente (menor al mayor).

- Escribir, primero el que más


- Forma decreciente (mayor al
se repite, luego el que sigue y
menor)
así sucesivamente.

EJEMPLO:
A) Se preguntó a un grupo de alumnos de Ingeniería Industrial su materia preferida.
240

Distrib. de frecuencia
Respuestas obtenidas datos f

mat eco adm inv Ind Administracion 6

mat inv Ind prob eco Ing. Econ. 5

prob mat mat adm Inv Ing. Indust. 11

eco mat prob ind prob Inv. de op. 6

mat prob Ind ind Inv Matematicas 12

eco prob mat adm Ind Prob. y est 10

mat ind mat inv Ind Total N= 50

adm prob mat ind prob

mat eco adm ind prob

prob mat Ind adm Inv


241

¿Observaste que los datos se colocaron en orden alfabético?


B) Se preguntó a un grupo de alumnos su estatura en cms.

Distrib. de frecuencia
Respuestas obtenidas datos f

152 163 154 170 164 154 166 151 1

163 162 168 168 172 170 160 152 1

161 158 165 165 151 161 157 154 2

160 155 158 158 170 169 168 155 2

155 156 162 162 166 168 160 156 1

157 1

158 2

160 4

161 2

162 2

163 2

164 1

165 2
242

166 2

168 5

169 1

170 3

172 1

TotN = 35

¿Observaste que los datos al ser cuantitativos se ordenaron en forma creciente?


Pero….. Cuando los datos son cuantitativos y se presentan más de 15 valores
diferentes, se recomienda resumir la información. ¿ Y cómo?

Acomodándolos en grupos (llamados clases o intervalos de clase).

Grupos
f
(clases)

151-
6 Los grupos deben formarse de igual tamaño
155

156-
8 (tamaño de clase : c)
160

161-
9 El total de grupos o clases no deben ser menor a
165

166- 11 5 ni mayor a 15
243

170

171-
1
175

N= 35

Los límites extremos de cada clase se les llama Límite Inferior y Superior de
clase respectivamente. En la la. Clase 151 es el L.I. , y 155 es el L.S.
Existen también Límites Reales Inferior y Superior de clase, estos se obtienen
sumando el límite superior de un intervalo de clase con el límite inferior de la clase
siguiente y dividiéndolos entre dos.
Marca de clase es el punto medio de cada clase y se obtiene sumando los límites
de clase y dividiéndolos entre dos.
Tamaño o anchura de clase es la diferencia entre los límites reales de clase, o la
diferencia entre los límites de clase más una unidad (la misma que se esté trabajando)
ó la diferencia entre las marcas de clase.
Por ejemplo:
En la distribución de frecuencias anterior, se tiene:

Clases LI Limit. reales Marcas de Clase Tamaño de


F
LS LRI LRS X Clase

151-
6 150.5-155.5 153 c=5
155

156-
8 155.5-160.5 158
160

161-
9 160.5-165.5 163
165
244

166-
11 165.5-170.5 168
170

171-
1 170.5-175.5 173
175

N=35

También se pueden hallar:


Frecuencias acumuladas.- la suma de cada frecuencia con la frecuencia de la
clase contigua superior.
Frecuencias relativas.- Dividiendo cada frecuencia entre el número total de
observaciones y multiplicándolas por l00 para tenerlas en forma de porcentaje.
Frecuencias relativas acumuladas.- La suma de cada frecuencia relativa con la
frecuencia relativa de la clase contigua superior. También se pueden obtener dividiendo
cada frecuencia acumulada entre el total de frecuencias por l00.
Rango.- Dato mayor menos dato menor.

Entonces en nuestro ejemplo tenemos:

Clases f fa fr (%) fra(%) ó fra(%)

151-155 6 6 (6/35)100= 17.1 17.1 (6/35)100= 17.1

156-160 8 14 (8/35)100= 22.9 40 (14/35)100= 40

161-165 9 23 (9/35)100= 25.7 65.7 (23/35)100= 65.7

166-170 11 34 (11/35)100= 31.4 97.1 (34/35)100= 97.1

171-175 1 35 (1/35)100= 2.9 100 (35/35)100= 100


245

Rango = Dato Mayor – Dato Menor.

R = 172 - 151 = 21

¿Y para qué nos sirven estas frecuencias?

Para contestar preguntas tales como:

1) ¿Cuántos alumnos tienen estatura entre 156 y 160 cms?

R = se busca en la columna de frecuencias y la respuesta es 8.

2)¿Cuàntos alumnos tienen estatura de l65 o menos?

R = Se busca en la columna de frec. ac. y la respuesta es 23.

3) ¿Qué porcentaje de alumnos tienen estatura entre 166 y 170 cms?

R = Se busca en la columna de frec. rel. y la respuesta es 31.4%.

4)¿Qué porcentaje de alumnos tienen estatura menor o igual que l60?

R = Se busca en la columna de fre. rel. ac. y la respuesta es 40%.

PRESENTACION DE LA INFORMACION A TRAVES DE GRAFICAS.

En dos grupos de una escuela se realizó un examen de matemáticas y los


resultados se presentaron de la manera siguiente:

Grupo1

calif F

5 3

6 8

7 14
246

8 9

9 4

10 2

Total 40

Grupo2

¿Cuál de los dos reportes te pareció mejor y porqué?

Realmente el gráfico se observa mejor, llama más la atención el gráfico y se


puede interpretar mejor y más rápido. Por eso se utilizan para la representación de la
información una serie de gráficas como son:

-Diagrama de Barras ó Gráfica de Barras.

-Histograma.

-Polígono de Frecuencias.

-Gráfica circular o Gráfica de pastel.

-Pictograma.
247

-Ojiva ó Polígono de Frecuencias acumuladas.

-Ojiva Porcentual ó Polígono de Frecuencias relativas acumuladas.

Diagrama de barras
Se utilizan rectángulos separados, que tienen como base a cada uno de los
datos y como altura la frecuencia de ese dato.
Ejemplo: En la siguiente tabla se muestra el total de vacunas aplicadas durante el
verano de l991 en un estado de la República Mexicana.

Datos Fr(%)
f (en miles)
(vacunas) (redondeado

BCG 47 17

SABIN 111 41

DPT 73 27

SARAMPION 41 15

TOTAL 272 100


248

El diagrama de barras o gráfica de barras suele elaborarse con algunas


variantes; por ejemplo, se pueden utilizar líneas en vez de rectángulos ó barras ( ó
líneas) horizontales en vez de verticales.
Si se tienen datos cuantitativos se grafica en el eje de las x los valores centrales
(marcas de clase), cuyas alturas son proporcionales a sus frecuencias. Así en la
distribución de frecuencias de las alturas de 35 alumnos se tiene:

Histograma.
Se utiliza en datos cuantitativos en distribuciones de frecuencia. Son rectángulos
verticales unidos entre sí, en donde sus lados son los límites reales inferior y superior
de clase y cuya altura es igual ala frecuencia de clase.
Con la distribución de frec. anterior se tiene:
249

Polígono de Frecuencias:
Consiste en una serie de segmentos que unen los puntos cuyas abscisas son los
valores centrales de cada clase y cuyas ordenadas son proporcionales a sus
frecuencias respectivas.

Gráfica Circular:
Se forma al dividir un círculo en sectores circulares de manera que:
a) Cada sector circular equivale al porcentaje correspondiente al dato o grupo que
representa.
b) La unión de los sectores circulares forma el círculo y la suma de sus porcentajes
es 100.

Datos (vacunas) f (miles) Fr(%) Grados (redondeados)

BCG 47 17 .17 x 360 = 61


250

SABIN 111 41 .41 x 360 = 148

DPT 73 27 .27 x 360 = 97

SARAMPION 41 15 .15 x 360 =54

TOTAL 272 100 360

Pictograma:
Se utiliza un dibujo relacionado con el tema, para representar cierta cantidad de
frecuencias.

Este tipo de gráfica atrae la atención por los dibujos, pero la desventaja es que
se lee en forma aproximada.

Ejemplo:
En una biblioteca de una escuela se tienen los siguientes libros:

Libros f

Biologia 25
251

Matematicas 30

Fisica 43

Quimica 20

Filosofia 10

Total 128

Ojiva o Polígono de frecuencias acumuladas:


Una gráfica de distribución de frecuencias acumuladas es llamada una ojiva. Se
trazan los límites reales superiores contra las frecuencias acumuladas.

Ojiva Porcentual ó Polígono de frecuencias relativas acumuladas.


Se trazan los límites reales superiores contra las frecuencias relativas
acumuladas.
252

Lección 41 Medidas de tendencia central, y de dispersión o variabilidad

a. Medidas de tendencia central


1. Estadígrafos de posición: (llamados también de tendencia central) indican alrededor de
cuál valor se agrupan los datos obtenidos. La media, la mediana, la moda son los más
comunes y conocidos estadígrafos de posición o tendencia central. Si se graficaran
todos los valores, esa especie de “nube” de puntos se distribuiría alrededor de una zona
central, donde se ubican estos índices. La media o promedio suele ser la mejor medida
para cuantificar esta zona, una especie de centro de “gravedad” de esos datos. Dentro
de este grupo entran los percentiles: la mediana es el percentil 50, o bien el segundo
cuartil, o bien el quinto decil.

Las medidas de centralización vienen a responder a la primera pregunta. La medida


más evidente que podemos calcular para describir un conjunto de observaciones
numéricas es su valor medio. La media no es más que la suma de todos los valores de
una variable dividida entre el número total de datos de los que se dispone.
253

Como ejemplo, consideremos 10 pacientes de edades 21 años, 32, 15, 59, 60, 61, 64,
60, 71, y 80. La media de edad de estos sujetos será de:

Más formalmente, si denotamos por (X1, X2,...,Xn) los n datos que tenemos recogidos de
la variable en cuestión, el valor medio vendrá dado por:

Otra medida de tendencia central que se utiliza habitualmente es la mediana. Es la


observación equidistante de los extremos.
La mediana del ejemplo anterior sería el valor que deja a la mitad de los datos por
encima de dicho valor y a la otra mitad por debajo. Si ordenamos los datos de mayor a
menor observamos la secuencia:
15, 21, 32, 59, 60, 60,61, 64, 71, 80.
Como quiera que en este ejemplo el número de observaciones es par (10 individuos),
los dos valores que se encuentran en el medio son 60 y 60. Si realizamos el cálculo de
la media de estos dos valores nos dará a su vez 60, que es el valor de la mediana.
Si la media y la mediana son iguales, la distribución de la variable es simétrica. La
media es muy sensible a la variación de las puntuaciones. Sin embargo, la mediana es
menos sensible a dichos cambios.
Por último, otra medida de tendencia central, no tan usual como las anteriores, es la
moda, siendo éste el valor de la variable que presenta una mayor frecuencia.
En el ejemplo anterior el valor que más se repite es 60, que es la moda.
b. Medidas de dispersión
Tal y como se adelantaba antes, otro aspecto a tener en cuenta al describir datos
continuos es la dispersión de los mismos. Existen distintas formas de cuantificar esa
variabilidad. De todas ellas, la varianza (S2) de los datos es la más utilizada. Es la
media de los cuadrados de las diferencias entre cada valor de la variable y la media
aritmética de la distribución.
254

Esta varianza muestral se obtiene como la suma de las de las diferencias de cuadrados
y por tanto tiene como unidades de medida el cuadrado de las unidades de medida en
que se mide la variable estudiada.
En el ejemplo anterior la varianza sería:

S x 2=

La desviación típica (S) es la raíz cuadrada de la varianza. Expresa la dispersión de la


distribución y se expresa en las mismas unidades de medida de la variable. La
desviación típica es la medida de dispersión más utilizada en estadística.

Aunque esta fórmula de la desviación típica muestral es correcta, en la práctica, la


estadística nos interesa para realizar inferencias poblacionales, por lo que en el
denominador se utiliza, en lugar de n, el valor n-1.
Por tanto, la medida que se utiliza es la cuasidesviación típica, dada por:

Aunque en muchos contextos se utiliza el término de desviación típica para referirse a


ambas expresiones.
En los cálculos del ejercicio previo, la desviación típica muestral, que tiene como
denominador n, el valor sería 20.678. A efectos de cálculo lo haremos como n-1 y el
resultado seria 21,79.
El haber cambiado el denominador de n por n-1 está en relación al hecho de que esta
segunda fórmula es una estimación más precisa de la desviación estándar verdadera
de la población y posee las propiedades que necesitamos para realizar inferencias a la
población.
Cuando se quieren señalar valores extremos en una distribución de datos, se suele
utilizar la amplitud como medida de dispersión. La amplitud es la diferencia entre el
valor mayor y el menor de la distribución.
Por ejemplo, utilizando los datos del ejemplo previo tendremos 80-15 =65.
Como medidas de variabilidad más importantes, conviene destacar algunas
características de la varianza y desviación típica:
255

• Son índices que describen la variabilidad o dispersión y por tanto


cuando los datos están muy alejados de la media, el numerador de
sus fórmulas será grande y la varianza y la desviación típica lo
serán.
• Al aumentar el tamaño de la muestra, disminuye la varianza y la
desviación típica. Para reducir a la mitad la desviación típica, la
muestra se tiene que multiplicar por 4.
• Cuando todos los datos de la distribución son iguales, la varianza y
la desviación típica son iguales a 0.
• Para su cálculo se utilizan todos los datos de la distribución; por
tanto, cualquier cambio de valor será detectado.
Otra medida que se suele utilizar es el coeficiente de variación (CV). Es una medida
de dispersión relativa de los datos y se calcula dividiendo la desviación típica muestral
por la media y multiplicando el cociente por 100. Su utilidad estriba en que nos permite
comparar la dispersión o variabilidad de dos o más grupos. Así, por ejemplo, si tenemos
el peso de 5 pacientes (70, 60, 56, 83 y 79 Kg) cuya media es de 69,6 kg. y su
desviación típica (s) = 10,44 y la TAS de los mismos (150, 170, 135, 180 y 195 mmHg)
cuya media es de 166 mmHg y su desviación típica de 21,3. La pregunta sería: ¿qué
distribución es más dispersa, el peso o la tensión arterial? Si comparamos las
desviaciones típicas observamos que la desviación típica de la tensión arterial es
mucho mayor; sin embargo, no podemos comparar dos variables que tienen escalas de
medidas diferentes, por lo que calculamos los coeficientes de variación:

CV de la variable peso =

CV de la variable TAS =

A la vista de los resultados, observamos que la variable peso tiene mayor dispersión.
Cuando los datos se distribuyen de forma simétrica (y ya hemos dicho que esto ocurre
cuando los valores de su media y mediana están próximos), se usan para describir esa
variable su media y desviación típica. En el caso de distribuciones asimétricas, la
mediana y la amplitud son medidas más adecuadas. En este caso, se suelen utilizar
además los cuartiles y percentiles.
Los cuartiles y percentiles no son medidas de tendencia central sino medidas de
posición. El percentil es el valor de la variable que indica el porcentaje de una
distribución que es igual o menor a esa cifra.
Así, por ejemplo, el percentil 80 es el valor de la variable que es igual o deja por debajo
de sí al 80% del total de las puntuaciones. Los cuartiles son los valores de la variable
256

que dejan por debajo de sí el 25%, 50% y el 75% del total de las puntuaciones y así
tenemos por tanto el primer cuartil (Q1), el segundo (Q2) y el tercer cuartil (Q3).
Prueba “T “

Definición: Es una prueba estadistica para evaluar si dos grupos difieren entre si de
manera significativa respecto a sus medias. O hasta que punto una diferencia entre dos
medias es mayor de lo que cabe esperarse se deba al azar.

Utilización: Suele utilizarse cuando necesitamos conocer, hasta que punto una
diferencia entre es mayor de los que cabe esperarse se deba al azar, para muestras
cuyo numero de elementos sea inferior a a treinta n < 30 ).1

Cuando tratamos de probar la significación entre las medias de dos grupos


experimentales, tanto si emplea la distribución Z como la T, pueden darse dos
situaciones basicas; a) que los grupos sean independientes (como ocurre en el caso de
asignación de los sujetos al azar), y b) que los grupos se hallen relacionados (como
cuando se utiliza alguna tecnica de apareamiento, o bien, los mismos sujetos son
sometidos a dos condiciones experimentales sucesivas como en los diseños antes y
después).

Hipótesis a probar : De diferencia entre dos grupos. La hipótesis d einvestigacion


propone que los grupos difieren significativamente entre si y la hipótesis nula propone
que los grupos no difieren significativamente..

Variable involucrada:La comparación se realiza sobre una variable. Si hay derentes


variables, se efectuaran varias pruebas “T” (una por cada variable). Aunque la razon
que motiva la creación de los grupos puede ser una variable independiente. Por
ejemplo: Un experiemnto con dos grupos, uno al cual se le aplica el estimulo
experimental y el otro al grupo control.

Nivel de medicion de la variable: Intervalos o razon

Formula y ejemplo: El valor “t” se obtiene en muestras grandes mediante la formula:

Si estamos comparando un resultado cuantitativo en dos grupos de datos, a partir de


muestras extraídas de forma aleatoria de una población normal, siendo nA el tamaño de
la primera muestra y nB el de la segunda, la cantidad:
257

(donde son las medias muestrales, las correspondientes medias


poblacionales, s la desviación típica muestral conjunta), se distribuye como una t de
Student con nA+nB-2 grados de libertad, proporcionándonos una referencia
probabilística con la que juzgar si el valor observado de diferencia de medias nos
permite mantener la hipótesis planteada, que será habitualmente la hipótesis de
igualdad de las medias (por ejemplo igualdad de efecto de los tratamientos), o lo que es
lo mismo nos permite verificar si es razonable admitir que a la luz de los
datos obtenidos en nuestro experimento.
Veamos un pequeño ejemplo. Se efectuó un estudio para comparar dos tratamientos en
cuanto a la mejoría en la salud percibida, determinada mediante un cuestionario de
calidad de vida en pacientes hipertensos. Se asignaron 10 pacientes de forma aleatoria
a cada uno de los grupos de tratamiento, obteniéndose los siguientes resultados:
Tabla 5
Trat. A 5.2 0.2 2.9 6.3 2.7 -1.4 1.5 2.8 0.8 5.3
Trat. B 6.0 0.8 3.2 6.2 3.8 -1.6 1.8 3.3 1.3 5.6

Si calculamos el valor de t según la fórmula anterior obtenemos:

Tabla 6 Tabla 7
Dif.medias 0.41 Trat. A Trat. B
Err.est.dif. 1.11 Media 2,63 3,04
t Student 0.37 Desv.Típ. 2,45 2,52
Gl 18
P 0.7165
Intervalo 95% para la dif. de medias -1.93 a 2.75
258

De acuerdo con esos resultados, al ser la probabilidad obtenida alta,


vemos que no hay razones para rechazar la hipótesis de que no existe
diferencia entre los grupos (P= 0.7165), aceptamos que las medias
son iguales, lo que podemos también comprobar de forma gráfica, si
representamos cada serie de valores en dos posiciones del eje X,
obteniendo un gráfico como el representado en la figura 1.
Ahora bien, sabemos que dos variables que influyen en los resultados
de los cuestionarios de calidad de vida percibida son la edad y el sexo
de los pacientes. Al asignar de forma aleatoria los pacientes a cada
grupo de tratamiento esperamos que las variables que puedan influir
en el resultado, diferentes del propio tratamiento asignado, se
distribuyan en ambos grupos de forma parecida; pero cuando de
antemano conocemos que algunas variables sí influyen en el
parámetro objeto de estudio, podemos controlarlas en el diseño para
evitar que puedan afectar al resultado, sobre todo cuando vamos a
trabajar con una muestra pequeña.
Así en nuestro ejemplo podemos dividir los pacientes dentro de cada
sexo en varios grupos de edad y buscar parejas de pacientes con el
Figura 1 mismo sexo y con edades similares. Dentro de cada pareja,
seleccionada con ese criterio (igual sexo y edad similar), asignamos
de forma aleatoria cada uno de los tratamientos.

Tomado de: Molinero, Luis. M. 2003.Pruebas pareadas. http://www.seh-


lelha.org/pareadas.htm

Prueba de diferencia de proporciones


Definición: es una prueba estaditica para anlizar si dos proporciones difieren
significativamente entre si
Hipótesis a probar: de diferencia d eproporciones en dos grupos.
Variable involucrada: la comparación se realiza sobre una variable. Si hay varias se
efectuara una prueba de diferencia d eproporciones por variable.
Nivel de medicion de la variable: Intervalos o razon, expresados en proporciones o
porcentajes..
Formula, procedimiento e interpretación:
Se obtienen las proporciones de dos grupos. Se aplica la siguiente formula :
259

Z= P1 - P2

P q +P q

N1 N2

q1 = 1 – P1

q2 = 1 – P2

La puntuación “Z “ resultante se compara con la puntuación “Z” d ela distribución d


epuntuaciones “Z” (normal) que corresponda al nivel de confianza elegido.

Análisis de varianza unidireccional o de una vía

Análisis factorial de varianza

Análisis de covarianza

REFERENCIAS BIBLIOGRÁFICAS

Acosta H, Luís E; Guía práctica para la investigación y redacción de informes. Buenos


Aires, Paidós, 1978.
260

Aguirre, Stella y Chitaroni, Horacio – "Estudios explicativos: el modelo Lazarsfeld" -


Material de cátedra de Métodos y técnicas de investigación en C. Sociales -
Universidad del Salvador - Facultad de Ciencias Sociales - Bs. As., 2005.

Gallart, María A. - "La integración de métodos y la metodología cualitativa" en FORNI


y otros: Métodos cualitativos II: la práctica de la investigación - Centro Editor de
América Latina - Bs.As., 1992

Alsina F, J.; Aprender a investigar: Métodos de trabajo para la redacción de tesis


doctorales. Madrid, Compañía Literaria, 1994, 238 pp.

Anderson, G.L. (1989). Critical ethnography in education: Its origins, current status and
new directions. Review of Educational Research, 59(3), 249-270.

Amat N, N; Técnicas documentales y fuentes de información. Barcelona, Bibliograf,


1978.

Aranzeta, G. Introducción a la Metodología Experimental. Editorial Limusa, 2ª edición.


México, D.F. 2001. 210 p.

Ardila, N. El proceso de la investigación científica. Acción pedagógica No. 2.


Universidad Pedagógica y Tecnológica de Colombia. Centro de investigación y
extensión. Tunja. 1998.

Botta, Mirtha – Tesis, monografías e informes. Nuevas normas y técnicas de


investigación y redacción – Editorial Biblos – Buenos Aires, 2002: Cap

Briones, G. Métodos y Técnicas de investigación para las Ciencias Sociales. Editorial


Trillas, México, D.F. 2001. 368 p.

Bunge, M. La investigación científica: su estrategia y su filosofía, Ariel, Barcelona,


1959.

Camacho de Báez, B. metodología de la investigación científica. Editorial UPTC- Tunja,


Colombia. 2003. 189 p.

Campbell, A. y Donald J Stanley. Diseños experimentales y cuasi-experimentales en la


investigación Social, Amorrortu, Buenos Aires, 1973.

Castilla, S. L. Metodología de la investigación en Ciencias de la Salud. Editorial Manual


Moderno. México, D.F. 2001. 110 p.
261

Cervo, L .A., y Alcino, B.P. Metodología científica. Editorial Mc Graw –Hill. Coeditores.
Bogota.1983.137 p.

CHitaroni, Horacio – "El análisis de los datos: técnicas de análisis cuantitativos. Análisis
descriptivos. La lógica de la comparación. Cruces de variables". – Material de cátedra.
USAL. Facultad de Ciencias Sociales. Bs. As., 2005:

Clanchy, J y Ballard, B.; Cómo se hace un trabajo académico. Guía práctica para
estudiantes universitarios. Zaragoza, 1995, 176 pp.

Coblans, H.; Nuevos métodos y técnicas de difusión del conocimiento. Boletín de la


UNESCO para las bibliotecas, 1957.

Combini, S Y Juárez, J. M. Introducción a las Técnicas de Investigación. México:


Editorial Trillas. 1990 (3 ejemplares).

Comes, P; Guía para la redacción y presentación de trabajos científicos, informes


técnicos y tesinas. Barcelona, Oikos-Tau, 1971.

Cook, T.D. y Reihardt, S.metodos cualitativos y cuantitativos en investigación


educativa. Edit. Morata. Madrid, 1986 (e.o 1982), 228 p.

Delgado, J.M. y Gutiererez. J. [Coords.] (1994): Métodos y técnicas cualitativas de


investigación en ciencias sociales. Síntesis. Madrid

Dewey, J. (1934). Art as experience. New York: Minton, Balch. Dewey, J. (1938). Logic:
The theory of inquiry. New York: Holt. Erickson, F. (1986). Qualitative methods in
research on teaching. En M.C. Wittrock, (Ed.), The handbook of research in teaching (3¦
edición). New York: MacMillan, pp. 119-161.

Eco, Umberto; Cómo se hace una tesis. Técnicas y procedimientos de estudio,


investigación y escritura. Barcelona, Gedisa, 1982.

Garcia De La Fuente, O. (1994): Metodología de la investigación científica. Cómo hacer


una tesis en la era de la informática. CEES. Madrid.

Garret, H. E. (1983 y 1987): Estadística en Psicología y Educación. Paidós Ibérica,


Barcelona

Gallego, A; Ser doctor: Cómo redactar una tesis doctoral. Madrid, Fundación
Universidad-Empresa, 1987.
262

Goetz J.P. y LeCompte, M.D. (1984). Ethnography and qualitative design in educational
research. New York: Academic Press. Guttentag, M. (1971). Evaluation and society.
Personality and Social Psychology Bulletin, 3, 31-40.

González, M, I Metodología del trabajo científico. Santander, Sal Terrae, 1973.

Gollete, G y Lessard, H.M. La investigación, sus funciones, sus fundamentos y su


instrumentación, Barcelona, 1988. 228 p.

Habermas, J. (1988): La lógica de las Ciencias Sociales. Madrid, Técnos.

Hair, A, y Tatham, B (1999): Análisis multivariante. 5/e. Madrid: Prentice Hall.

Hernández S, R., Fernández, C, Baptista, P. Metodología de la Investigación. Mc Graw


Hill. , México. 1991. 505 p

Keeves, J. P. (Ed.) (1988): Educational Research, Methodology and Measurement. An


International Handbook. Oxford, Pergamon Press.

Kerlinger, F. N. Investigación del Comportamiento: Técnicas y Métodos. México:


Editorial Interamericana. 1986 (4 ejemplares).

Ibáñez, B, B.; Manual para la elaboración de Tesis. México, Trillas, 1990.

Lasso De La Vega, J; Cómo nace una tesis doctoral. Técnicas, normas y sistemas de
la investigación científica y técnica. Madrid, Fundación Universitaria Española, 1977.

LeCompte, M.D. (1972). The uneasy alliance of community action and research. School
Review, 79, 125-132.
LeCompte, M.D. (1990). Review of Designing qualitative research, por C. Marshall y G.
Rossman, Qualitative Studies in Education, 3 (3), 295-298.
LeCompte, M.D. y Goetz, J. P. (1982). Ethnographic data collection and analysis in
evaluatlon research. Educational Evaluation and Policy Analysis, Fall, 387-400.
LeCompte, M.D. y Preissle, J. (1993). Ethnography and qualitative design in
educational research. San Diego: Academic Press. Lincoln, Y.S. y Guba, E. G. (1985).
Naturalistic inquiry. Beverly Hills, CA: Sage

León, O. G. y Montero, I. (1993 y 1998, 2.a ed.): Diseño de investigaciones. Madrid,


McGraw-Hill/Interamericana de España.
263

López, Y, J. (1995): La aventura de la investigación científica. Guía del investigador y


del director de investigación. Madrid, Síntesis.

Garcia, F, M./ Ibañez, J. y Alvira, F. [Comps.] (1986): El análisis de la realidad social.


Métodos y técnicas de investigación social. Alianza.

García, F, M. Et al (1994) El análisis de la realidad social. Métodos y técnicas de


investigación. Madrid, Alianza Universidad.(2ª ed.)

Goetz, J. P. y LeCompte, M.D. (1991). Qualitative research in social studies education.


En J.P. Shaver (Ed.), Handbook of research on social studies teaching and learning, a
project of the National Council for the Social Studies. New York: MacMillan Publishing
Co., pp. 56-67.
Goetz J.P. y LeCompte, M.D. (1984). Ethnography and qualitative design in educational
research. New York: Academic Press. Guttentag, M. (1971). Evaluation and society.
Personality and Social Psychology Bulletin, 3, 31-40.

Glaser, Barney y Strauss, A – The discovery of grounded theory. Strategies for


qualitative research – Aldine Publishing Company – New York, 1967 – Cap. III
(Traducción de Floreal Forni)

Helfgot, J. (1974). Professional reform organizations and the symbolic representation of


the poor. American Sociological Review, 38, 475-491.

Hernández S, R., Fernández, C, Baptista, P. Metodología de la Investigación. Mc Graw


Hill. , México. 1991. 505 p

House, E. (1979). The objectivity fairness and justice of federal evaluation policy as
reflected in the Follow-Through evaluation. Educational Evaluation and Policy Analysis,
1(1), 28-42.

Meek, Harriet W. (2003, May). The Place of the Unconscious in Qualitative Research.
Forum Qualitative Sozialforschung / Forum: Qualitative Social Research [On-line
Journal], 4(2). Disponible en: http://www.qualitative-research.net/fqs-texte/2-03/2-
03meek-e.htm.Accesado febrero 2006.

Méndez, E. C. Metodología. Diseño y desarrollo del proceso de investigación. Mc Graw


Hill. Bogotá D.C. 2001. 246 p.

Mora, L.M., y Sepúlveda, O.P. Metodología d ela investigación. Editorial Limusa. 2ª


edición. México, D.F. 2000. 128 p.
264

Munch, L. y Angeles, E. Métodos y Técnicas de Investigación. Ed. Trillas, México.1993.


166 p.

Murillo, W.J. la investigación científica.


http://www.monografias.com/trabajos7/inci/inci.shtml . Accesado Septiembre de 2005.

Pachón, G. O. Metodología de la investigación en ciencias naturales.Universidad


INCCA. Bogotá D.C.1999. 198 P.

Pardinas, F. Metodología y Técnicas de investigación en ciencias sociales. Siglo XXI


editores, México D.F.13ª Edición. 1975.

Perez, T, R. Como acercarse a la ciencia. Editorial Limusa. 8ª Edicion. Mexico D.F.


2000. 150 p.

Popper, K. R. (1985, 7.a r.): La lógica de la investigación científica. Madrid, Tecnos.

Ramos, S, J. L. (2000): Problemas de estadística aplicados a la investigación


educativa. Mérida, C. A. de la UNED.

Quivy, R., y Van Campenhoudt, L. Manual de Investigación en Ciencias Sociales.


Editorial Limusa.1ª edicion.Mexico .D.F. 1992. 269 p.

Reichardt, C.S. y Cook,T.D.(1979). (Eds.) Qualitative and quantitative methods in


evaluation research. Beverly Hills, CA: Sage.

Rodríguez Del Ángel, J. Métodos de Investigación Pecuaria. Ed. Trillas, México, 1990.
208 p.

Ruiz, M.P. Métodos Estadísticos para investigación agraria y biológica. Ministerio de


Agricultura- Consejeria de Agricultura y medio Ambiente. Merida, España. 2000. 342 p.

Sabino, C.A. El Proceso de Investigación. Ed. Panamericana. Bogotá .1995. 170 p.

Sabino, C.A. Como Hacer una Tesis y elaborar toda clase de trabajos escritos.
Editorial Panamericana. 1ª Edicion. Bogota . 1996. 296 p.
Sandoval C, C. A. Investigación Cualitativa. Instituto Colombiano para el Fomento de la
Educación Superior , ICFES. Bogota, Colombia. 1996. 313 p.

Solomon, P. R. (1989): Guía para redactar informes de investigación. México, Trillas.

Schwartz. J. y L. Jacobs, Sociología cualitativa, método para la reconstrucción de la


realidad, Trillas, México, 1984.
265

Sherman, R.R. y Webb, R.B. (1988). Qualitative research in education: A focus. En


Sherman, R.R. y Webb, R.B. (Eds.) Qualitative Research in Education: Focus and
Methods. New York: The Falmer Press, pp. 2-22.

Stake, R.E. (1978). The case study method in social inquiry. Educational Researcher 7,
5-8.

Tesh, R. (1990): Qualitative Research. Analysis, Types and Software Tools. London,
The Falmer Press.

Tamayo, T. M. El Proceso de La Investigación científica. Ed. Limusa, México. 1993. 1


Trzeciak, J and Mackay, S.E.; Study Skills of Academic Writing. London, Phoenix ELT
(Prentice Hall Macmillan), 1994.

Velazquez, B. (2001): Introducción a la investigación en educación. Madrid, UNED.

Velilla, B, R.; Cómo se realiza un trabajo monográfico. Barcelona, Eunibar, 1979.

Villasante, T.R. y otros (2000-2001): Construyendo Ciudadanía 1 y 2 Ed. Viejo Topo,


Barcelona; Construyendo Ciudadanía 3 (2002)Ed. IEPALA - CIMAS, Madrid;
Construyendo Ciudadanía 4 (2002) Ed. NordanCIMAS,Montevideo.
(http://cimas.eurosur.org/gloobal/fichas/ficha.php?entidad=Metodologias&id=3=)

Wilson, S. (1977).The use of ethnographic techniques in educational research.Review


of Educational Research, 47, 245-265.
.
Wolcott, H.M. (1980). How to look like an anthropologist without really being one.
Practicing Anthropology, 3(1), 6-17, 56-59. Wolcott, H. M. (1990). Writing up qualitative
research. Newbury Park, CA: Sage.

Zeleny,J., L estructura Lógica del capital, de Marx, Grijalbo, Barcelona, 1974.

Zorrilla A, S., y Torres X, M. Guia para elaborar la tesis. Editorial McGraw-Hill.México


D.F.1992. 160 p.

También podría gustarte