Tecnicas de Investigacion
Tecnicas de Investigacion
Tecnicas de Investigacion
UNAD
AUTOR
2006
2
TABLA DE CONTENIDOS
Capítulo 1. La investigación
Lección 1. Antecedentes
Lección 7. El Diseño
Prólogo
Del mismo modo que la profundización y la extensión del bienestar social, en su más
amplio sentido, necesita de los esfuerzos impulsores del desarrollo científico y
tecnológico, las acciones inductoras de esta planificación, gestión y ejecución de la
investigación- requieren del apoyo sistemático y continuado de los servicios de
documentación e información en la medida que se encargan de facilitar la percepción,
asimilación y transferencia de los avances del conocimiento científico y tecnológico,
cualquiera sea el origen, disciplina y forma en que se produzcan.
Puede decirse, en resumen, que este cúmulo de tareas se integra plenamente en lo que
se ha dado llamar Sistema Ciencia-tecnología, o lo que es lo mismo, en el conjunto de
elementos organizados que producen, trasfieren, y aplican los logros científicos y
tecnológicos para los que se aportan los recursos – humanos, financieros e
instrumentales- necesarios en el desenvolvimiento de su actividad, la cual, en definitiva,
se extiende desde las propias percepciones teóricas y experimentales hasta su
transformación en productos operativos del pensamiento, la economía o la producción
industrial.
INTRODUCCIÓN
4
Todo buen investigador sabe, que toda línea de investigación comienza por ser
cualitativa y que el sustento teórico de una investigación cuantitativa así como el análisis
de los resultados no adquieren significación si no es dentro de un contexto cualitativo.
Por su parte, la investigación cualitativa requiere de la precisión que ofrece la
cuantificación, para ordenar los datos y la información recolectada y así contribuir a la
significación de los contenidos; además, requiere la precisión conceptual que es
facilitada por la llamada investigación cuantitativa..
OBJETIVOS
E.C.
5
6
Capitulo 1. La investigación
Lección 1. Antecedentes
El descubrimiento, por ejemplo, se destaca por encima de los demás por tener una
actitud imaginativa, pero eso no significa que no necesite secundariamente una
capacidad comunicadora para exponerlo de modo convincente, para que la comunidad
acepte que una parte de sus recursos se utilicen para probar esa conjetura. En la prueba
de hipótesis, es decir, la verificación, predomina el desempeño operacional, es decir, la
aptitud científica. Pero esa actitud podría utilizarse para otros fines sino mediara la
actitud crítica. En fin, que seria de la comunicación científica si solo fuera necesario el
dominio del lenguaje científico.
¿Qué es Investigación?
La investigación básica esta comprometida con la relación entre dos o más variables. Es
llevada a cabo por identificación del problema, examen de variables relevantes selectas
a través de la revisión de literatura, construyendo una hipótesis donde sea posible,
creando un diseño de investigación para investigar el problema, recolectando y
analizando datos apropiadamente, y sacando conclusiones acerca de las relaciones de
las variables.
7
El mismo autor explica: "Para descubrir las relaciones e interconexiones básicas a que
están sujetos los procesos y los objetos, es necesario el pensamiento abstracto, cuyo
producto (conceptos, hipótesis, leyes, teorías) debe ser sancionado por la experiencia y
la realidad concreta..."
El enorme esfuerzo individual y colectivo que han desplegado las capas científicas mas
críticas e imaginativas, por tratar de explicar los fenómenos más complejos y disímiles en
todas las disciplinas científicas, cuyos antecedentes modernos se remontan al siglo XVII,
fue lo que permitió consolidar y desarrollar un propósito histórico entre la comunidad
científica contemporánea y los problemas que desea enfrentar. Esta finalidad consiste en
que, retomando antecedentes de la antigüedad griega, la ciencia debe hacer
generalizaciones que puedan ser sometidas a pruebas bajo criterios universales. A nivel
personal, el investigador, frente a un problema científico tiene ante sí el reto de formular
la mejor y más amplia explicación posible. Con la conciencia de que posteriormente
deberá verificarla mediante pruebas de validez universal.
Por tanto, toda generalización, elucubración, idea, supuesto o conjetura que pretenda
explicar un problema de la ciencia empírica, sin importar lo improbable que parezca,
podría formar parte del conocimiento general de la ciencia, si por medio de un proceso
de observación, los hechos le dieran la razón.
De manera más estricta podría sugerirse que la hipótesis científica debiera contener “la
posibilidad de hacer una predicción verificable, privativa de la teoría y que no riña con los
demás datos disponibles”. En consecuencia, toda hipótesis tienen cierto grado de
probabilidad de ser verdadera, y toda teoría (producto de muchas investigaciones que
verifican las consecuencias de sus leyes), por más sólida que parezca, también es una
hipótesis, aunque con mas probabilidad de ser cierta.
Por tanto, en el producir investigación científica se encuentra el entender cuáles son los
factores necesarios que incrementan las probabilidades de tener éxito en tal empresa.
Nuestra aproximación teórica nos señala que estos son tanto de índole social como
individual. El primer aspecto nos enseña que el iniciado debe respetar y practicar tres
acuerdos sociales: actitud critica hacia la ciencia, aptitud científica y capacidad de
comunicar sus hallazgos a la comunidad. El segundo, es la necesidad de que el
investigador asuma un compromiso autentico con la materia investigada, al que hemos
llamado compromiso existencial.
1. Es Sistemático
Dado que la investigación es un proceso estructurado (esto es, hay reglas que cumplir),
esto hace que sea sistemático. Las reglas incluyen especificaciones en el procesamiento
para identificar y definir las variables o categorías, en el diseño de estudios en los cuales
éstas serán examinadas y sus efectos en otras determinadas, Los datos de este modo
recolectados aportan al estudio del problema e hipótesis originalmente planteados. ( hay
otros procesos para llegar a conclusiones, tales como la deducción que son igualmente
sistemáticos y procesos como conjeturación e intuición que siguen determinados
procesos para alcanzar la validez que caracteriza la investigación).
2. Es lógico
3. Es empírico
11
4. Es reductivo
5. Es replicable y transmisible
En la actividad científica los elementos básicos del proceso del conocimiento, están
subordinados a la capacidad, manera de pensar y experiencia del investigador. De esta
manera él deberá disponer de estos elementos de un amanera lógica y creativa para
obtener nuevos o más completos conocimientos, en un proceso planeado según el
problema de investigación que se proponga resolver.
tareas que son esenciales para lograr el conocimiento científico no son solo de carácter
técnico o empírico; también lo son de tipo teórico y lógico.
La investigación científica esta constituida tanto por actores observables como por
razonamientos, sistemas, pasos intuitivos, representaciones figuradas, etc., no
susceptibles de observación directa. En esta forma de conocimiento, la actividad
cognoscitiva esta orientada a la diferenciación y estudio de los objetos y fenómenos
reales, convertidos en objeto del conocimiento.
Esto explica por que hoy día la tendencia es a que las instituciones que soportan la
investigación científica trabajen sobre líneas de investigación y no sobre proyectos
aislados, esto es, sobre áreas o conjunto de problemas de investigación, que tienen una
misma tendencia de solución.
.
13
La investigación científica esta constituida tanto por actores observables como por
razonamientos, sistemas, pasos intuitivos, representaciones figuradas, etc., no
susceptibles de observación directa1. En esta forma de conocimiento, la actividad
cognoscitiva esta orientada a la diferenciación y estudio de los objetos y fenómenos
reales, convertidos en objeto del conocimiento.
Esto explica por que hoy día la tendencia es a que las instituciones que soportan la
investigación científica trabajen sobre líneas de investigación y no sobre proyectos
aislados, esto es, sobre áreas o conjunto de problemas de investigación, con una
misma tendencia de solución.
Lección 7. El Diseño
+ Los diseños no experimentales – a los cuales pertenecen las encuestas, los estudios
históricos, etc. – son especialmente apropiados para investigaciones descriptivas y
relacionales, es decir, investigaciones en las cuales se desea establecer las
correlaciones y asociaciones que pueden haber entre diversas variables. Sin perjuicio
de estos usos, es posible acercarse con estos diseños a explicaciones de tipo causal,
mediante los llamados modelos causales.
En relación con el tiempo, se definen dos tipos de diseños: los seccionales y los
longitudinales. Los primeros estudian los fenómenos en un momento del tiempo (por
ejemplo, una encuesta realizada en determinada fecha); los diseños longitudinales lo
hacen en un cierto periodo, con el fin de examinar sus variaciones en el tiempo. A este
tipo pertenecen los estudios de paneles, es decir, conjuntos de las mismas perdonas
estudiados en dos o más oportunidades, así como los estudios de cohorte o de grupos
de personas que tienen una o más características comunes, los estudios de tendencias
en grupos o diferentes muestras de personas, etcétera
15
I
Lección 8. Principales tipos de información en investigación
Definiciones
Para ganar tiempo y ahorrar dinero, el economista decide examinar los datos de
desempleo que durante esa década recolectó el DANE a través de sus encuestas sobre
empleo y desempleo. Y en base a esos datos recogidos de antemano, hace su propia
investigación.
(Malagón, R 1985) en su trabajo de grado titulado " Parámetros fisiológicos el cual fue
meritorio, en base a los registros productivos de un hato brahman del fondo ganadero de
Antioquia
plantea una hipótesis y luego, a través de la serie de entrevistas a los enfermos, recoge
la información indispensable para probar dicha hipótesis. A través de contacto directo
con los pacientes y por información proporcionada directamente por ellos comprueba su
hipótesis.
En el caso del economista, en vez de examinar los datos proporcionados por las
encuestas del DANE sobre el desempleo en Colombia, él decide diseñar su propia
encuesta, escoge un conjunto de desempleados de varias ciudades del país y les aplica
directamente su encuesta sobre el desempleo.
Ahora ya estamos en condiciones más o menos favorables para hacer una distinción
fundamental: en los tres casos iniciales, donde existía la información de antemano y se
formularon después las hipótesis, tenemos el caso conocido como análisis secundario o
investigación basada en INFORMACIÓN SECUNDARIA. en las últimas tres
investigaciones estamos ante situaciones exactamente contrarias: los investigadores
plantearon inicialmente su problema o su hipótesis, en relación con un resultado
desconocido y luego procedieron, mediante algunas técnicas como la entrevista, la
encuesta, o el experimento a construir los datos o las observaciones para probar dichas
hipótesis. Este procedimiento se denomina ANALISIS PRIMARIO o investigación basada
en INFORMACION PRIMARIA.
Esta distinción entre información primaria e información secundaria y las técnicas
respectivas que hay que elegir para utilizar uno u otro tipo de información se explicara a
continuación.
Esta lección proporciona un conjunto de elementos teórico prácticos, que permiten saber
al investigador cuándo necesita utilizar información recogida por él mismo o recogida por
otros investigadores, información primaria o información secundaria; cuándo debe
construir su propio instrumento o técnica de recolección de información o cuándo no
necesita hacerlo; en fin, cuándo su hipótesis exige alto grado de confirmación o cuándo
es conveniente apenas un bajo nivel probatorio.
En el siguiente cuadro se presentan las diferencias principales entre estos dos tipos de
información, quizá se vea con claridad como esa distinción es más profunda en lo que se
cree y tiene consecuencias muy importantes sobre el alcance y validez de una
17
investigación.
De acuerdo con las diferencias anteriores, existen técnicas respectivas para hallar o
construir la información primaria o la información secundaria
Los instrumentos para recabar información son, aparte de las técnicas de investigación
documental (fichas bibliográficas y fichas de trabajo), la encuesta, el cuestionario, la
entrevista, los tests y las escalas de actitudes. Todas estas técnicas sirven para medir
las variables y deben reunir las siguientes características:
b) Plantear todas las formas que esta variable se puede presentar para establecer los
indicadores más adecuados; para ello se requiere de una extensa revisión bibliográfica y
de la consulta con especialistas de la materia.
18
c) Efectuar una prueba piloto que contribuya a mejorar la validez del instrumento.
La validez de predicción se relaciona con la eficacia que tiene la técnica para predecir el
comportamiento de los fenómenos ante determinadas circunstancias. Se puede verificar
comparando el resultado obtenido a través de la aplicación del instrumento, con los
resultados en la práctica y con otro criterio diferente, por ejemplo: sí a través del
instrumento, con los resultados en la práctica y con otro criterio diferente, por ejemplo: si
a través del instrumento se predice la productividad de determinado grupo, es
conveniente comparar el estándar obtenido en la prueba con los resultados obtenidos
en el desempeño del trabajo normalmente.
La Información Secundaria
Durkheim hizo una investigación sobre el suicidio en la década 1890-1900, época en que
los métodos y técnicas estadísticos todavía no se habían desarrollado. Los datos que
Durkheim tuvo a su disposición fueron historia de suicidios, cuyo análisis estadístico le
permitió, a veces, examinar variaciones en las tasas de suicidios (tasa de suicidios:
medida estadística que indica el numero de suicidios por cada 100.000 personas de una
población dada).Según diversos subgrupos, como, por ejemplo, la región, la
nacionalidad, el sexo, la religión, etc.. Examinando las distintas fuentes de
documentación citadas al comienzo, esta autor francés no tuvo oportunidad de medir sus
variables en forma refinada: con frecuencia las historias de suicidios eran tales que
Durkheim no pudo encontrar ninguna serie estadística para una cantidad de subgrupos
especiales, que se asemejen entre si desde muchos puntos de vista. La índole misma de
19
Por ejemplo, uno de los problemas que Durkheim investigó fue la relación entre el estado
civil y la tendencia al suicidio, a partir de la hipótesis de que la soltería aumentaba dicha
tendencia. Para probar esta hipótesis, traro de comparar las persona solteras de 25 a 30
años con las casadas y las viudas de la misma edad, procediendo después en forma
análoga con otros rangos de edad. Lamentablemente, las estadísticas oficiales no
contenían los datos necesarios para efectuar esta comparación, puesto que señalaban la
edad de los suicidios independientemente de su estado civil. En algunas regiones de
Austria las publicaciones oficiales si mostraban, para los años 1871 a 1855, la
distribución de los suicidios por edad para cada categoría de estado civil (soltero,
casado, viudo) considerada separadamente. Pero en estas regiones austriacas solo
hubo 1369 suicidios durantes esos quince años, lo que impedía extraer ninguna
conclusión seria con tan pocos casos.
Antes tales dificultades por la información secundaria de otros países, Durkheim se puso
a recolectar datos para determinar la situación en Francia, con ayuda de documentos
inéditos del Ministerio de Justicia. Después de estudiar los años 1889, 1890 y 1891,
clasifico unos 25.000 suicidios. Loa problemas en la utilización de fuentes secundarias
no terminaron del todo. La tarea de reunir todos esos datos, emprendida por un solo
individuo fue considerable, comparada con la que podían adelantar las oficinas oficiales
de estadística. Solo que esta ultima proporcionaba mucha información carente de valor,
omitiendo la que indicaba cual era el estado de la vida familiar entre los suicidios.
Esta fue, pues, una típica investigación basada en información de tipo secundario.
Einstein supone que la comprensión se alcanza cuando reducimos los fenómenos por
medio de un proceso lógico a algo ya conocido o evidente.
La conceptualización de la palabra "investigación" es una de las más difíciles, y por la
enorme variedad de actividades que se pueden entender por investigación no es fácil de
definir este concepto, asti Vera (1989) lo expresa de la siguiente manera: "El empleo no
siempre riguroso de la palabra investigación ha inducido a algunas identificaciones
abusivas: a) la investigación equivale a la indagación empírica. Quienes así piensan,
olvidan que no sólo se puede investigar en el terreno de las ciencias positivas, hay una
investigación también humanística.
Las técnicas en una ciencia son los medios correctos de ejecutar las operaciones de
interés en tal ciencia. El entrenamiento científico reside, en gran parte, en el dominio de
estas técnicas. Ocurre sin embargo, que ciertas técnicas son utilizadas por algunas
ciencias o por todas ellas.
22
ETNOCENTRISMO
Tendencia a erigir valores y
Costumbres del grupo en que
se ha nacido y educado
SUBJETIVIDAD
Tendencia a juzgar los
hechos observados y las
situaciones con base en
AUTORITARISMO
Tendencia a aceptar como
verdadera una afirmación
dicha por otra persona; sin
que este apoyada en
razones, experimentos o
investigaciones aprobadas
Influencias DOGMATISMO
Socioculturales Tendencia a erigir formulas
En el al margen del estudio, de la
investigador critica y de la discusión
IMPRESIONISMO
Tendencia a confundir
experiencias transitorias
con verdades
comprobadas.
ESTEREOTIPOS
Tendencia a aceptar
imágenes no comprobadas
que le forman al individuo
desde la infancia
ESPECIALISMO
Tendencia a devaluar
cualquier conocimiento que
no se encuentre dentro del
area de nuestra especialidad
Escenarios de la observación
· Público: Cualquier realidad social en donde cualquier persona pueda estar (nos
encontraríamos el problema de la permanencia).
· Privado: El problema es el acceso. Para conseguir el acceso y la permanencia se
necesita un disfraz (Ej.: para analizar un sindicato te afilias). Como ventaja que con el
disfraz te olvidas del problema del acceso, desventaja se pierde privaticidad, si se
enteran que vas disfrazado no confiaran en ti.
Con el acceso privado hay que respetar la privacidad, pero no decirlo todo y así poder
hacer lo que se quiera con la información. Antes de acceder hay que tener a alguien
que nos involucre en el ambiente y dependiendo de ese portero te aceptaran o no. Los
grupos poseen 2 estructuras distintas:
• Estructura formal: Liderazgos, personas influyentes, etc.
• Estructura informal: En el papel mandan, pero en la realidad no
26
La ciencia nace y culmina con la observación. Esta técnica es la más primitiva y la más
actual en el proceso de conocimiento. La observación incluye desde los procedimientos
informales, como la observación casual, hasta los más sistematizados, como son los
experimentos de laboratorio.
En su acepción más general, observar significa mirar con detenimiento; es la forma más
usual con la que se obtiene información acerca del mundo circundante.
De acuerdo con los medios utilizados, con el grado de participación del observador, el
lugar donde se realiza y con los observadores, la observación se puede clasificar en
diferentes tipos que se presentan a continuación
C. Observación Documental
La última etapa consiste en complementar las fichas documentales con las de campo y
de laboratorio, para que cuando esté perfectamente recopilado el material, se proceda a
iniciar la redacción del informe de resultados.
D. Observación Monumental
El realizar la observación de campo requiere contar con una guía de información para
recolectar los datos y para investigar los indicadores y relaciones entre las variables. En
el registro de las observaciones se utiliza un diario de campo y cámaras fotográficas o de
cine, para complementar con material audiovisual la investigación. Después se
transcriben las observaciones a las fichas de campo. Es importante que las anotaciones
29
En este tipo de observación, el investigador manipula ciertas variables para observar sus
efectos en el fenómeno estudiado. Cuando los recursos lo permiten, el experimento
consiste en reunir a un grupo humano y provocar una situación al introducir determinada
variable, y con un grupo de observadores, medir las consecuencias.
Existen dificultades para llevar a cabo este tipo de observación; uno de ellos es el costo,
otro, lograr uniformidad en las características de la muestra de control y de la
experimental. Por otra parte, es posible que aparezcan variables extrañas que no
puedan ser controladas por el investigador y que influyan en los resultados.
Esta observación es sistemática y orientada hacia un objeto preciso. Esta supone haber
hecho anteriormente una elección. Esta elección determina a la vez lo que deber o no
seleccionar (o renunciar) en este tipo de observación.
. Captar el significado de las ideas básicas de un tema. Cuanto más ricas y variadas
sean las relaciones que establezcas entre los conceptos generales y sus principios
básicos, mayor será tu memoria lógica. Debes, por tanto, estructurar y relacionar muy
bien todo el material que deseas retener, ya que nuestra mente es asociativa y
captamos estructuras. De ahí la importancia de la clasificación, visión de conjunto y
asociaciones de los nuevos contenidos con los que ya existen en nuestra mente
Observación Individual es la que hace una sola persona, sea porque es parte de una
investigación igualmente individual, o porque, dentro de un grupo, se le ha encargado
de una parte de la observación para que la realice sola.
Observación de Equipo o de grupo es, en cambio, la que se realiza por parte de varias
personas que integran un equipo o grupo de trabajo que efectúa una misma
investigación puede realizarse de varias maneras:
a. Cada individuo observa una parte o aspecto de todo
b. Todos observan lo mismo para cotejar luego sus datos (esto permite superar las
operaciones subjetivas de cada una)
c. Todos asisten, pero algunos realizan otras tareas o aplican
LECION 12.
La entrevista
La entrevista se utiliza para recabar información en forma verbal, a través de
preguntas que propone el analista. Quienes responden pueden ser gerentes o
empleados, los cuales son usuarios actuales del sistema existente, usuarios potenciales
del sistema propuesto o aquellos que proporcionarán datos o serán afectados por la
aplicación propuesta. El analista puede entrevistar al personal en forma individual o
31
en grupos algunos analistas prefieren este método a las otras técnicas que se
estudiarán más adelante. Sin embargo, las entrevistas no siempre son la mejor fuente
de datos de aplicación.
Dentro de una organización, la entrevista es la técnica más significativa y productiva
de que dispone el analista para recabar datos. En otras palabras, la entrevista es un
intercambio de información que se efectúa cara a cara. Es un canal de comunicación
entre el analista y la organización; sirve para obtener información acerca de las
necesidades y la manera de satisfacerlas, así como concejo y comprensión por parte
del usuario para toda idea o método nuevos. Por otra parte, la entrevista ofrece al
analista una excelente oportunidad para establecer una corriente de simpatía con el
personal usuario, lo cual es fundamental en transcurso del estudio
La entrevista con fines de investigación, puede ser entendida como la conversación que
sostienen dos personas, celebrada por iniciativa del entrevistador con la finalidad
específica de obtener alguna información importante para la indagación que realiza.
Sobre esta base se intenta que el estudiante tenga los fundamentos necesarios y
suficientes para aprender a construir y aplicar una entrevista profunda. La información
requerida por los objetivos de un estudio, especificada en un cuestionario, usualmente
es recogida mediante entrevistas personales. Otras formas de obtener respuestas
directamente de las personas, son las entrevistas por teléfono, el envío del
cuestionario por correo, y la implicación del cuestionario en forma colectiva.
32
La entrevista personal puede ser más o menos formal. En el primer caso, tanto las
preguntas como las respuestas se formulan y recogen de manera estructurada. En las
entrevistas informales, la cédula no consiste en un sistema de preguntas, sino en
puntos centrales del estudio a partir de los cuales se realiza la recolección de las
respuestas o las reacciones de las personas entrevistadas. Entre ambos tipos hay
muchas formas intermedias, expondremos cierto número de indicaciones básicas para
la realización de una buena entrevista formal.
1. Una entrevista es una conversación entre un investigador y una persona que responde
a preguntas orientadas a obtener la información exigida por los objetivos específicos de
un estudio.
Para que tal empresa pueda tener éxito, deben cumplirse ciertas condiciones. En primer
lugar, la persona que responde debe "tener" la información requerida para que pueda
contestar la pregunta. Puede presentarse el caso de que no sepa, efectivamente, de qué
se le está hablando, que no entienda la pregunta, que haya olvidado la información, que
la pregunta le produzca una reacción emocional de tal naturaleza que le impida
contestar, etc. En segundo lugar, la persona entrevistada debe tener alguna motivación
para responder. Esta motivación comprende tanto su disposición para dar las respuestas
solicitadas como para ofrecerlas de una manera verdadera
Cualquiera que sea la situación, además de las acciones iniciales para establecer el
"rapport" (palabras de saludo, etc.), el entrevistador debe explicar cuál es el contenido
general de la encuesta, quién lo realiza o patrocina, en qué se utilizarán los resultados,
etc. Toda esta introducción debe hacerse en forma breve, sin detalles innecesarios. Una
forma común de empezar una entrevista es la siguiente:
4. A pesar de las precauciones que el investigador toma para que las preguntas que
contiene su cuestionario sean claras para el interrogado, en muchas ocasiones éste
expresa que no comprende lo que se le pregunta. En tales casos, la sola repetición de la
pregunta puede superar la dificultad.
Cuidados similares a los anteriores pueden requerir las respuestas "no sé". Debido a la
timidez, comodidad u otras razones, la persona interrogada puede decir que no sabe lo
que se le está preguntando. Si el entrevistador piensa que uno de esos factores es la
causa del "no sé" y no el real desconocimiento del tema que se está investigando,
entonces también puede repetir la pregunta diciendo, por ejemplo: "Con respecto a la
pregunta que acabo de hacerle, tal vez no fui muy claro. Lo que quise preguntar es lo
siguiente (aquí de nuevo la pregunta)."
• Clase alta.
• Clase media alta.
• Clase media.
• Clase media baja.
34
• Clase obrera.
- Si
- No.
- No contesta.
Sin embargo, aun en ciertas preguntas cerradas puede presentarse la duda del
entrevistador respecto a cuál de las respuestas señaladas en la cédula corresponde la
del entrevistado. Por ejemplo, en la pregunta: "Comparado con su anterior trabajo, ¿en
su trabajo actual tiene usted mayor responsabilidad, menor o aproximadamente la misma
responsabilidad?"
• Mayor.
• Menor.
• Aproximadamente la misma.
La respuesta podría ser de alguno de estos tipos: "Más o menos", "en algunos aspectos
más y en otros menos", etc. En tales casos, las recomendaciones para el uso de
preguntas de clarificación (probé), en la forma señalada anteriormente, tienen aplicación
aquí.
Las preguntas abiertas plantean al entrevistador la alternativa de copiar todo lo que dice
el entrevistado o de hacer un resumen de lo que éste dice, sobre todo cuando se trata
de personas con gran facilidad de expresión o deseosas de hablar y que, muchas veces,
intercalan temas que nada -al menos aparentemente- tienen que ver con la pregunta
planteada. El peligro de que el entrevistador reduzca las respuestas y seleccione lo que
a él le parece medular, es evidente. De ahí que, con las dificultades que ofrece la
solución, se recomiende copiar las respuestas tal como las proporciona la persona
entrevistada. Si la naturaleza de la pregunta abierta es tal que puede dar origen a.
respuestas largas y circunstanciales, sería útil usar una grabadora, cuyo uso debe ser
explicado al entrevistado con el fin de obtener su autorización.
investigación. Si bien hay diversas opiniones con respecto a la forma e intensidad del
entrenamiento de los entrevistadores, puede resumirse en los puntos que se indican a
continuación.
Encuestas Instituto
con experiencia y de confianza para comprobar los aspectos señalados. El control puede
efectuarse mediante dos o más preguntas clave o, si la ocasión lo exige, debe hacerse
toda la entrevista de nuevo. En todo caso, es conveniente realizar la supervisión en el
terreno poco después de empezar a recibir las entrevistas, con el fin de tomar
oportunamente las medidas aconsejables
Codificación
Las recomendaciones que se dan para realizar las entrevistas formales tienen el objetivo
de lograr una igualdad de situaciones y estímulos para los entrevistados, de tal modo
que, como lo expresan Moser y Kalton (1989):
El investigador puede estar seguro de que si una persona es interrogada por el
entrevistador B en lugar del entrevistador A (o por el entrevistador A en otra ocasión), las
preguntas se harán en la misma forma y se obtendrán las mismas respuestas.
No siempre la naturaleza del estudio proyectado ni las características de las personas de
quienes se obtendrá la información permiten el uso de cuestionarios totalmente
estructurados. Las opciones, en tales casos, se encuentran en las entrevistas informales,
que van desde el uso de una guía de entrevista, en la cual se incluyen los principales
temas del estudio dentro de los cuales el entrevistador formula las preguntas que le
parecen más apropiadas y con el vocabulario que más se adapte a la situación, hasta el
uso de entrevistas con mayor formalización en las cuales hay preguntas previamente
establecidas, pero en menor número y del tipo abierto, que permite al entrevistado dar
respuestas amplias.
Una vez que los cuestionarios han sido llenados y se ha hecho el control de calidad de la
información recogida (si está completa o incompleta, si no es ambigua, etc.), se procede
a codificar las respuestas, las cuales deben recibir un tratamiento cuantitativo.
Solteros 1
Casado 2
Unión Libre 3
Separado 4
Viudo 5
No contesta 0
Construcción de un código
La construcción de un sistema de categorías para clasificar las respuestas no es tan
simple cuando se trata de preguntas abiertas e, incluso, de preguntas cerradas que el
investigador supone tienen múltiples posibilidades de ser contestadas.
El análisis del contenido se realiza con una muestra de las cédulas completas (10 %
puede ser suficiente). El sistema de clasificación de las respuestas puede incluir "otra"
categoría para ubicar a las que no pueden ser clasificadas en otro lugar.
La codificación en casos como los anteriores puede aplicarse ya sea a las categorías
generales (causas debidas a la naturaleza del ramo, etc.), a las subcategorías dentro de
ellas, o a ambas. Si es esta última la decisión adoptada, el código para la pregunta del
caso tendría dos dígitos: uno que indica la categoría y otro que indica la subcategoría.
El código completo se edita en un "libro de código" para facilitar su consulta en las tareas
de análisis o para cubrir otras necesidades. Este libro debe contener las columnas de la
tarjeta IBM asignadas a cada variable, una descripción o el nombre de la misma, y el
código propiamente
Libro de código
6 Sexo Hombre 1
Mujer 2
7 Origen Urbano 1
Rural 3
Intermedio 4
No contesta 5
Cuando se trata de pocos casos -digamos de 100 a 200 cuestionarios-, los cálculos
estadísticos pueden hacerse con calculadoras de escritorio. Si el número de casos es
41
Como decíamos, los objetivos de estudio determinan los cuadros y resultados que se
necesitarán para la interpretación de los datos, por lo cual el investigador, aun antes de
tener en su poder todos los cuestionarios, puede preparar el plan básico de análisis que
indicará las preguntas (columnas de la tarjeta) de las cuales se necesitan las
distribuciones de las respuestas obtenidas, las preguntas a cruzar (columnas), los
coeficientes requeridos, etc. Este plan inicial, generalmente requiere de modificaciones
en el curso de la interpretación de los datos pues el investigador puede necesitar cruces
de variables, otros promedios, etcétera.
Programas de computadora
Desde hace algunos años se cuenta con diversos "paquetes" de programas de
computadora para realizar cálculos estadísticos de muy variado tipo y complejidad
(desde distribuciones de frecuencia hasta análisis factoriales). Un programa es un
conjunto de instrucciones que se dan a la computadora. Entre esos paquetes, los de
mayor uso son:
Por otra parte, hay diversos lenguajes de programación tales como el Fortran (Formula
Translation), Cobol (Common Business Oriented Language), Algol (Algorithmic
Language), PL/I (que reúne los mejores caracteres de Fortran, Cobol e IPL-V) e IPL-V
(Information Processing Language, versión 5). Los tres primeros pueden ser compilados
en cualquiera de los grandes computadores en uso (IBM, etc).
CAPÍTULO 5. LA ENCUESTA
Lección 13.
Definición y Diseño
Es importante que el estudiante aprenda a identificar los elementos que conforman una
encuesta; a construir los indicadores de la encuesta; a organizar el trabajo de campo y la
prueba piloto de la encuesta y a diseñar el libro código, para registrar correctamente la
información primaria obtenida mediante la encuesta.
Desde ya puede advertirse una diferencia clave entre la dos ultimas técnicas y la
encuesta.
Para ser un eficaz diseñador y analista de encuestas, hay que saber relacionar los
principios metodológicos generales de su construcción, con el contexto particular en el
que se desarrolla la encuesta.
Esto significa que una adecuada combinación de estos principios teóricos generales, con
una experiencia constante en la aplicación de encuestas, es la mejor escuela para ser un
excelente investigador por encuesta. Vamos a aproximarnos un poco a esos principios y
a esa experiencia.
43
Sea que la encuesta la apliquen los científicos de las ciencias Sociales o de las Ciencias
Naturales, hay un elemento característico común en unos y otros:
Su interés por investigar la naturaleza de las relaciones sociales, sea que estas se den
entre individuos, entre grupos o entre colectividades.
Pero no solo los científicos están interesados por las relaciones y los problemas sociales.
También los periodistas, los políticos, los reformadores, los administradores, necesitan
estar informados.
Este instrumento no es actual, ni siquiera de este siglo, como pudiera creerse. A fines del
siglo XVIII, en Francia, los intendentes del Antiguo Régimen, así como los consejeros de
la convención, realizaron encuestas para sondear especialmente en el último caso, la
opinión política de grupos de individuos. En la Inglaterra del mismo siglo XVIII, los
miembros de las Comisiones reales se preocuparon de reunir datos sociales y, un poco
más tarde, se emprendieron celebres encuestas sobre la miseria.
VALOR: algo que puede provenir de una unidad en una clasificación(educación alta,
media y baja; estudiantes entre 10 y 15 años, entre 16 y 20, entre 21 y 25; obreros
colombianos, venezolanos, ecuatorianos y argentinos).
Recordados estos conceptos, podemos intentar hacer una primera definición de lo que
es una encuesta:
¿Cuáles son esas características y cuáles son esas relaciones o asociaciones entre tales
características?
La relación entre lo que la gente piensa y lo que hace; entre la edad y el voto; entre con
quién se relaciona y lo que piensa. Etc. son algunos de los muchos problemas dignos de
ser estudiados mediante las encuestas.
Pero, para poder abarcar un espectro tan amplio de problemas, fue necesario que se
efectuara una serie de progresos técnicos en el diseño de las encuestas, a través de las
tres etapas ya mencionadas anteriormente y que se analizan a continuación:
En la primera, durante el siglo XIX, la encuesta se realizaba con el objetivo de aclarar las
45
5. Registro de la encuesta: Construir el libro código para conservar los datos obtenidos
mediante el formulario.
En una encuesta realizada en la Universidad Nacional en 1981 sobre " la situación de los
campesinos parceleros en Colombia", se partió de la siguiente hipótesis general:
A partir de esta hipótesis general, se planteo cómo una hipótesis de trabajo la siguiente:
Los conceptos principales que se debían investigar eran: Producción, trabajo, relaciones
familiares, estabilidad económica
ETAPAS DE LA ENCUESTA
El diseño total de la encuesta esta constituido por varios diseños parciales. La primera
tarea consiste, desde luego, en formular objetivos generales y específicos de la encuesta
con mayor claridad. A partir de ahí se distinguen las siguientes etapas:
1
Definición
Operacionalización
conceptos
2
Diseños
Cuestionarios
3
Diseño
Muestra
4
Trabajo de campo
Prueba
Aplicación
previa
5
Registro
Encuesta
Etapas de la encuesta
6. Informe final. La etapa final consiste en presentar los resultados del estudio, dar
cuenta de la metodología empleada (tipo de muestra, forma de construcción de las
escalas, etc.) y cualquier otra información acerca de estos aspectos. La forma de
redacción del informe parcial dependerá del tipo de lectores a quien este dirigida.
Diseño de la muestra
Como la encuesta iba dirigida a campesinos de la zona central del país, se escogieron
100familias de las veredas del municipio de Villeta, según un diseño muestral especifico.
La unidad de análisis era la familia.
Trabajo de campo
Registro de la encuesta
Se construyó el libro código, o sea una guía para fijar un rótulo o código a cada una de
las preguntas de la encuesta. Las preguntas abiertas o de respuesta libre se
decodificaron, es decir, se les fijaron alternativas de respuestas dadas. Así la pregunta
Se le fijaron los siguientes códigos con base en las diferentes y numerosas respuestas
dadas por los campesinos;
A las preguntas cerradas o respuesta fija, simplemente se le fijo el número (0, 1, 2....) o
se le suprimieron las alternativas de respuesta sobrantes. Después de la codificación
viene la etapa de análisis estadístico de los datos, el cual se contempla en la cartilla
sobre análisis de la información.
Síntesis
La encuesta tiene los cinco pasos o etapas generales antes descritas. Como se
mencionó antes toda encuesta establece relaciones o asociaciones entre las diversas
características de sus unidades y, a menudo, antes de tal operación el analista debe
crear o idear la característica relevante para sus propósitos, es decir, indicadores.
Traducidos los indicadores a preguntas y combinadas estas últimas entre sí, se puede
llegar a un muy completo conocimiento del fenómeno estudiado.
La unidad de análisis tiene una o varias características, pero hay que hacer algo con la
unidad, para hacer que un individuo o varios individuos manifiesten sus actitudes, de
manera que puedan ser aplicadas sobre un conjunto de valores, esto es, sobre un
conjunto de respuestas.
Podemos dar ya una definición más precisa de la encuesta:
Los dos primeros aspectos permiten establecer una distinción muy importante de las
situaciones que debe enfrentar el analista de encuestas para construir su diseño:
- Encuesta efectuada a familias de Bogotá, Medellín y Cali, para determinar los efectos
de la inflación sobre el nivel de vida familiar.
-Encuesta a los obreros del Distrito para investigar en qué medida los obreros con mayor
educación, tienen mejores posibilidades de encontrar empleo.
Las diferencias fundamentales entre los dos diseños mencionados antes son, en
consecuencia, las siguientes:
Ahora se comprende por qué la investigación sobre "La situación de los campesinos
parceleros en Colombia", utilizó un diseño explicativo de encuesta:
Hay que tener en cuenta una limitación INHERENTE a la investigación por el método de
encuestas: se efectúa esencialmente en un CORTO PERIODO de tiempo.
Aunque la duración del trabajo d e campo pueda extenderse de una a varias semanas e
incluso a varios meses, el periodo relevante es aquel en el cual se reunieron los datos.
Inclusive, si se formulan preguntas que se refieren históricamente a grandes
extensiones de tiempo, los problemas relacionados con la distorsión de los recursos
limitan el procedimiento.
La encuesta de diseño explicativo también tiene la misma limitación. Pero existe un tipo
de diseño que pretende superar en algo ese problema:
Las compañías de datos o que diseñan encuestas hacen estudios de PANEL a los
partidos políticos, para determinar los efectos de la PROPAGANDA POLITICA sobre las
PREFERENCIAS POLITICAS de los votantes. Así, se puede estudiar (sí las elecciones
presidenciales fueran en Marzo de 1986) las preferencias políticas de un barrio obrero
en octubre/85, Diciembre/85 y Febrero/86.
A propósito del diseño de panel, existen diversos tipos de encuesta que se utilizan en
situaciones con propósitos explicativos diferentes:
Aquella que tiene como tarea fundamental verificar una hipótesis, es decir, una relación
entre una o más variables independientes y una variable dependiente.
54
Ejemplos:
- Encuesta a los obreros de una fabrica de concentrados para animales sobre los
efectos del cambio de iluminación en los sitios del trabajo, en el rendimiento per
cápita.
Es un tipo particular del diseño experimental, en el cual los factores que han sido
manejados o pueden ser manejados por un organismo de acción social, se estudian
desde el punto de vista de la ayuda que brindan para determinar un fenómeno. Aquí el
objetivo inmediato es la aplicación, modificación o cambio de algún estado de cosas,
tomando como base el conocimiento probado de los factores en juego.
Ejemplos:
- Encuesta para evaluar los efectos de una campaña contra la fiebre aftosa en 50
hatos lecheros de la sabana de Bogotá.
Ejemplos:
- Encuesta a los estudiantes de la UNAD sobre los efectos que producen los problemas
55
Su objetivo fundamental no es explicar una situación actual sino hacer una estimación de
algún estado de cosas futuro.
Ejemplos:
EJERCICIO DE AUTOEVALUACIÓN
Diga si los siguientes casos de encuesta son de carácter explicativo (E) o descriptivo
(D), colocando al frente (E) o (D) según el caso.
1. Encuesta del DANE para conocer los niveles de empleo, subempleo y desempleo en
Bogotá. _______
3. Encuesta realizada con una muestra nacional sobre los conocimientos y actitudes del
público con respecto al alcohol y los efectos que produce. _____
4. Encuesta para detectar como influye la edad de las personas de más de 40 años en
la consecución de empleo. _____
agropecuaria. _____
6. segunda encuesta del Ministerio de Salud Pública, con el fin de determinar los
resultados de su campaña publicitaria sobre el programa de vacunación contra la
hidrofobia. _____
RESPUESTAS AL EJERCICIO
1. DESCRIPTIVO
2. DESCRIPTIVO
3. DESCRIPTIVO
4. EXPLICATIVO
5. DESCRIPTIVO
6. EXPLICATIVO.
AUTOEVALUACIÓN
1. Se desea investigar las causas del ausentismo de las obreras de 20 fábricas textiles
de Medellín. La encuesta a utilizar será la encuesta de diagnóstico.
¿ Por qué
___________________________________________________________________
____________________________________________________________________
____________________________________________________________________
____________________________________________________________________
57
____________________________________________________________________
3.1. Investigación a nivel nacional para estudiar los conocimientos populares, las
creencias y las prácticas sobre la salud.
3.3. Estudio del Ministerio del Medio Ambiente sobre los resultados de sus campañas
adelantadas en la Serranía de la Macarena entre 1995 y 1998 contra la tala
indiscriminada de los bosques.
3.5. Estudio sobre las preferencias electorales de los habitantes de diez ciudades
colombianas para las elecciones de 1990.
3.6. Investigación adelantada en los CEAD de la UNAD para determinar los efectos de
los nuevos métodos de aprendizaje empleados en 1999.
CLAVE DE RESPUESTAS/AUTOEVALUACION N 4
4ª. Trabajo de campo (prueba previa y aplicación de la encuesta; y 5ª. Registro de los
datos de la encuesta!.
3. 3.1. (D)
3.2. (D)
58
Una vez que el investigador ha definido el problema a estudiar y decide que el método
apropiado para abordarlo es la encuesta, el primer paso que necesariamente tiene que
dar es preguntarse: ¿ qué tipo de DATOS o de información es la pertinente? ¿Qué es lo
que debo observar o evaluar a través de la encuesta?
Las soluciones que se dan a estas cuestiones serán la base para la construcción de las
preguntas de la encuesta, pues es a través de estos estímulos verbales como se logra
que un individuo o conjunto de individuos manifiesten lo que piensan, lo que saben, lo
que consumen, lo que compran o lo que hacen
Lo fundamental de una encuesta, reside en que se limita a agotar todas las posibilidades
inherentes a un lenguaje de variables, procurando construir y manejar datos
cuantitativos. El gran problema de la utilización de encuestas es el siguiente: ¿ Cómo
traducir a variables las ideas sobre un problema social determinado?
El problema es de precisión cuantitativa: de ahí que la elaboración de las preguntas
requiera de mucho cuidado y de la ayuda de los indicadores, que son justamente la guía
para la construcción de preguntas exactas.
Ahora bien, ¿ por qué es tan importante la correcta y precisa formulación de las
preguntas de una encuesta?
la respuesta. Por eso son muy importantes las preguntas exactas y precisas. La calidad
de la respuesta depende, en alto grado, de la calidad de la pregunta. Preguntas
incoherentes e imprecisas van a recibir respuestas del mismo tenor.
Por lo demás, y en otro plano, una pregunta fuerte, interesante, profunda, comunica a la
respuesta parte de su fuerza, de su interés y de su profundidad. Las preguntas que no
se pueden contestar son aquellas que, hablando en propiedad, no tienen arraigo en nada
ni encuentran punto de apoyo en el pensamiento de quien contesta, el cual, ante la
incoherencia e imprecisión de la pregunta, no sabe qué responder.
Muchas encuestas pierden parte de su eficacia o fracasan del todo, porque las preguntas
han sido elaboradas sin tener en cuenta:
¿Si usted piensa en los trabajadores de otros países latinoamericanos, cree usted que
se encuentren más o menos en las mismas condiciones que los trabajadores
colombianos o que, por el contrario, se encuentran en condiciones muy diferentes?
No sabe
proporcionan información más confiable y segura que otros métodos (la observación, la
entrevista)?.
Dicho de una manera más clara, el diseñador y analista de encuestas deberá afrontar
las siguientes cuestiones, para tratar de disminuir las posibilidades de error:
En que medida es posible inferir lo que una persona dice, lo que piensa? ¿En qué
medida es posible inferir la conducta de una persona a partir de sus expresiones
verbales?
Como se ve, estas preguntas son bastante serias y complejas, y quedaría la impresión
de que la encuesta es una técnica con grandes posibilidades de error. Sin embargo, la
confiabilidad en la recolección de la información aumenta precisamente con la técnica de
la encuesta, pues dispone de una serie de procedimientos y reglas que hacen que los
errores disminuyan, como se verá enseguida.
Una pregunta, en sentido estricto, es un ESTIMULO verbal (oral o escrito) que crea
imágenes mentales y hace partir procesos mentales en el interrogado, quien produce
una RESPUESTA (Galtung, J. 1968).
Respuestas no sistemáticas son aquellas como las de las entrevistas que se toman
textualmente de las respuestas, respetando todas las variaciones individuales posibles.
Esta es la encuesta en sentido estricto. Pero, como veremos más adelante, ese conjunto
de estímulos sistemáticos puede aplicarse sobre la base de respuestas no sistemáticas,
según las necesidades del contexto donde se realiza la encuesta.
Aquellas que proporcionan una información básica del conocimiento que el individuo
tiene acerca de características de sí mismo y de su medio. Por ejemplo, objetivas:
- ¿Cuál es su edad?
- ¿Cuántos años de educación ha cursado?
- ¿ Cuál es su ingreso?
- ¿ Cuál es su ocupación?
62
Cuando lo que se desea saber no son los hechos objetivos, sino lo que la gente cree u
opina sobre ciertos hechos, proporcionando así un retrato de sus creencias. Por ejemplo,
Aquellas destinadas a conocer las posibles reacciones emocionales de las personas. Por
ejemplo:
Aquellas que tienen como finalidad conocer la definición individual de una conducta
apropiada, en situaciones sociales diferentes. Por ejemplo:
Preguntas de Control.
Hay dos tipos diferentes. Aquellas en que la respuesta en sí es menos importante que su
significación profunda, considerada como indicio de un hecho u opinión que el individuo
interrogado no quiere revelar directamente. También, aquellas que se emplean para
comparar una respuesta con otra en el mismo cuestionario. Ejemplos de las primeras
son:
- ¿ Cuándo celebra una fiesta en su casa, ¿a quién invita? (para medir integración
social).
- ¿Considera usted que ver TV y oír radio es mejor pasatiempo que la lectura de libros
(para medir el grado de exposición y dependencia respecto a los medios de
comunicación).
63
Respecto al grado de libertad de las preguntas, estas pueden clasificarse en dos tipos
principales:
Aquellas en las cuales las respuestas de los interesados están limitadas a un número
determinado de alternativas. Por ejemplo:
- ¿ Tiene en su finca tractor propio?
Si_____
No____
40 ----
entre 20 y 39 ----
menos de 20 horas ----
Analfabeto ___
Primaria ___
Bachillerato Agrícola ___
Bachillerato Clásico ___
Normal ___
Técnica Agropecuaria ___
Técnica Industrial ___
Universitaria ___
Posgrado ___
Son las que están diseñadas para permitir una respuesta libre del interrogado, de tal
manera que no sea limitado por alternativas fijas. Ejemplos:
_______________________________________________________________________
_________________________________________________________________
____________________________________________________________________
64
____________________________________________________________________
¿ Quiénes son los personajes del mundo científico que usted más admira?
____________________________________________________________________
____________________________________________________________________
¿ Cuáles son los criterios para utilizar preguntas de ALTERNATIVA FIJA o preguntas de
alternativa ABIERTA?
No se trata solo de una limitación para estudiar procesos, sino que esta limitación puede
inducir a los investigadores a abandonar temas importantes para concentrarse en otros
en los que la encuesta si le resulta de utilidad.
66
El titulo conlleva a la siguiente crítica: con respecto a cierto tema, mediante la encuesta
se obtienen las respuestas de personas con muy distinto poder dentro de la sociedad.
Muy a menudo sucede que las personas con menos poder- que constituyen la mayoría-
expresan sus opiniones en cierta dirección, sin que ello traiga consecuencias sociales
que muestren la toma en consideración de esas opiniones.
El principio democrático, una persona igual a un voto y el principio del análisis estadístico
es habitualmente el mismo: una tarjeta igual a una cantidad, en que cada individuo tiene
una tarjeta perforada. En principio, esto puede ser valido en sistemas en que cada
individuo cuenta tanto o tan poco como otro, pero no en sistemas con grandes
diferencias, al grado que las características de la gente importan y “ luego”. La encuesta
debe imponer a la sociedad una estructura de opinión que carece de funciones
explicativas y predictivas y, por lo tanto, produce una imagen falsa (Galtung, 1966).
Como se menciono en los temas anteriores relacionados con esta técnica conviene tener
presente las numerosas posibilidades de error que pueden afectar la calidad de la
información que se recoja. Esos errores se clasifican en dos tipos principales: errores
propios de la muestra y errores debidos a otras fuentes estos últimos- que pueden ser
mas numerosos y de mayor efecto- están constituidos por los problemas no resueltos o
controlados que se presentan en todas las otras etapas de la encuesta (imperfecciones
del cuestionario, efectos del entrevistador, errores de la codificación, etc.
Capítulo 6. El Muestreo
El muestreo es una parte esencial del método científico para poder llevar a cabo la
investigación. En esta guía se pretende básicamente presentar de una manera muy
general concepto de muestreo y su relación con la metodología de la investigación. La
parte de procedimientos estadísticos se contempla en la guía de fase de proyecto de
investigación que hace referencia al análisis y caracterización de la investigación. El
estudiante debe haber cursado la asignatura estadística y / o diseño experimental para
una mejor labor en el análisis de los datos.
Se debe tener en cuenta que toda investigación seria requiere contar desde un principio
con la asesoría de un estadístico o profesional experimentado a fin de que los resultados
de la investigación sean representativos, válidos y confiables. También hay que tener
presente el tipo de investigación o estudio que se va a realizar, ya que cada uno de éstos
tiene una estrategia diferente para su tratamiento metodológico.
Existen diversas ventajas al trabajar con una muestra en lugar de hacerlo con todas las
unidades de la población:
Una población es cualquier grupo de elementos; los elementos son las unidades
68
4. El muestreo es solo parte del proceso de investigación, y aunque los resultados que
se obtienen son cuantificables, es necesario analizarlos e integrarlos en relación con el
contexto total de la investigación.
científico, las cuales son: la ley de los grandes números y el cálculo de probabilidades.
La calidad del marco es de esencial importancia para la calidad de una muestra. Hay
cuatro problemas básicos que deben tenerse en cuenta al utilizar un marco y que de
darse producen diversos tipos de sesgos:
70
3. Marco anticuado. Es posible que el marco no este actualizado, por lo cual puede
contener unidades que ya no pertenecen al universo de estudio ( por ejemplo,
obreros de una fabrica que ya no trabajan en ella), o bien no contener unidades
incorporadas después (nuevos obreros, etc.). Desde luego, un marco anticuado
puede, además, tener otros defectos de los ya indicados.
.
El marco muestral incluye todas las unidades muestrales contenidas en la población, es
decir, una lista de unidades muestrales, y éstas son colecciones distintas de elementos
de la población.
Para seleccionar una muestra, lo primero entonces es definir nuestra unidad de análisis-
personas, organizaciones, etc.-
El diseño de la muestra implica tres etapas:
b) establecer el marco muestral, es decir, una lista o registro de todos los miembros de la
población. Dentro de los registros que es posible usar, están los directorios telefónicos,
registros escolares, censos, etc.
TAMAÑO DE LA MUESTRA
Uno de los problemas más difíciles que enfrenta el investigador cuando trabaja con el
muestreo probabilistico es la determinación del tamaño de muestra, ya que el objetivo
primordial al determinarlo es tener información representativa, válida y confiable al
mínimo costo. para obtener más exactitud en la información es necesario seleccionar
una muestra mayor; sin embargo, el sólo hecho de contar con una muestra grande no
garantiza su representatividad.
p = .50 q = .50
Infinita. Cuando no se sabe el número exacto de unidades del que esta compuesta la
población.
Es necesario seleccionar una muestra mayor; sin embargo, el sólo hecho de contar con
una muestra grande no garantiza su representatividad.
Para cada tipo de población se utiliza una fórmula distinta. Para poblaciones infinitas la
formula es:
n = pq / e2
n = Zº pq N
Neº + Zº pq
En donde:
Z = Nivel de confianza
N = Universo
p = probabilidad a favor
q= probabilidad en contra
e = error de estimación
n = tamaño de la muestra
para calcular el error de estimación con un nivel de confianza del 95% 0 2 (, se aplica la
73
siguiente fórmula:
e = (3.84 pq)
n
En donde:
e = error de estimación
n = número de elementos
p = probabilidad a favor
q = probabilidad en contra
Ejemplo:
Supóngase que el objetivo de nuestra investigación es determinar el número de peces
que debo muestrear de un estanque con 1200 peces, para analizar su contenido
intestinal después que han sido sometidos a una dieta balanceada suplementada con
una enzima. supongamos un nivel de confianza del (95% -- 5%), dadas las
características de la población se utilizará el método probabilístico y el muestreo
aleatorio simple.
n = Zº pq N
Neº +Zº pq
Según los conceptos básicos expuestos anteriormente, el mayor problema que se debe
resolver al seleccionar una muestra consiste en obtener estimaciones de los valores en
el universo, con la mayor precisión posible, dentro de cierto costo. En otras palabras, se
trata de obtener una muestra representativa de ese universo.
Muestreo Probabilistico
b) establecer el marco muestral, es decir, una lista o registro de todos los miembros de la
población. Dentro de los registros que es posible usar, están los directorios telefónicos,
registros escolares, censos, etc.
Tanto para este tipo de muestra como para los otros señalados, la fracción de muestreo,
que relaciona el tamaño de la muestra y el tamaño de su universo, indica esa
probabilidad de inclusión: dad seleccionada debe tener una cifra de enumeración
comprendida entre 1 y el número asignado a la última unidad del universo.
Estas tablas de números están construidas de tal manera que tanto los dígitos
individuales que la componen como los pares u otros conjuntos de números aparezcan
en ellas con igual frecuencia. De ahí que su uso permita que cada una de las unidades
numeradas en el marco tenga igual probabilidad de inclusión en la muestra.
Como ejemplo presentamos un extracto de una de esas tablas, elaborada por Kendall
y Smith.1
64 75 58 38 85 84 12 22 59 20
10 30 25 22 89 77 43 63 44 30
71 01 79 84 95 51 30 85 03 74
60 01 25 56 05 88 41 03 48 79
37 33 09 46 56 49 16 14 28 02
17 69 61 56 55 95 04 59 59 47
38 11 24 90 67 07 34 82 33 28
66 59 10 28 87 53 76 56 91 49
79 65 59 01 69 78 80 00 36 66
48 27 45 47 55 44 55 36 50 90
Por ejemplo, si tenemos una población de 1000 personas que trabajan en una
fábrica y queremos sacar una muestra de 200, enumeramos a esas personas así:
0001, 0002, 0003... 0456... 0818... 0965... 1000. Al leer la tabla horizontalmente (se
puede leer verticalmente, en diagonal, etc.), si usamos combinaciones de cuatro
76
p= ΣXi
n
En la ultima fórmula, Xi = 1 cuando el elemento en la muestra tiene la característica
en estudio, y cero si no la tiene.
Como la muestra aleatoria simple permite que cada subclase de la muestra sea
una muestra probabilística de la subclase correspondiente en la población, formula
anteriores también se aplican para hacer estimaciones de esas subclases (por
ejemplo, la proporción del hombre de origen rural).
La fórmula de los errores estándar son las mismas que dimos en el capítulo anterior
a propósito de la presentación de las ideas básicas de la teoría de la muestra, sin el
factor de corrección para poblaciones finitas.
Muestreo sistemático
77
Este tipo de muestreo tiene desventajas: En primer lugar, el hecho que los
individuos seleccionados dependerán del tamaño del intervalo, así como del
individuo seleccionado con anterioridad. En segundo lugar, el orden que se ha
mantenido al elaborar las listas: orden alfabético, orden de llegada, etc. Lo único
que podemos hacer para solucionar este problema es realizar nosotros mismos
una lista al azar; es decir, sin seguir un orden preestablecido. Así contaríamos con
un muestreo cuasi-al- azar.
Muestreo Estratificado
Implica la clasificación previa de todos los elementos o las unidades que componen
la población de cierto número de estratos. La selección se efectúa en cada uno de
ellos en forma aleatoria o sistemática
Muchas veces resulta sencillo obtener una lista de todas las personas que forman
parte de la población que estamos estudiando; por ejemplo, los miembros de un
club, los alumnos de una escuela, etc. Sin embargo, en algunos estudios este
procedimiento no es tan sencillo, ya que no hay accesibilidad a todo tipo de listas o
no existen listas que cubran a toda la población en cuestión, por lo que debemos
recurrir a otros tipos de muestreo. Uno de ellos es el muestreo por estratos.
un muestreo estratificado resultaría mucho mas útil porque seria mas fácil
encontrar registros por colonias, delegaciones, etc.; es decir, por estratos. Así, la
ciudad se dividiría en colonias que serian los estratos, de los cuales se haría un
muestreo de población.
Este muestreo, aunque es muy valioso desde el punto de vista practico, implica un
mayor grado de error que el muestreo aleatorio simple, puesto que en cada paso
que se realice para determinar los estratos y para obtener la muestra de los
mismos, se pueden cometer errores.
Por otro lado tiene algunas ventajas, como el hecho de que a priori podamos
pensar que los elementos que forman un estrato serán mas homogéneos entre si
que los que conforman la población en general; es decir, que los niños de primer
año de primaria se parecerán mas entre si que si los comparamos con la población
de toda la escuela primaria.
Otra ventaja consiste en que el margen de error se puede controlar debido a que
se tiene un gran numero de estratos, aunque también se cuenta con un menor
numero d elementos para muestrear dentro de cada estrato. En una ciudad, como
ya lo ejemplificamos, los diversos estratos estarían formados por delegaciones,
colonias, manzanas, casas y, finalmente, personas. Así contaremos con un gran
numero d estratos, pero con un menor numero de elementos, lo cual facilita la
concreción de la muestra.
79
√ P1 (1- P1)
Y esta experimenta solo pequeños cambios para valores P1 que están entre 0 – 1
y 0 – 9.
6. Si se aplican distintas fracciones de muestreo, resulta conveniente evitar
fracciones complicadas (2/3, 5/7, etc.).
Esta última puede llegar a ser igual a 1. Así también se elimina ese estrato como
fuente de error.
Existen algunos métodos que pueden utilizarse para establecer el peso de los
elementos cuando se trata de muestras desproporcionadas. La forma mas sencilla
de hacerlo consiste en analizar los datos, y dependiendo del peso que se le de,
puede repetirse el dato las veces que se determine por el peso asignado. Para
ejemplificar esto podemos volver al caso anterior, en el cual por cada miembro de
población urbana hay 4 de población rural. Se podrían entonces repetir cuatro
veces los datos de población urbana y solo una vez los datos de población rural. Si
contamos con una computadora, podría elaborarse un programa especial que
determinara el peso de cada dato que obtengamos. Este tipo de muestreo es
bastante complicado, por lo que si el estudiante decide llevarlo a cabo debe
consultar bibliografía mas especializada al respecto.
MUESTREO NO PROBABILÍSTICO
Muestreo propositivo
Para presentar este diseño, supóngase que deseamos tomar una muestra
estratificada proporcional de 200 estudiantes de un colegio de 1000 alumnos. Para
esto podemos dividir los estudiantes en tres estratos, utilizando como criterio de
estratificación el grado o curso.
Determinación del
Estratos en Tamaño de los estratos Estratos en
la población muestrales la muestra
1000 200
Una vez determinado el número de casos que se tomaron en cada estrato, aquellos
se seleccionan mediante el procedimiento indicado para tomar una muestra
aleatoria simple o para tomar una muestra sistemática.
Debido al hecho de usar una misma fracción de muestreo en todos los estratos, la
muestra estratificada proporcional es una muestra autoponderada, lo cual quiere
decir que al calcular medios aritméticos, proporciones, etc., a nivel de toda la
muestra, se suman los valores pertinentes en todos los estratos, y se utilizan las
mismas formulas que rigen la muestra aleatoria simple.
La formulas para los errores estándar de los medios aritméticos y de las
proporciones son las siguientes:
Fórmula en la cual:
/ = Fracción de muestreo.
sh = Desviación estándar de la variable en el estrato h-iésimo.
nh — Tamaño del estrato h-iésimo.
n = Tamaño total de la muestra.
E = Suma para todos los estratos.
83
Ejemplo de cálculo
Una población de 5000 personas se estratificó en tres estratos de 3000, 1200 y
800 personas, de los cuales se tomaron muestras con fracciones de muestreo de:
1/10, 1/5, ¼,
250
1000
Es posible demostrar que aun con pequeños valores (poca semejanza entre los
elementos del conglomerado) el efecto en el tamaño de la varianza es considerable. Por
ejemplo, si rho tuviera un valor tan bajo como O o 1 y el tamaño de los conglomerados
fuera de 25 elementos, la varianza de la muestra por conglomerados (error de muestreo)
sería 2.5 veces mayor que la que tendría una muestra aleatoria simple de igual tamaño.
La situación señalada permite dar dos importantes sugerencias para tomar muestras por
conglomerados. En primer lugar, a diferencia de la muestra estratificada, donde se trata
de formar estratos lo más homogéneos posible, aquí debe buscarse la situación opuesta,
es decir, la heterogeneidad. Por otro lado, se tendrá una reducción de la varianza si se
toma un número mayor que menor de conglomerados. Dentro de este propósito, un
86
Para aplicar este diseño se requiere conocer, desde un principio, el número de unidades
que componen cada conglomerado (por ejemplo, el número de viviendas que tiene cada
manzana de una localidad), información no siempre disponible ni actualizada. De ahí
que, en la práctica, para superar esa situación se modifique este diseño de tal modo que
la selección se efectúe con probabilidades proporcionales a las medidas de tamaño y no
a los tamaños de los conglomerados. Así, si una manzana de determinada población
tiene 30 viviendas y otra 63, entonces la primera recibe un dígito (por ejemplo, el número
1) y la segunda dos dígitos (por ejemplo, los números 2 y 3) como probabilidad de
selección. Es fácil advertir que si se utiliza una tabla de números aleatorios para
seleccionar las manzanas que compondrán la muestra, la manzana con 63 viviendas
tiene una doble probabilidad de selección (de aparecer en la tabla) respecto de la
manzana con 30 viviendas, que sólo tiene un dígito de selección.
87
Los diseños expuestos hasta aquí corresponden a tipos probabilísticos en los cuales
todos y cada uno de los elementos de la población elegida como objeto empírico de la
investigación tiene una probabilidad conocida distinta de mentos elegidos por el
entrevistador de acuerdo con ciertas instrucciones, pero sin que se determine al azar la
conformación final de la muestra.
Las cuotas de personas por entrevistar se definen con uno o más atributos o controles
elegidos entre variables independientes relevantes a los objetivos del estudio, como
pueden ser el sexo, la edad, el nivel de instrucción, la ocupación, etc. El tamaño relativo
de estas cuotas se determina con datos externos aplicables al universo de estudio tales
como informaciones censales, resultados confiables de otros estudios, etc. Así, según el
censo, se podrá decir que deben ser entrevistados un número igual de hombres que de
mujeres, que en ambos grupos deberá haber 3 % de personas con educación
universitaria, etc., además de otras especificaciones o controles.
Los diseños expuestos hasta aquí corresponden a tipos probabilísticos en los cuales
todos y cada uno de los elementos de la población elegida como objeto empírico de la
investigación tiene una probabilidad conocida distinta de elementos elegidos por el
entrevistador de acuerdo con ciertas instrucciones, pero sin que se determine al azar la
conformación final de la muestra.
Las cuotas de personas por entrevistar se definen con uno o más atributos o controles
elegidos entre variables independientes relevantes a los objetivos del estudio, como
pueden ser el sexo, la edad, el nivel de instrucción, la ocupación, etc. El tamaño relativo
de estas cuotas se determina con datos externos aplicables al universo de estudio tales
como informaciones censales, resultados confiables de otros estudios, etc. Así, según el
censo, se podrá decir que deben ser entrevistados un número igual de hombres que de
mujeres, que en ambos grupos deberá haber 3 % de personas con educación
universitaria, etc., además de otras especificaciones o controles.
88
UNIDAD III
DISEÑOS EXPERIMENTALES DE INVESTIGACION:
EXPERIMENTOS “VERDADEROS” PREXPERIMENTOS Y CUASIEXPERIMENTOS
Introducción:
Las investigaciones tienen como objetivo comprobar que una determinada variable
independiente es la que provoca cambios concomitantes en la variable dependiente del caso,
los cuales se demostrarán con base en los cambios de su variable independiente. En otras
palabras, deben demostrar que la variable independiente explica los cambios de la variable
dependiente. Por otro lado, deben estar en condiciones de verificar que los resultados
obtenidos en una muestra pueden ser generalizados a la población de la cual ella procede.
Tales exigencias valen para las investigaciones experimentales propiamente Dichas y las
cuasi experimentales.
Objetivos :
Comprender las diferencias entre investigación experimental y la investigación no
experimental
Analizar los diferentes diseños experimentales y sus grados de validez.
Comprender los conceptos de validez interna y validez externa
Realizar experimentos validos
Evaluar experimentos que hayan sido realizados.
.
CAPITULO 7 Diseños Experimentales de Investigación
Aspectos generales:
La experimentación consiste en el estudio de un fenómeno, reproducido generalmente en
un laboratorio, en las condiciones particulares de estudio que interesan, eliminando o
introduciendo aquellas variables que puedan influir en él. Se entiende por variable todo
aquello que pueda causar cambios en los resultados de un experimento y se distingue entre
variable independiente dependiente y controlada
La propiedad particular de la definición es 'controlada'. La variable independiente es un
evento que se incorpora al experimento y se quiere ver cómo influye en la variable
dependiente, que no es sometida al evento y todo con relación a un ítem que se está
investigando. Ambas variables o grupos se llaman experimentales y de control. Se mide la
característica antes y después del evento. Un estudio longitudinal con un panel, que es un
grupo de personas representativas del hábitat y de dimensión muestral adecuada, a las
cuales se le aplica un cuestionario en espacios de tiempo continuados, es un experimento
controlado por las variables que se estudian: cambios en los hábitos de compra, evolución
de los valores humanos, influencias de un cambio social, impacto de la información, etc.
89
En un experimento concreto se tiene la hipótesis de que las personas que son bien
informadas sobre los motivos de la inmigración son más propensas a no tener prejuicios,
como discriminación hacia los inmigrantes o xenofobia. A un grupo se le expone información
y al otro no, y después se mide el grado de xenofobia, antes y después. La técnica, en
general, es para estudios donde intervengan variables que tengan propiedades de
retroalimentación y considerada ésta como axioma más que hipótesis. Éste es el efecto
observable de que los hechos sociales 'aprenden' en el espacio temporal e incorporan lo
aprendido, con lo que sería un hecho social nuevo.
Sí que sería aplicar estas teorías a los hechos sociales actuales pero incluso a hechos
pasados, que en su percepción éstos pueden ser modificados por los historiadores,
manejando otras fuentes y con el cambio de su misma imaginación personal. Por ejemplo, 'la
leyenda negra de la inquisición' debería ser preescrita y 'cambiada', como así mismo el
discurso de la historia actual es experimentable: los cambios en una comunidad a la que se
le van introduciendo nuevos requerimientos con nuevos personajes, por ejemplo, y
observando un hecho social concomitante, etc.
El experimento y sus contextos
La investigación puede definirse en forma amplia como el estudio sistemático de un sujeto con el
fin de descubrir nuevos hechos o principios. El procedimiento para la investigación se conoce
generalmente como método científico, el cual, aunque difícil de definir con precisión,
usualmente contiene los siguientes elementos:
1. Hechos observados. Se dice que la ciencia empieza con la observación, a través de
la cual se establecen diversos factores.
La diferencia esencial entre ambos contextos es la “realidad” con que los experimentos se
llevan a cabo, el grado en que el ambiente es natural para los sujetos. Por ejemplo, si
creamos salas para ver televisión y las acondicionamos de tal modo que se controle el ruido
exterior, la temperatura y otros distractores. Además, incluimos equipo de filiación oculto. Y
llevamos—por ejemplo—a los niños para que vean programas de televisión previamente
grabados, estamos realizando un experimento de laboratorio (situación creada
“artificialmente”). En cambio, si el experimento se lleva a cabo en el ambiente natural de los
sujetos (su escuela, fábrica donde trabajan, hogar etc.), se trata de un experimento de
campo. Pero en ambos casos se lleva a cabo un experimento, siempre y cuando se
manipule intencionalmente una variable independiente.
Los experimentos de laboratorio generalmente logran un control más riguroso que los
experimentos de campo (Festinger, 1975; Kerlinger 1975), pero estos últimos suelen tener
mayor validez externa. Ambos tipos de experimentos son deseables.
Algunos han acusado a los experimentos de laboratorio de “artificialidad”, de tener poca validez
externa, pero como argumenta Kerlinger (1975): los objetivos primarios de un experimento
verdadero son descubrir relaciones (efectos) en condiciones “puras” y no contaminadas,
probar predicciones de teorías y refinar teorías e hipótesis. Y comenta: “Realmente, es difícil
saber si la artificialidad es un debilidad o simplemente una característica neutral de las
situaciones experimentales de laboratorio. Cuando se prepara deliberadamente una
situación de investigación para excluir las muchas distracciones del medio, es quizás lógico
designar a la situación con un término que exprese parte del resultado que se busca. La
critica de la artificialidad proviene de los experimentadores, quienes saben que las
situaciones experimentales son artificiales; proviene de individuos que carecen de una
comprensión de las metas de los experimentos de laboratorio”.
Festinger (1975) señala (al responder a la critica de “artificialidad”): “Esta critica requiere ser
evaluada, pues probablemente sea consecuencia de una equivocada interpretación de los
fines del experimento de laboratorio. Un experimento de laboratorio no necesita, y no debe,
constituir un intento de duplicar una situación de la vida real. Si se quisiera estudiar algo en
91
una situación de este tipo, seria bastante tonto tomarse el trabajo de organizar un
experimento de laboratorio para reproducir dicha situación. ¿Por qué no estudiarla
directamente? El experimento de laboratorio debe tratar de crear una situación en la cual se
vea claramente como operan las variables en situaciones específicamente identificadas y
definidas. El hecho de que pueda encontrarse o no tal situación en la vida real no tiene
importancia. Evidentemente, nunca puede encontrase en la vida real la situación de la
mayor parte de los experimentos de laboratorio. No obstante, en el laboratorio podemos
determinar con exactitud que medida de una variable determinada afecta la conducta o
actitudes en condiciones especiales o “puras”.
Definiciones:
92
. ¿Qué es un Experimento?
Existen diferentes definiciones de la palabra experimento. Para Steel y Torrie (1990) un
experimento es “una búsqueda planeada para obtener nuevos conocimientos o para
confirmar o no resultados de experimentos previos, lo que ayuda a tomar decisiones
administrativas, tales como la recomendación de una variedad, un procedimiento o un
pesticida”.
Para (Padrón 1996) “El experimento es el conjunto de reglas usadas para obtener una
muestra de la población y al concluir el ensayo obtener información acerca de la
población”
4. Rango de validez de las conclusiones. Este deberá ser tan amplio como sea
posible. Los experimentos que contribuyen a aumentar el rango de validez del
experimento son los experimentos replicados y los experimentos con estructuras
factoriales.
.5. Calculo del grado de incertidumbre. En todo experimento existe algún grado de
incertidumbre en cuanto a la validación de las conclusiones. El experimento deberá ser
concebido de modo que sea posible cal calcular la probabilidad de obtener resultados
observados debidos únicamente al azar.
Pasos de un experimento
CONOCIMIENTO
DISPONIBLE
OBSERVACION
94
2. Determinación de los objetivos. Estos pueden ser la forma en que las preguntas
serán contestadas, la hipótesis que se va a comprobar o los efectos que se deben
estimar. Los objetivos deberán redactarse en términos precisos
dado este paso, el experimentador esta capacitado para planear mas efectivamente sus
procedimientos experimentales. Cuando hay mas de un objetivo, debemos ordenarlos e
acuerdo a su importancia, como si tuvieran un lugar en el diseño experimental. Al
establecer los objetivos debemos evitar la vaguedad o exceso de ambigüedad de los
planteamientos.
8. Control de los efectos entre unidades adyacentes. Esto suele llevarse a cabo a
través de la utilización de callejones de demarcación y mediante la selección aleatoria de
96
tratamientos.
9. Consideración acerca de los datos que se van a recabar. Los datos recabados
deberán evaluar apropiadamente los efectos del tratamiento, de acuerdo con los
objetivos del experimento; además, se deberá brindar atención a la recolección de datos
que explica el desempeño de los tratamientos.
10. esbozo del análisis estadístico y del resumen de los resultados. En el análisis de
varianza, anótense las fuentes de variación y los grados de libertad asociados.
Inclúyanse las diversas pruebas F que se planearon. Considérense como pueden
utilizarse los resultados y prepárense posibles tablas de resumen o gráficas que
muestren los efectos esperados. Compárense estos resultados esperados con los
objetivos del experimento, a fin de verificar si el mismo suministrará las respuestas
buscadas.
A estas alturas es conveniente que todos estos puntos sean revisados por un
estadístico, así como por uno o más colegas. La revisión realizada por otros puede
revelar aspectos que pasaron inadvertidos. Ciertas alteraciones o ajustes pueden
enriquecer grandemente el experimento, así como posibilitar un aprovechamiento mas
completo del trabajo que se va a realizar.
12. Análisis de los datos e interpretación de los resultados. Todos los datos deberán
analizarse cuantitativa y cualitativamente tal como fueron planeados; los resultados sé
deberán interpretar a la luz de las condiciones experimentales; se comprobara la
hipótesis y deberá definirse la relación de los resultados con los hechos previamente
establecidos. Recuérdese que la estadística no demuestra nada y que existe siempre
una probabilidad de que las conclusiones puedan ser erróneas. Por tanto, considérense
las consecuencias de tomar una decisión incorrecta. Evítese legar a una conclusión, aun
cuando esta sea estadísticamente significativa, si la misma aparece fuera de lugar con
respecto a hechos previamente establecidos. En este caso debe investigarse
exhaustivamente el asunto.
3. Cooperación. Búsquese ayuda cuando existan dudas acerca del diseño, la ejecución o
el análisis de un experimento. No se espera que seamos expertos estadísticos, pero
debemos saber lo suficiente para entender los importantes principios de la
experimentación científica, para estar alertas a los engaños más comunes y solicitar
cooperación cuando la necesitemos
Variable Independiente:
Es la que se considera como supuesta causa en una relación entre variables, es la
condición antecedente; y al efecto provocado por dicha causa se le denomina variable
dependiente (consecuente).
Como se menciono en la hipótesis, el investigador puede considerar dentro de su estudio
dos o más variables independientes.
Presencia-ausencia
Implica que un grupo se expone a la presencia de la variable independiente y el otro no
. Luego los dos grupos son comparados para ver si el grupo que se expuso a la variable
independiente difiere del grupo no expuesto a esta. El grupo que se expone a la
presencia de la variable independiente se le conoce como “grupo experimental” y al
grupo en el cual esta ausente dicha variable se le denomina “grupo de control”. Aunque
en realidad ambos grupos participan en el. Experimento. A la presencia de la variable
independiente muy frecuentemente se le llama “tratamiento experimental” o “estimulo
experimental”. Es decir, el grupo experimental recibe el tratamiento o estimulo
98
En general, puede afirmarse en un experimento que, si en ambos grupos todo fue “igual”
menos la exposición a la variable independiente, es muy razonable pensar que las
diferencias entre los grupos se deban a la presencia-ausencia de la variable
independiente.
(y se tienen tres tipos, esto es, tres grupos), debemos definir muy específicamente y con
lujo de detalles en que va a consistir cada psicoterapia.
Variable Dependiente:
Por usarte, la variable dependiente no se manipula, sino que se mide para ver el efecto
de la manipulación de la variable independiente sobre ella. Esto podría esquematizarse
de la siguiente manera:
.
Las letras” a, b… “indicarían distintos niveles de variación de la independiente.
VALIDEZ EXTERNA
101
Un experimento debe buscar ante todo validez interna, es decir, confianza en los
resultados. Si no se logra, no hay experimento verdadero. Lo primero es eliminar las
fuentes que atentan contra dicha validez. Pero la validez interna es solo una parte de la
validez de un experimento, en adición a ella es muy deseable que el experimento tenga
validez externa.
La validez externa tiene que ver con que tan generalizables son los resultados de un
experimento a situaciones no experimentales y a otros sujetos o poblaciones. Por
ejemplo, si hacemos un experimento con métodos de aprendizaje y los resultados
pueden generalizarse a la enseñanza cotidiana en las escuelas de educación básica, el
experimento tendrá validez externa.
variable independiente. Los efectos de la primera pueden persistir y mezclarse con los
efectos que pueda producir una segunda variable, sin que sea posible separar
claramente sus efectos
VALIDEZ INTERNA
Es una medida de la precisión de un experimento, es decir, si la manipulación de la/s
variable/s independiente/s ocasionó la variación en la variable dependiente o bien si hay
variables extrañas que están afectando la relación que se pretende verificar. Las
variables extrañas que pueden afectar la validez interna de un experimento son:
Equivalencia inicial
Implica que los grupos son similares entre si mismos al momento de iniciarse el
experimento. Por ejemplo, si el experimento es sobre métodos educativos, los grupos
103
Además, durante el experimento los grupo deben mantenerse similares en los aspectos
que rodean el tratamiento experimental excepto – como ya se ha mencionado – en la
manipulación de la variable independiente: mismas instrucciones (salvo variaciones
parte de esa manipulación), personas con las que tratan los sujetos, maneras de
recibirlos, lugares con características semejantes, (iguales objetos en las habitaciones o
cuartos, clima, ventilación, sonido ambiental, etcétera), misma duración del experimento,
mismo momento , y en fin todo lo que sea parte del experimento
Entre mayor sea la equivalencia durante el desarrollo de este, mayor control y
posibilidad de que si encontramos o no efectos podamos estar seguros de que
verdaderamente los hubo o no.
Existe un método ampliamente difundido para alcanzar dicha equivalencia que se conoce
como “asignación aleatoria o al azar d e los sujetos a los grupos del experimento. La
asignación aleatoria o al azar nos asegura probabilisticamente que dos o mas grupos son
equivalentes entre si. Es un técnica de control que tiene como propósito proveer al
investigador la seguridad de que variables extrañas, conocidas o desconocidas, no
afectaran sistemáticamente los resultados del Studio (Christensen, 1981). Esta técnica
debida a Sir Ronald Fisher en los años cuarenta ha demostrado durante años y pruebas
que funciona para ser equivalentes a grupos.
El primer paso es elegir a esa variable de acuerdo con algún criterio teórico.
104
El segundo paso consiste en obtener una medición de la variable elegida para emparejar
a los grupos.
Como método para hacer equivalentes a los grupos es superior (mas preciso y
confiable). El emparejamiento no es un sustituto de esta técnica. El emparejamiento no
puede suprimir o eliminar el posible efecto de la variable apareada, pero nonos
garantiza que o otras variables (no apareadas) no vayan a afectar los resultados del
experimento.
Son ocho las principales variables externas que pueden atentar contra la estructura
interna del diseño, alterando su validez, se encuentran a continuación:
Historia. Los acontecimientos que pueden haber ocurrido entre la primera y la segunda
medición de la variable dependiente y que pueden actuar en conjunto con los cambios
de la variable independiente.
1. Historia. Son los acontecimientos ambientales, climatológicos o físicos que se
presentan desde que empezamos hasta que acabamos una investigación. Entre
estas figuran temblores, fallas de luz, calor excesivo, falta de espacio, etc. Esta
situación puede controlarse introduciendo un grupo control al que no se le da ningún
tratamiento experimental y un grupo control al que si se le introduce de manera tal
que se puedan comparar ambos grupos.
2. Maduración. Procesos biológicos y psicológicos aparecen en las personas por el mero
paso del tiempo y que pueden interferir el efecto de la variable independiente.
3. Administración de las pruebas. Influencia de la administración de una prueba en los
resultados de la aplicación de la misma prueba o de otra en un momento posterior.
4. Instrumentación. Cambios en los instrumentos de medición o en los observadores o
calificadores que pueden producir cambios en los resultados finales.
5. Regresión estadística. Es el efecto que opera cuando se han seleccionado los grupos de
estudio con base en sus puntajes extremos.
6. Selección diferencial de los participantes. Factor que puede actuar cuando los grupos a
comparar no son equivalentes en las características de sus participantes.
El diseño ofrece una ventaja sobre el interior, hay un punto de referencia inicial para ver
qué nivel tenía el grupo en la(s) variable (s) dependientes antes del estímulo. Es decir,
hay un seguimiento del grupo. Sin embargo, el diseño no resulta conveniente para fines
científicos: no hay manipulación ni grupo de comparación y además varias fuentes de
invalidación interna pueden actuar. Por ejemplo, la historia. Entre O1 y O2 pueden
ocurrir muchos otros acontecimientos capaces de generar cambios, además del
tratamiento experimental (Campbell y Stanley, 1966), y entre mayor sea el lapso entre
ambas mediciones mayor será también la posibilidad de que actué la historia.
Asimismo, entre O1 y O2 puede presentarse la maduración (fatiga, aburrimiento, etc.).
Por otro lado, se corre el riesgo de elegir a un grupo atípico o que en el momento del
experimento no se encuentre en su estado normal. Puede presentarse la regresión
106
Los experimentos “verdaderos” son aquellos que reúnen dos requisitos para lograr el
control y la validez interna: 1) grupos de comparación (manipulación de la variable
independiente o de varias independientes) y 2) equivalencia de los grupos.
Los diseños “auténticamente” experimentales pueden abarcar una o mas variables
independientes y una o mas dependientes. Asimismo, pueden utilizar prepruebas y
pospruebas para analizar la evolución de los grupos antes y después del tratamiento
experimental. Desde luego, no todos los diseños experimentales utilizan prepruebas,
pero la posprueba es necesaria para determinar los efectos d e las condiciones
experimentales (Wiersma, 1986)
107
Este diseño incluye dos grupos, uno recibe el tratamiento experimental y el otro no(grupo
de control). Es decir, la manipulación de la variable independiente alcanza sólo dos
niveles: presencia y ausencia. Los sujetos son asignados a los grupos de manera
aleatoria. Después de que concluye el periodo experimental, a ambos grupos se les
administra una medición sobre la variable dependiente en estudio. El diseño puede
diagramarse de la siguiente manera:
R G1 X O1
R G2 -- O2
En este diseño, la única diferencia entre los grupos debe ser la presencia-ausencia de
la variable independiente. Estos son inicialmente equivalentes y para asegurar que
durante el experimento continúen siendo equivalentes _ salvo por la o ausencia de
dicha manipulación – el experimentador debe observar que no ocurra algo que afecte
solo a un grupo. Debe recordarse que al la hora que se efectúa el experimento debe
ser la misma para ambos grupos (o ir mezclando a un sujeto de un grupo con un sujeto
del otro grupo - cuando la participación es individual - ), lo mismo que en las
condiciones ambientales y demás factores que fueron ventilados al hablar de
equivalencia de grupos
La prueba estadística que suele utilizarse en este diseño para comparar a los grupos es
la prueba "t" para grupos correlacionados, al nivel de medición por intervalos.
El diseño con posprueba únicamente y grupo de control puede extenderse para incluir
más de dos grupos, se usan dos o más tratamientos experimentales, además del grupo
de control.
En el diseño con posprueba únicamente y grupo de control, así como en sus posibles
variaciones y extensiones, se logra controlar todas las fuentes de invalidación interna.
El diseño controla todas las fuentes de invalidación interna por las mismas razones que
se argumentaron en el diseño anterior (diseño con posprueba únicamente y grupo de
control). Lo que influye en un grupo deberá influir de la misma manera en el otro, para
mantener la equivalencia de los grupos.
El diseño de Solomon combina el diseño de dos grupos con sólo medición "después" y el
diseño clásico de dos grupos con mediciones "antes" y "después". En esta forma se
controlan los efectos de selección y de mortalidad (por la asignación al azar); los de
maduración e historia (por el uso de grupos de control) y el efecto de interacción de la
prueba pues como no existe medición "antes" en algunos grupos, ésta no puede,
lógicamente, actuar sobre los resultados "después".Los pasos del diseño son los que
siguen:
b)En el primer grupo se hace una medición "antes" de la variable dependiente, luego se
aplica el tratamiento experimental y posteriormente se hace una medición "después"
de la variable dependiente.
Todos los grupos se forman aleatoriamente. Los grupos 1 y 3 son experimentales, los
grupos 2 y 4, de control. La principal ventaja del diseño consiste en el control del efecto
109
En la medida en que haya una mayor semejanza entre los dos grupos del estudio
"podemos considerar que el diseño controla los principales efectos de la historia, la
maduración, la administración de tests y la instrumentación..." (Campbell y
Stanley,1966) . Diseño con preprueba-posprueba y grupo de control
El diseño controla todas las fuentes de invalidación interna por las mismas razones que
se argumentaron en el diseño anterior (diseño con posprueba únicamente y grupo de
control). Lo que influye en un grupo deberá influir de la misma manera en el otro, para
mantener la equivalencia de los grupos.
El análisis de los datos puede hacerse de manera directa con las diferencias
encontradas entre las mediciones "antes" y "después" en ambos grupos. Un tratamiento
más riguroso se obtendría con el análisis de la varianza que implica supuestos como el
de homogeneidad de regresión, "menos posibles aquí que en diseño experimental
clásico"
Ejemplos
R G1 X1 O1 O2 O3
R G2 X2 O4 O5 O6
R G3 X3 O7 O8 O9
R G4 - O10 O11 O12
R G1 O1 X1 O2 O3 O4
R G2 O5 X2 O6 O7 O8
R G3 O9 -- O10 O11 O12
RG1 O1 X O2 O3
RG2 O4 -- O5 O6
RG3 -- X O7 O8
111
RG4 -- -- O9 O10 __
Los sujetos son asignados al azar a los distintos grupos y a cada grupo se le administra
varias veces el tratamiento experimental que le corresponde.
Ejemplo
R G1 O1 X1 O2 X1 O3
R G2 O4 -- O5 -- O6
A. varios Grupos
B. Un solo grupo
4. diseños factoriales
Los diseños factoriales manipulan dos o mas variables independientes e incluyen dos o
mas niveles de presencia en cada una de las variables independientes. Han sido
sumamente utilizados en la investigación del comportamiento. La construcción básica de
un diseño factorial consiste en que todos los niveles de cada variable independiente
son tomados en combinación con todos los niveles d e las otras variables
independientes.
Esta temática también se trata en la unidad V sobre análisis de la información.
Factorial 2X 2
El diseño factorial mas simple manipula (hace variar) dos variables, cada una con dos
niveles. A este diseño se le conoce como “diseño factorial 2X 2”, en donde el número de
dígitos indica el numero de variables independientes:
112
2 X 2
Un digito Otro digito
En este capítulo vamos a seguir de cerca los clásicos libro de Campbell y Stanley
(1966) y Cook y Campbell (1979), así como los trabajos de Gómez Jacinto y
Hombrados (1988), Cook, Campbell y Perachio (1990) y Ato (1995). Aquí describiremos
muy someramente aquellos diseños que se consideran mas relevantes
Las investigaciones o diseños cuasiexperimentales reciben su nombre por el hecho que
los grupos de estudio no se han conformado al azar y, en algunos casos, no se utiliza un
grupo de control. Sin embargo, como lo dicen Campbell y Stanley, estas investigaciones
pueden tener, en diversos grados, tanto validez interna como externa. De los varios tipos
de éstos vamos a presentar dos que suelen ser los más utilizados en el campo de la
investigación social y de la educación.
tres grupos escolares existentes que estaban formados con anterioridad al experimento,
y cada uno de ellos constituye un grupo experimental. Veámoslo gráficamente:
5. reclutar los sujetos del experimento o cuasiexperimento. Esto implica tener contacto
con ellos, darles las explicaciones necesarias e indicarles el lugar, día y hora y persona
con quien deben presentarse.
9. 9.Aplicar las prepruebas (cuando las haya), los tratamientos respectivos (cuando no se
trate de grupos de control) y las pospruebas.
Asimismo, resulta conveniente tomar nota del desarrollo del experimento, llevar una
bitácora minuciosa de todo lo ocurrido a lo largo de este.
Este primer diseño utiliza dos grupos: uno recibe el tratamiento experimental y el otro
no. Los grupos son comparados en la posprueba para analizar si el tratamiento
experimental tuvo un efecto sobre la variable dependiente.
Si los grupos no son equiparables entre sí, las diferencias en las pospruebas de ambos
grupos pueden ser atribuidas a la variable independiente pero también a otras razones
diferentes, y lo peor es que el investigador puede no darse cuenta de ello.
Por ello es importante que los grupos sean inicialmente comparables, y que durante el
experimento no ocurra algo que los haga diferentes, con excepción de la presencia -
ausencia del tratamiento experimental.
1. Recuérdese que los grupos son intactos, no se crean, ya se habían constituido por
motivos diferentes al cuasiexperimento.
El encuadre temporal de Vidich y Lyman llega hasta hoy y se inicia en el siglo XV.
Transcurre en torno a la investigación etnográfica que se practica en la sociología y
antropología norteamericanas. El hilo conductor es el interaccionismo simbólico, que
marca las etapas de su recorrido histórico: la referencia al “otro”. Tratan de documentar
la existencia
Fases principales en la etnografía antropológica y sociológica
FUENTE: http://html.rincondelvago.com/tecnicas-cualitativas-de-investigacion-
social_1.html
Cronología de Denzin y Lincoln
(Perspectiva Conde. Hamilton. Vidich y Lyman. Denzin. Lincoln. Paradigma –
universidad Complutense de Madrid)
La simplificación del continuo histórico que ha envuelto a la investigación cualitativa se
da cuando el cronista insiste en la delimitación de grandes momentos o períodos. Su
relato se circunscribe al siglo XX distinguiendo cinco fases de la investigación
cualitativa. Tienen dos ideas centrales:
Investigación cualitativa significa cosas diferentes en cada uno de los momentos.
Los cinco momentos operan simultáneamente en el presente.
Rasgos que definen cada período:
Período tradicional, 1900-1950, momento de la etnografía clásica. Positivismo. El
otro estudiado era distinto, extranjero, extraño.
Período modernista, 1959-1970, se caracteriza por los esfuerzos de formalización de
los métodos cualitativos. Postpositivismo.
Géneros desdibujados o borrosos, 1970-1986, donde los límites entre las ciencias
sociales y las humanidades se habían desdibujado. Interpretativismo. Los
investigadores sociales buscan en la semiótica o en la hermenéutica nuevas teorías y
métodos de análisis.
Crisis de representación y de legitimación, 1986-1990, maduración de la fase
anterior. Se aboga por unos modos de realización y presentación de la investigación
etnográfica más reflexivos y críticos con cuestiones descuidadas relativas al género,
raza o clase social del investigador.
121
Por la vía que hemos expuesto, accedemos al concepto de muestreo teórico, del cual
ya anticipamos algunos elementos de definición. Recordemos cómo el muestreo teórico
representa una forma de muestreo no probabilístico, que depende de las habilidades
del investigador para hacer decisiones acerca de qué observar, basado, justamente, en
criterios tales como oportunidad, interés personal, recursos disponibles y, lo más
importante, la naturaleza del problema que está siendo investigado. Así como en el
muestreo probabilístico el investigador emplea una lógica de tipo estadístico para
seleccionar los fenómenos particulares que serán estudiados, en el muestreo teórico se
acude a una lógica comprensiva que depende de los avances que sevan alcanzando en
el entendimiento del problema estudiado, durante el progreso mismo de la
investigación.
• Preguntarse qué tan eficaces, o no, fueron, o son, los procedimientos que el
investigador anticipó para acceder al mundo interno de los participantes o actores. Éste
es un aspecto de mucha importancia para analizar, ya que las limitaciones en el acceso
reducen por, lo general, la validez y la confiabilidad de los hallazgos realizados.
Es importante aclarar que la razón principal por la cual mis informantes consintieron su
participación y su apoyo en esta investigación es precisamente por la intencionalidad de
crear puente de diálogo entre lo que es el informante y el observador, claro está que
esto se logra con la accesibilidad de ambas partes y esto logra su mejor explicación en
la conversación.
A la entrevista antropológica también se le llama “etnográfica” y es una técnica informal
o no directiva, puesto que se basa en encuentros casuales y empatía con el informante
126
El cuestionario cumple varias funciones, dice McCracken (1988). Su primer papel es,
asegurar que el investigador cubra todo el terreno (tema), en el mismo orden, para cada
entrevistado, preservando de manera consistente el contexto conversacional de cada
entrevista. La segunda función es, cuidar el itinerario requerido para mantener la
distancia con el entrevistado. La tercera función consiste en, establecer los canales
para la dirección y delimitación del discurso. La cuarta función es, permitir al
investigador prestar toda su atención al testimonio de su entrevistado.
El enfoque cualitativo con que se asume este tipo de entrevista abre la oportunidad
para que, con cada una de las respuestas a las preguntas del cuestionario, se exploren
de manera in estructurada (esto es, no preparada de antemano, pero sí sistemática)
aspectos derivados de las respuestas proporcionadas por el entrevistado.
Para efectos del análisis no basta solo con registrar las ideas sino que también se
requiere examinar el contexto en que esas ideas aparecen. Este contexto se identifica
principalmente por una manera de hablar.
la teoría fundada, al igual que el de las historias de vida. Por lo general, su empleo
implica la realización de varias sesiones con la misma persona. Se comienza con una
primera entrevista de carácter muy abierto, la cual parte de una pregunta generadora,
amplia, que busca no sesgar un primer relato, que será el que servirá de base para la
profundización ulterior. Se considera, en tal sentido, que la propia estructura, con que la
persona entrevistada presenta su relato, es portadora en ella misma de ciertos
significados que no deben alterarse con una directividad muy alta, particularmente, lo
repetimos, al comienzo del proceso.
Entrevista Focalizada
Las entrevistas focalizadas, en el caso de la televisión tienen el objetivo de explorar y
comprender los procesos subjetivos de apropiación e integración de la televisión en la
vida cotidiana de diferentes grupos de la audiencia.
Partimos, al igual que muchos otros investigadores culturalistas, de la premisa de que la
recepción de los mensajes de los medios es activa y alimentada por distintas
mediaciones y procesos de negociación y apropiación de los significados (Fiske,
Downing, Orozco). En este sentido y siguiendo a González (1998), nuestra unidad de
análisis no será el individuo aislado, sino el individuo "en relación": "jamás se da una
recepción pasiva o individual, y difícilmente el texto cultural permanece sólo en el
primitivo origen de un gusto o práctica distintiva" . Cada receptor es parte de uno o
múltiples grupos y como tal tiende a adoptar patrones de consumo y apropiación
comunes a los de su grupo de pertenencia. Una mujer de 40 años verá la televisión en
función de su relación con el resto de la familia, con sus gustos e intereses. Un joven
tendrá que negociar con sus padres y sus hermanos su uso de ese medio, a menos que
el nivel socioeconómico de la familia permita la propiedad de un televisor para cada
miembro.
Como señala Lindlof (1995), los seres humanos infunden en sus propias acciones, y en
las otras acciones y mundos a los que tienen acceso, significados: "los significados no
son meros accesorios de las conductas. Más bien, el hecho mismo de que
reflexionamos sobre nuestras acciones realizadas, y de que imaginamos posibles
acciones futuras, es lo que propicia que lo que hacemos tenga un sentido" (p. 6). Una
premisa básica de nuestro estudio, así, es la misma adoptada por la investigación
cualitativa relacionada con ver las situaciones sociales desde el punto de vista de los
actores para poder comprender qué es lo que está pasando en una determinada
situación (p. 30). Werner y Schoepfle (1987) explican que a diferencia del periodismo
que busca cubrir lo extraordinario y lo raro, las ciencias sociales se interesan en las
estrategias que los humanos usan para sobrellevar sus rutinas, las cuales ocupan la
mayor parte de sus horas de vigilia.
128
procesos estudiados, esto puede significar unos pocos o muchos informantes. En este
proyecto se ha definido que en cada ciudad deberán aplicarse un mínimo de 60
entrevistas, pero este número podrá (o deberá) aumentar en caso de que se observen
diferencias y variantes importantes en las respuestas proporcionadas por los
informantes de cada segmento contemplado.
Para poder explorar posibles diferencias en las preferencias programáticas y las rutinas
de consumo y apropiación de la televisión del público de acuerdo a variables
sociodemográficas como el nivel socioeconómico, la edad y el sexo, las 45 entrevistas
por ciudad se distribuirán de la siguiente manera:
relación más fluida con el respondiente, de tal forma que cuando se llegue a la
entrevista formal ya se haya avanzado lo más posible en este sentido. El
entrevistador deberá utilizar todos sus recursos para generar empatía,
intercambiar experiencias, aficiones, nombres de conocidos mutuos, temas
casuales de interés mutuo, etc.
6. Posteriormente a esta conversación con el futuro respondiente y antes de la
entrevista, el participante deberá hacer todos los preparativos necesarios para
llegar con todo listo. Deberá identificar dos casets de 45 minutos de cada lado
con la siguiente información:
a) Número de la Entrevista (Código del caset): tres dígitos y una letra. El primero
dígito se refiere a la ciudad (1=Monterrey, 2=Guadalajara, 3=D.F.). Los
siguientes dos al número progresivo que represente cada entrevista (definirlo con
el coordinador de cada ciudad). La letra al final del código se referirá a si es el
caset 1 (en cuyo caso se pondrá "A") o el 2 ("B") Nótese que estas letras no se
refieren al lado del caset, sino a casets distintos. Poner acto seguido el nombre
del entrevistador, fecha de realización de la entrevista y nombre del informante.
Terminar con información sobre género del informante (H=hombre, M=Mujer),
edad (exacta, con dos dígitos) y nivel socioeconómico (CA=Clase Alta, CM=
Clase Media, CB=Clase Baja). Ejemplo:
#101A. J. C. Lozano. 12 de mayo de 1999. Informante: Joaquín del Olmo. H-26-
CM
Encuesta Etnográfica
Esta técnica toma como su preocupación y eje básico de articulación el análisis de las
dimensiones culturales (simbólicas y materiales) de la realidad humana sometida a
Investigación. Uno de los desarrollos más sistemáticos al respecto ha sido el propuesto
por Spradley (1978). La idea central que él maneja es, la de contar con un inventario de
Tópicos culturales que, a la hora de iniciar el trabajo de campo, permita realizar un
barrido completo de esas dimensiones en el interior del grupo humano objeto de
estudio. Para su implementación Spradley en el capítulo 3 de primera parte de su texto
Participant Observation, plantea el que a su juicio constituye el ciclo de la investigación
etnográfica.
Dentro del mismo, dicho autor distingue cinco procesos, de los cuales, los tres primeros
conciernen a la encuesta etnográfica. Los procesos etnográficos en cuestión son los
siguientes: selección de un proyecto, planteamiento de las preguntas concernientes al
proyecto elegido, recolección de datos, elaboración de los registros pertinentes, análisis
de los datos y escritura del informe de investigación o etnografía
Spradley plantea que quizá la primera cosa que los etnógrafos deberían considerar es
el alcance de la investigación. De acuerdo con esto, la etnografía que se desarrolle
puede tener una variación que puede fluctuar a lo largo de un continuo que va desde la
macroetnografía, hasta la microetnografía. Los objetos de análisis variarán, entonces,
desde el estudio de las sociedades complejas, de múltiples comunidades, de múltiples
instituciones sociales o de múltiples situaciones sociales, para el caso de la
macroetnografía; hasta, el abordaje mediante la microetnografía, de una sola
comunidad local, una sola institución social o una situación social simple o restringida.
La encuesta etnográfica cumple papeles diferentes en los dos tipos de etnografía.
requisito puede dar lugar a retraimiento frente a personas que se perciben distintas del
resto del grupo.
Idealmente el grupo estará formado por personas que no se conozcan y probablemente
no volverán a encontrarse. Sin embargo esta metodología puede ser de gran utilidad a
nivel interno pues permite conocer situaciones dentro de una empresa y es en el seno
de la empresa donde deben facilitarse vías de expresión que permitan el análisis de las
condiciones de trabajo y las posibles vías de intervención.
El grupo de discusión realizado en una organización presenta, pues, algunas
circunstancias especiales. En este entorno los participantes se conocen entre sí, incluso
pueden tener una relación o un contacto diario: el grupo es un grupo preexistente y
puede llegar a una total familiaridad, sin embargo el trabajar en la misma empresa tiene
sus ventajas ya que el hecho de conocerse hace que exista una mayor cohesión de
grupo y permite entrar más directamente en la discusión.
Para que los grupos de discusión internos sean realmente productivos, y a fin de
favorecer la participación, deberá tenerse cuidado de lograr un ambiente no
intimidatorio, desarrollar la reunión en un entorno neutral, dejar muy claro el objeto de la
reunión y recordar a los participantes que la intención es recoger información sobre
distintos puntos de vista.
Preparación
El animador juega un papel importante en una reunión de discusión, pero no es el único
determinante del éxito de la misma.
Para que la discusión llegue a buen fin hay que prever una serie de factores, comunes a
cualquier tipo de reunión y emplear algún tiempo en comprobar una serie de detalles
que, aunque a primera vista puedan parecer superfluos, juegan un papel decisivo en el
buen desarrollo de una reunión.
Condiciones materiales
A menudo no suele prestarse la atención necesaria a este aspecto, pero hay que tener
en cuenta que "velar por unas condiciones confortables es velar por la eficacia de la
reunión" (Lebel,1983). No tener en consideración estos aspectos es aceptar unos
riesgos que pueden ser evitados: quién no ha visto fracasar una reunión por un exceso
de calor, o porque la sala estaba ocupada....
Para asegurar el buen desarrollo de un grupo de discusión deberán atenderse a los
siguientes aspectos:
El lugar
El local donde deba desarrollarse la reunión ha de cumplir unos requisitos, ya que su
idoneidad puede influir en las respuestas de los participantes.
El lugar de reunión en la empresa ha de ser neutral de manera que se favorezca un
ambiente de participación y se eviten inhibiciones. La sala ha de ser de dimensiones
adecuadas al número de asistentes, aislada de distracciones que provengan del exterior
o de otras posibles distracciones visuales o sonoras.
En otro orden de cosas hay que tener en cuenta que el confort aumenta la participación,
si las personas están incómodas puede aparecer irritabilidad o impaciencia. Por ello es
conveniente inspeccionar la sala con antelación y comprobar su disponibilidad durante
el tiempo necesario, la existencia de tomas de corriente o ausencia de ruidos si se
quiere grabar la conversación, la ventilación adecuada, la cantidad de sillas, disposición
de mesas....
Disposición de los participantes
Los participantes se situarán de manera que se vean unos a otros, es imprescindible el
contacto ocular para facilitar la interacción. Para ello la mesa deberá ser de medidas
adecuadas y si se dipone de varias mesas su situación no deberá ser en línea sino que
deberán colocarse en círculo o en forma oval. La distancia entre los participantes será
137
El momento de la reunión
Es más adecuado realizar las reuniones por la mañana, siendo totalmente
desaconsejable el llevarlas a cabo después de la comida. La duración no deberá
exceder de dos horas ya que si se alarga demasiado puede bajar el interés en la
reunión, dando lugar a la aparición de subgrupos. Es importante asegurarse que todo el
mundo dispone de tiempo suficiente, de lo contrario se corre el riesgo que las personas
se sientan presionadas o desvíen la atención hacia otros temas ajenos a la reunión.
138
Evitar interrupciones
Es evidente que en la sala en la que se desarrolla la reunión no debe haber teléfono.
Puede dejarse una persona encargada de recoger los mensajes que llegan para los
miembros de la discusión y, si es preciso, se harán llegar al interesado a través del
moderador. Durante el transcurso de la discusión es inaceptable que un miembro de la
reunión se vea interrumpido por una visita.
Desarrollo de la reunión
En la discusión los miembros del grupo expresan sus ideas, dando a conocer
emociones que no surgen a menudo en otro tipo de investigación. Para que esto sea
posible una de las condiciones es que el ambiente sea distendido, de manera que se
facilite un clima en el que las personas puedan manifestar sus sentimientos.
Durante el transcurso de la reunión y con el fin de recoger con mayor exactitud el mayor
número de detalles, es conveniente que, además del moderador, exista otra persona
que tome nota de las incidencias de la reunión: tono en que se hacen las
intervenciones, comunicación no verbal, actitud de los participantes... Sus anotaciones
no tienen como finalidad recoger la totalidad de las intervenciones sino aspectos
importantes a resaltar y a tener en cuenta en el análisis.
Papel del moderador
El animador juega un rol de coordinación y de facilitación primordial, pero no es él quien
enriquece el nivel de ideas. Controla el desarrollo de la discusión y hace progresar al
grupo hacia el objetivo propuesto, sin restar espontaneidad a los participantes. Su papel
principal es velar para que se cumplan los objetivos, facilitar el intercambio de ideas,
hacer respetar el método y establecer síntesis.
Tiene que cumplir dos tipos de objetivos. Unos encaminados hacia la tarea: guiar la
discusión hacia los temas objeto de debate, y otros dirigidos hacia el grupo: facilitar la
expresión de los participantes, manteniendo un clima de participación.
Las funciones hacia la tarea están claramente definidas y tienen una cadencia
cronológica:
• Enfocar la discusión hacia los objetivos.
• Evaluar en qué punto de la discusión se encuentra el grupo.
• Realizar síntesis parciales que permitan poner en evidencia el progreso del
grupo.
• Determinar la posición respecto del objetivo principal.
La funciones hacia el grupo son más sutiles y menos organizadas, dependen del
desarrollo del grupo como tal. Hay que estar atento a los fenómenos de grupo que van
apareciendo de manera que se pueda ir regularizando la situación:
139
Sintetizar
Si se emiten distintas ideas sobre un punto, el moderador las confronta, las reagrupa,
haciendo una síntesis de lo que aparentemente pueda parecer irreconciliable,
resumiendo las intervenciones más largas, recapitulando lo que se ha dicho sobre un
punto antes de pasar a otro de manera que en todo momento se sepa en qué punto de
la discusión se halla el grupo.
GRUPO FOCAL
142
Cuidado al generalizar: "Los adolescentes piensan que..." sustituirlos por "en nuestro
grupo, los adolescentes piensan que...".
Grupo Nominal.
En la técnica delphi, el grupo es virtual, nunca llegan a conocerse. En el grupo nominal,
aunque el grupo se conoce, en un principio no se pueden comunicar verbalmente. El
lenguaje que utilizan es científico-técnico.
En resumen, La Metodología Cualitativa, no solo no utiliza cuestionarios ni cuantifica las
respuestas, sino que analiza e interpreta el lenguaje para encontrar el sentido. Y sobre
el mayor o menor cientificismo de los resultados de investigaciones realizadas mediante
métodos cualitativos, sus resultados son científicos aunque participe la subjetividad, se
investigan discursos y se permiten múltiples interpretaciones de la realidad. Requiere
de un gran sentido común, gran capacidad de curiosidad y escucha e implica
conocimientos de diversas fuentes: sociología, semiología, semántica, psicología,
métodos de investigación, entre otros.
Los contextos fundamentales en los que ha florecido particularmente la IAP han sido, el
de la educación popular, de una parte, y el del desarrollo rural, de la otra. La
perspectiva de focal de esta alternativa de trabajo cualitativo ha sido el llamado
“empoderamiento” a través de la producción y uso del conocimiento por parte de los
sectores más pobres y oprimidos. Coincide este tipo de intencionalidad con el
surgimiento de movimientos sociales dispuestos a realizar cambios radicales
especialmente en los países del llamado tercer mundo (América Latina, África y
Sudeste Asiático).
144
La primera consideración tiene que ver con la necesidad de adoptar una estrategia de
capacitación del tipo “aprender haciendo” orientada a posibilitar que los protagonistas
profanos en temas de investigación social o educativa, realicen un trabajo sistemático y
riguroso de elicitación, registro y análisis de las, percepciones, testimonios, juicios y
comprensiones que son aportados por todos aquellos que son convocados para
intervenir en las distintas fases de la investigación desde su diseño, hasta su uso;
pasando por, su implementación y desarrollo.
Villasante, T.R. y otros (2000-2001) explican que la IAP es una metodología que
permite desarrollar un análisis participativo, donde los actores implicados se convierten
en los protagonistas del proceso de construcción del conocimiento de la realidad sobre
el objeto de estudio, en la detección de problemas y necesidades y en la elaboración de
propuestas y soluciones.
Con el fin de detectar esas demandas reales relacionadas con el objeto de estudio y
concretarlas en propuestas de acción ajustadas a necesidades sentidas, se desarrolla
un proceso de investigación que apunta a la transformación mediante el trabajo con
colectivos, asociaciones, grupos de vecinos/as y otros actores del municipio con
146
La IAP no ofrece una batería de respuestas y soluciones a los problemas, sino que
propicia la conversación y el diálogo como mecanismos con los que crear procesos
donde los sujetos afectados aporten, tras la reflexión, soluciones a sus problemas.
Construyendo las respuestas con los distintos agentes sociales y ciudadanos del
municipio se abre un gran abanico de posibilidades, pero las respuestas, soluciones y
propuestas de acción se ajustarán más a la realidad concreta, en la medida en que han
sido participadas y compartidas por la ciudadanía en el proceso de investigación-acción
Los ejes centrales en que se basa el desarrollo de una Investigación-Acción-
Participativa son los siguientes:
- En primer lugar, se han de delimitar unos objetivos a trabajar que responden a la
detección de determinados síntomas, como por ejemplo: déficits de infraestructuras,
problemas de exclusión social, etc.
- A esta etapa de concreción le siguen otras de apertura a todos los puntos de vista
existentes entorno a la problemática y objetivos definidos: se trata de elaborar un
diagnóstico y recoger posibles propuestas que salgan de la propia praxis participativa y
que puedan servir de base para su debate y negociación entre todos los sectores
sociales implicados.
- Esta negociación es la que da lugar a una última etapa, de cierre, en la que las
propuestas se concretan en líneas de actuación y en la que los sectores implicados
asumen un papel protagonista en el desarrollo del proceso.
- La puesta en marcha de estas actuaciones abre un nuevo ciclo en el que se
detectarán nuevos síntomas y problemáticas, y en el que cabrá definir nuevos objetivos
a abordar.
147
Muestreo de tiempos y momentos. Cada actividad humana tiene unos tiempos y cada
escenario también puede cambiar con el momento del día o de la actividad que se
desarrolle en él. Así, manteniendo el ejemplo que hemos venido manejando, la
preparación de alimentos pasa por varios momentos, que van desde la selección y su
compra, pasando por el transporte de los mismos, hasta llegar al proceso propiamente
de preparación que tiene su etapa “en crudo” al momento de lavarlos, organizarlos,
cortarlos, licuarlos, macerarlos, hasta llegar a su etapa de cocción. Proceso éste que
lleva los alimentos a su etapa de “preparados”. Es posible que en el tránsito por cada
una de esas etapas se identifiquen “cosas” o “situaciones” que generen enfermedad.
Desde una óptica complementaria y tomando como punto de partida carácter teórico e
internacional del muestreo cualitativo, Strauss y Corbin (1990) distinguen tres
modalidades de éste: abierto, relacional-fluctuante y discriminativo.
El muestreo abierto está asociado con la codificación abierta. Éste, más que
especificar, guía las elecciones del muestreo. Este tipo de muestreo puede realizarse
intencionada o sistemáticamente u ocurrir fortuitamente. Este proceso incluye el
muestreo “in situ”. El muestreo relacional-fluctuante está asociado con la codificación
axial. Su principio es maximizar el hallazgo de diferencias en el nivel dimensional, se
puede realizar deliberada o sistemáticamente.
El muestreo de variación máxima tiene como propósito capturar y describir los temas
centrales o las principales características que tipifican una realidad humana
relativamente estable. Ésta última es la principal diferencia con el anterior.
El muestreo de caso crítico se edifica sobre la base de elegir una situación, fenómeno
o realidad humana que permite ganar comprensión sobre una condición hipotética
sometida a análisis por parte del investigador, pero sometida a juicio de un actor social.
Un ejemplo de esto sería preguntarle a una persona que actualmente es muy rica ¿qué
haría si al día siguiente despertara en la ruina absoluta? Como se apreciará, este tipo
de muestreo se distingue del de casos extremos, porque la situación a la que alude este
último es real actualmente, mientras que en el del caso crítico es hipotético. Sin
embargo, tiene en común que permite develar aspectos completamente invisibles en la
vida cotidiana pero que ante la situación planteada afloran con mucha fuerza.
El muestreo por criterio lógico implica trabajar todos los casos que reúnan algún
criterio predeterminado de importancia. Patton (op. cit.) coloca como ejemplo la
situación de pacientes psiquiátricos que por lo general duran en tratamiento entre 4 y 26
semanas.
Señala entonces, que será necesario examinar los casos de todos aquellos que lleven
28 semanas o más para saber qué está pasando con ellos. En un ejemplo desde otra
perspectiva, al examinar una investigación de satisfacción sobre servicios en la que el
95% dice estar satisfecho, el investigador determina profundizar con la lógica de este
151
Entre las técnicas cualitativas más difundidas están los grupos de discusión,
denominadas en determinadas ocasiones dinámicas de grupo, y las entrevistas en
profundidad, en ambos casos la recogida de información se traduce en la obtención y
posterior análisis, el diálogo libre y espontáneo entre un reducido grupo de personas
(grupo de discusión) o entre el entrevistador y el entrevistado (entrevista en
profundidad).
Obviamente, el límite de estas técnicas es que no existen unidades de medida muestral,
de ahí que sean complementarias de las cuantitativas. Su relevancia cada vez mayor
por ejemplo en la investigación de mercados, radica en que mediante el análisis del
discurso de los microgrupos podemos ser capaces de captar los ejes motivacionales
que subyacen a las opiniones cotidianas y al comportamiento diario.
Cuándo incluir técnicas cualitativas
En la investigación, a grandes rasgos, se debe incluir una fase cualitativa inicial cuando:
• No se conocen las variables reales que estructuran el mercado, ni los procesos
sociales que lo definen y reproducen.
• Se utilizan como pretest antes del diseño definitivo del cuestionario. No sólo
ayudan a formular correctamente las preguntas, sino que contribuyen a
precodificar y cerrar las posibles respuestas en categorías semánticas claras y
excluyentes entre sí.
• Ayudan a controlar y a ponderar los efectos de variables que afectan al
resultado de la investigación pero que no son el objetivo de ésta. Por ejemplo: es
habitual que el encuestado tienda a situarse en torno a los valores centrales del
intervalo entre las distintas posibilidades de respuesta, puesto que socialmente
es lo que se espera de él (efecto de deseabilidad social). Esto es especialmente
cierto en ámbitos moralizados socialmente: sexo, alcohol... pero también en
mercados donde determinados productos afectan al status del entrevistado.
• Se utilizan igualmente para desarrollar determinado tipo de test actitudinales o
motivacionales.
• En el análisis de conductas no racionales desde una perspectiva económica
(coste/beneficio), las técnicas cualitativas se adecuan mejor para explicar la
irrupción de impulsos y las contradicciones grupales.
• La entrevista en profundidad es especialmente apta para el análisis de casos
individuales típicos o extremos, puesto que es aquí donde se encuentran las
dimensiones motivacionales en su estado puro. Por ejemplo, pueden ser de gran
ayuda para analizar los procesos mentales de consumidores compulsivos.
• Por su parte, el grupo de discusión tiene una ventaja adicional. En el desarrollo
del propio grupo, suelen representarse los distintos roles sociales: líder de
153
Significados
Sabemos bien que nuestra decisión sobre qué estudiar, la metodología mediante la que
encontraremos los resultados, las preguntas que plantearemos y los puntos que
consideraremos para dar sentido a nuestros hallazgos, afectarán el proceso de
investigación. La mayoría de investigadores intentan identificar la mayor cantidad
posible de estos elementos. No obstante, parece ser que son considerados como
molestias o como factores inevitables del proceso de investigación y como peligros que
pueden hacer disminuir el valor de los resultados. ¿No nos hemos comportado, al
menos algunas veces, como si fuesen los datos en sí mismos los que sostienen el
sentido de la investigación?
Por supuesto, el sentido está en los datos, pero depende de nosotros encontrar ese
sentido. Es en esta área del proceso de investigación donde la actividad reflexiva –
conciente o inconsciente - del investigador, resulta más importante. Los métodos
analíticos del investigador sirven como un juego de lentes que posibilitan que surja
algún sentido y que se descarten otros tantos. Este artículo explora cómo la reflexión
puede emplearse tanto para profundizar y fortalecer el proceso y, así, encontrar
significados, como para ayudar a evitar algunos de los obstáculos con los que el
investigador a veces se topa.
El procesamiento mental inconsciente no constituye un tema favorecido de discusión
dentro de los círculos de investigación. Como ya he señalado, un desinteresado silencio
surge frecuentemente al sacar este tema a colación, ya que parece ser que una parte
importante del proceso reflexivo no es del todo conciente y el psicoanálisis constituye el
campo en el que los procesos inconscientes se exploran con mayor rigurosidad.
La investigación cualitativa por Internet una mera conversión del cualitativo tradicional al
mundo online, o supone nuevas técnicas de investigación con características propias?
Si bien la investigación cuantitativa dispone de una clara conversión hacia el mundo
electrónico, en el mundo cualitativo dicha conversión es menos evidente, generando un
debate sobre la conveniencia de la misma.
157
El segundo tipo de Focus Groups, los Graph-Groups utilizan recursos gráficos para
solucionar el problema de la comunicación no verbal antes comentado, aunque también
para otras finalidades. Esta técnica es la empleada por Imprint Research, cuyo entorno
de chat-room viene acompañado por una representación de los participantes a través
de caracterizaciones humanas con capacidad para expresar emociones de aprobación,
rechazo, sorpresa…
También en esta línea operan los avances concentrados en el software Babble, todavía
no explotados por ninguna empresa en particular. Este software, resultado del proyecto
Social Translucence, desarrollado por investigadores pertenecientes a IBM; se orienta
hacia el diseño de interfícies gráficas que permiten hacer visible la actividad colectiva
incorporando, entre otras, la posibilidad de visualizar la participación de los distintos
integrantes en el grupo, algo de lo que todos ellos y el moderador son conscientes en
un grupo tradicional y cuya idea se pierde en el traslado al entorno web. Babble
pretende evitar también la pérdida de autonomía de los integrantes a la hora de
participar en actividades colectivas a través de entornos web, de ahí la translucidez
social como título del estudio, refiriéndose al mantenimiento en entornos web de
ambigüedades características de una comunicación verbal (por ejemplo la posibilidad
que tienen los integrantes de una reunión de simular que prestan atención sin prestarla
en realidad).
Por último, los Cam-Groups suponen la aproximación electrónica más fidedigna a los
Focus Groups tradicionales. Esta técnica es explotada exclusivamente por la empresa
estadounidense EQualitative Research y, si bien la inexistencia del entorno chat-room
característico de los Focus Groups electrónicos supone la pérdida de la ventajosa
transcripción inmediata de las sesiones, el empleo de webcams supone el fin del debate
por la falta de comunicación no verbal en los grupos online. Esta técnica se emplea
abundantemente y con éxito en grupos de médicos, farmacéuticos y similares, target de
más difícil captación para Focus Groups tradicionales.
Lección 36. Variedad de paradigmas en la investigación cualitativa
http://html.rincondelvago.com/tecnicas-cualitativas-de-investigacion-social_1.html
a) Dos paradigmas:
La clasificación más simple es la de dos paradigmas contrapuestos.
Paradigma prevaleciente, clásico, racionalista, positivista. Asume la existencia de
una sola realidad objetiva averiguable a través de los cinco sentidos, sujetas a las leyes
universales de la ciencia, y manipulable mediante procesos lógicos.
Paradigma emergente, alternativo, naturalista, constructivista, interpretativista.
Asume la existencia de realidades múltiples, con diferencias entre ellas que no pueden
resolverse a través de procesos racionales o aumentando los tamaños muestrales.
b) Tres paradigmas:
159
Introducción:
Creo que el estudiante o lector deseara o necesitara llevar a cabo análisis estadísticos
de sus datos en varias ocasiones, por lo que a pesar de que en el curso de estadística
descriptiva trata con mas detalle todo lo relacionado con las diversas pruebas
estadísticas especificas, en esta unidad se tratara básicamente de ilustrar con
ejemplos prácticos para cada situación en especial que tipo de herramienta estadística
aplica, o que pruebas estadísticas son apropiadas para analizar los datos,
dependiendo de las hipótesis formuladas y los niveles de medición de las variables
La relación que existe entre el análisis estadístico de los datos, la descripción de estos
y su interpretación, varía entre unos estudios y otros.Tener presente que el análisis
estadístico de los datos no es indiscriminado, cada método tiene su razón de ser y un
propósito especifico, no deben hacerse más análisis de los necesarios. La estadística
no es un fin en si misma, es una herramienta par analizar los datos
Esta unidad proporcionara en forma las bases que sustentan ambos tipos de
estadística, sin ser su propósito el de dar una visión detallada de los métodos
estadísticos mismos. Para el estudiante que se interese en profundizar en este campo,
163
Objetivos:
Entender que no se aplican las pruebas estadísticas simplemente por aplicarlas, sino
que se aplican con sentido y justificación.
Conocer las principales pruebas estadísticas desarrolladas para las ciencias sociales y
naturales, así como sus aplicaciones, situaciones en que se utiliza cada una y formas
de interpretarlas.
DEFINICION:
El análisis de la información puede definirse como la aplicación de técnicas estadísticas
para el e procesamiento de los datos Esta definición corresponde al análisis asistido por
computador. En general, por análisis de la información se entiende la fase de
interpretación que el usuario realiza de una manera directa y manual. Los límites de
este tipo de análisis son evidentes desde el momento que se trabaja sobre una cantidad
importante de datos, y se trata además de incorporar el análisis en un sistema de
producción de información elaborada o especializada.
El análisis estadístico de la información también se define como la ciencia de la
recolección, análisis, interpretación y presentación de la información que puede
expresarse en forma numérica
Procedimiento
Una vez que los datos han sido codificados y transferidos a una matriz, así como
guardados en un archivo, el investigador puede proceder a analizarlos.
164
Conclusiones
paramétrica y no paramétrica.
Los análisis de los datos que vayamos a practicar dependen de tres factores:
por ejemplo, no es lo mismo los análisis que se le realizan a una variable nominal que a
una por intervalos, enseguida estudiaremos los niveles o escalas de medición.
Usualmente el investigador busca, en primer término, describir sus datos y
posteriormente efectuar análisis estadísticos para relacionar sus variables. Es decir,
realiza análisis de estadística descriptiva para cada una de sus variables. Es decir,
describe la relación entre estas.Enseguida haré referencia solo de los niveles o escalas
de medición, no estudiadas previamente
165
Ejemplo. Además de ser cierto que una diferencia en valor de inventario de $5 000 es
el mismo monto de diferencia entre, por decir algo, $50 000 y $55 000 o entre $60 000 y
$65 000, también lo es que un valor de inventario de $100 000 es dos veces más
grande que un valor de inventario de $50 000.
CAPITULO 14. Estadística descriptiva o Deductiva
La Estadística descriptiva, una vez que se han recogido los valores que toman las
variables de nuestro estudio (datos), procederemos al análisis descriptivo de los
mismos. Para variables categóricas, como el sexo o el estadiaje, se quiere conocer el
166
descriptiva
Cualitativos Cuantitativos
168
EJEMPLO:
A) Se preguntó a un grupo de alumnos de Ingeniería Industrial su materia preferida.
Distrib. de frecuencia
Respuestas obtenidas datos f
Distrib. de frecuencia
Respuestas obtenidas datos f
157 1
158 2
170
160 4
161 2
162 2
163 2
164 1
165 2
166 2
168 5
169 1
170 3
172 1
TotN = 35
Grupos
F
(clases)
151-
6 Los grupos deben formarse de igual tamaño
155
156-
8 (tamaño de clase : c)
160
161-
9 El total de grupos o clases no deben ser menor a
165
166-
11 5 ni mayor a 15
170
171-
1
175
N= 35
Los límites extremos de cada clase se les llama Límite Inferior y Superior de
clase respectivamente. En la la. Clase 151 es el L.I. , y 155 es el L.S.
Existen también Límites Reales Inferior y Superior de clase, estos se obtienen
sumando el límite superior de un intervalo de clase con el límite inferior de la clase
siguiente y dividiéndolos entre dos.
Marca de clase es el punto medio de cada clase y se obtiene sumando los límites
de clase y dividiéndolos entre dos.
Tamaño o anchura de clase es la diferencia entre los límites reales de clase, o la
diferencia entre los límites de clase más una unidad (la misma que se esté trabajando)
ó la diferencia entre las marcas de clase.
Por ejemplo:
En la distribución de frecuencias anterior, se tiene:
172
151-
6 150.5-155.5 153 c=5
155
156-
8 155.5-160.5 158
160
161-
9 160.5-165.5 163
165
166-
11 165.5-170.5 168
170
171-
1 170.5-175.5 173
175
N=35
R = 172 - 151 = 21
Grupo1
calif F
5 3
6 8
7 14
8 9
9 4
10 2
Total 40
Grupo2
175
-Histograma.
-Polígono de Frecuencias.
-Pictograma.
Diagrama de barras
Se utilizan rectángulos separados, que tienen como base a cada uno de los
datos y como altura la frecuencia de ese dato.
Ejemplo: En la siguiente tabla se muestra el total de vacunas aplicadas durante el
verano de l991 en un estado de la República Mexicana.
Datos Fr(%)
f (en miles)
(vacunas) (redondeado
BCG 47 17
SABIN 111 41
DPT 73 27
SARAMPION 41 15
Histograma.
Se utiliza en datos cuantitativos en distribuciones de frecuencia. Son rectángulos
verticales unidos entre sí, en donde sus lados son los límites reales inferior y superior
de clase y cuya altura es igual ala frecuencia de clase.
Con la distribución de frec. anterior se tiene:
Polígono de Frecuencias:
Consiste en una serie de segmentos que unen los puntos cuyas abscisas son los
valores centrales de cada clase y cuyas ordenadas son proporcionales a sus
frecuencias respectivas.
Gráfica Circular:
Se forma al dividir un círculo en sectores circulares de manera que:
a) Cada sector circular equivale al porcentaje correspondiente al dato o grupo que
representa.
b) La unión de los sectores circulares forma el círculo y la suma de sus porcentajes
es 100.
178
c)
Pictograma:
Se utiliza un dibujo relacionado con el tema, para representar cierta cantidad de
frecuencias.
Este tipo de gráfica atrae la atención por los dibujos, pero la desventaja es que
se lee en forma aproximada.
179
Ejemplo:
En una biblioteca de una escuela se tienen los siguientes libros:
Libros f
Biología 25
Matematicas 30
Fisica 43
Quimica 20
Filosofia 10
Total 128
Como ejemplo, consideremos 10 pacientes de edades 21 años, 32, 15, 59, 60, 61, 64,
60, 71, y 80. La media de edad de estos sujetos será de:
Más formalmente, si denotamos por (X1, X2,...,Xn) los n datos que tenemos recogidos de
la variable en cuestión, el valor medio vendrá dado por:
Tal y como se adelantaba antes, otro aspecto a tener en cuenta al describir datos
continuos es la dispersión de los mismos. Existen distintas formas de cuantificar esa
variabilidad. De todas ellas, la varianza (S2) de los datos es la más utilizada. Es la
media de los cuadrados de las diferencias entre cada valor de la variable y la media
aritmética de la distribución.
182
Esta varianza muestral se obtiene como la suma de las de las diferencias de cuadrados
y por tanto tiene como unidades de medida el cuadrado de las unidades de medida en
que se mide la variable estudiada.
En el ejemplo anterior la varianza sería:
S x 2=
CV de la variable peso =
CV de la variable TAS =
A la vista de los resultados, observamos que la variable peso tiene mayor dispersión.
Cuando los datos se distribuyen de forma simétrica (y ya hemos dicho que esto ocurre
cuando los valores de su media y mediana están próximos), se usan para describir esa
variable su media y desviación típica. En el caso de distribuciones asimétricas, la
mediana y la amplitud son medidas más adecuadas. En este caso, se suelen utilizar
además los cuartiles y percentiles.
Los cuartiles y percentiles no son medidas de tendencia central sino medidas de
posición. El percentil es el valor de la variable que indica el porcentaje de una
distribución que es igual o menor a esa cifra.
Así, por ejemplo, el percentil 80 es el valor de la variable que es igual o deja por debajo
de sí al 80% del total de las puntuaciones. Los cuartiles son los valores de la variable
184
que dejan por debajo de sí el 25%, 50% y el 75% del total de las puntuaciones y así
tenemos por tanto el primer cuartil (Q1), el segundo (Q2) y el tercer cuartil (Q3).
Existen aun otras variaciones de las medidas de dispersión, par a mayor información
se puede consultar los libros de estadística de Blalock (1960) o McNemar (1962).
Para ver como se distribuyen algunas características de la muestra con respecto a la
variable que se esta midiendo, se puede estudiar la forma de la curva de distribución.
Es fundamental saber cual es la forma de dicha curva para poder utilizar métodos
estadísticos mas avanzados ya que en ellos se requiere que dicha curva sea normal, es
decir en forma de campana
DISTRIBUCIÓN NORMAL
o campana de Gauss-Laplace
Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio
nombre indica su extendida utilización, justificada por la frecuencia o normalidad con la
que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica
tiene forma de campana.
En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo
valor de p y valores de n cada vez mayores, se ve que sus polígonos de frecuencias
se aproximan a una curva en "forma de campana".
En resumen, la importancia de la distribución normal se debe principalmente a que hay
muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal
• Caracteres morfológicos de individuos (personas, animales, plantas,...) de una
especie, p.ejm. tallas, pesos, envergaduras, diámetros, perímetros,...
• Caracteres fisiológicos, por ejemplo: efecto de una misma dosis de un fármaco, o
de una misma cantidad de abono.
• Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo
grupo de individuos, puntuaciones de examen.
• Caracteres psicológicos, por ejemplo: cociente intelectual, grado de adaptación a
un medio,...
• Errores cometidos al medir ciertas magnitudes.
• Valores estadísticos muestrales, por ejemplo : la media.
Otras distribuciones como la binomial o la de Poisson son aproximaciones normales.
Y en general cualquier característica que se obtenga como suma de muchos factores.
185
FUNCIÓN DE DENSIDAD
Empleando cálculos bastante laboriosos, puede demostrarse que el modelo de la
función de densidad que corresponde a tales distribuciones viene dado por la fórmula
Representación gráfica de esta función de densidad
numéricos, de tal forma que utilizando una tabla se pueda evaluar la proporción de
casos que se encuentra en un intervalo dado. A esta técnica se le conoce como
calificación “Z”, calificación estándar.
Antes de pasar al capitulo de estadística inferencial, se presenta una tabla que resumen
la estadística descriptiva
Tabla ¿Resumen de la estadística descriptiva
Nominal Proporciones,
porcentajes
independiente, entre mas grande sea la muestra, mas cerca estaremos de obtener el
“verdadero” valor que tiene la población.
La importancia de la curva normal, la cual mencionamos en capitulo anterior, en este
contexto consiste en el hecho de que eventos que suceden al azar en grandes
números, tienden a distribuirse en la forma de la curva normal. Muchos fenómenos,
tales como la estatura, la edad, la inteligencia, altura de los árboles, calificaciones de
una asignatura, entre otros se distribuyen de esta manera:
Ejemplo. Para estimar el voltaje requerido para provocar fallas en un dispositivo
eléctrico, una muestra de estos dispositivos puede someterse a voltajes crecientes
hasta que falle cada uno de ellos. Con base en estos resultados muestrales puede
estimarse la probabilidad de falla a varios niveles de voltaje de los demás dispositivos
de la población muestreada.
¿Para que es útil la estadística inferencial?
a) Probar hipótesis
b) Estimar parámetros
Pruebas de hipótesis
190
Se han desarrollado tres procedimientos distintos para la prueba de hipótesis, todos los
cuales conducen a las mismas decisiones cuando se emplean los mismos estándares
de probabilidad (y riesgo). En este capítulo describiremos primeramente el método del
valor crítico para la prueba de hipótesis. De acuerdo con este método, se determinan
los así llamados valores críticos de la estadística de prueba que dictarían el rechazo de
una hipótesis, tras de lo cual la estadística de prueba observada se compara con los
valores críticos. Éste fue el primer método en desarrollarse, motivo por el cual buena
parte de la terminología de las pruebas de hipótesis se deriva de él. Más recientemente,
el método del valor P ha cobrado popularidad a causa de ser el más fácilmente
aplicable a software de cómputo. Este método se basa en la determinación de la
probabilidad condicional de que el valor observado de una estadística muestral pueda
ocurrir al azar, dado que un supuesto particular sobre el valor del parámetro poblacional
asociado sea en efecto correcto. El método de intervalos de confianza se basa en la
observación de si el valor supuesto de un parámetro poblacional está incluido en el
rango de valores que define a un intervalo de confianza para ese parámetro.
Pero más allá del método de prueba de hipótesis que se use, debe hacerse notar que si
un valor hipotético no se rechaza, y por lo tanto se acepta, ello no constituye una
"prueba" de que sea correcto. La aceptación de un valor supuesto de un parámetro
indica simplemente que se trata de un valor verosímil, con base en el valor observado
de la estadística muestral.
Nótese que si se usa el nivel de significancia de 5%, hay una probabilidad de 0.05 de
rechazar la hipótesis nula aun siendo efectivamente cierta. Esto se llama error tipo I La
probabilidad del error tipo I siempre es igual al nivel de significancia empleado como
estándar para rechazar la hipótesis nula; se le designa con la letra griega minúscula
(alfa), de modo que a designa también al nivel de significancia. Los niveles de
significancia de uso más frecuente en la prueba de hipótesis son los de 5% y 1%.
. Significancia estadística
El nivel de significancia en su concepto mas sencillo es: la probabilidad de que un
evento ocurra oscila entre 0 y 1, donde 0 significa la imposibilidad de ocurrencia y 1 la
certeza de ocurrencia del fenómeno. Al lanzar al aire una moneda no cargada, la
probabilidad de que salga “cruz” es 0.50 y la probabilidad de que la moneda caiga al
suelo en “cara” también es de 0.50. Con un dado, la probabilidad cualquiera de sus
lados al lanzarlo es de 1/6 = 0.1667. La suma de posibilidades siempre es de 1.
Si por azar un valor más discrepante del criterio de prueba que el obtenido ocurre
probablemente menos del 5 por ciento de las veces pero no menos del 1 por ciento
cuando la hipótesis nula es cierta, entonces se dice que la diferencia es significativa, y
el valor del criterio de la prueba se marca con un asterisco *. Si un valor más
discrepante del criterio de prueba que el obtenido ocurre con probabilidad menor que el
1 por ciento de las veces cuando la hipótesis nula es verdadera, se dice que la
diferencia es altamente significativa y el valor muestral del criterio de prueba se señala
con dos asteriscos **. La aceptación de la hipótesis nula puede indicarse con las letras
ns, que significan diferencias no significativas.
Los niveles del 5 y del 1 por ciento son arbitrarios, pero parecen haberse escogido
adecuadamente en el campo de la agricultura donde fueron usados por primera vez. Si
un experimentador usa niveles diferentes del 5 y del 1 por ciento, esto debe quedar
claramente establecido.
Definición: Es una prueba estadística para analizar la relación entre dos variables
medidas en un nivel por intervalos de razón. se simboliza por r o R
Regresión lineal
Definición: Es un modelo matemático para estimar el efecto de una variables sobre otra.
Esta asociado con el coeficiente r de pearson.
La Regresión y la correlación son dos técnicas estadísticas que se pueden utilizar para
solucionar problemas comunes en los negocios.
Muchos estudios se basan en la creencia de que es posible identificar y cuantificar alguna
Relación Funcional entre dos o más variables, donde una variable depende de la otra
variable.
Se puede decir que Y depende de X, en donde Y y X son dos variables cualquiera en
un modelo de Regresión Simple.
"Y es una función de X"
Y = f(X) Como Y depende de X,
Y es la variable dependiente, y
X es la variable independiente.
En el Modelo de Regresión es muy importante identificar cuál es la variable dependiente
y cuál es la variable independiente.
En el Modelo de Regresión Simple se establece que Y es una función de sólo una
variable independiente, razón por la cual se le denomina también Regresión Divariada
196
porque sólo hay dos variables, una dependiente y otra independiente y se representa
así:
Y = f (X)
"Y está regresando por X"
La variable dependiente es la variable que se desea explicar, predecir. También se le
llama REGRESANDO ó VARIABLE DE RESPUESTA.
La variable Independiente X se le denomina VARIABLE EXPLICATIVA ó REGRESOR y
se le utiliza para EXPLICAR Y.
Hipótesis a probar: Correlacionales y causales
Variables involucradas: Dos.
Nivel de medición de las variables: Intervalos o razón
Procedimiento e interpretación: la regresión lineal se determina en base al diagrama
de dispersión---
X 152 155 152 155 157 152 157 165 162 178 183 178
198
Con estos datos vamos a plantear una ecuación de regresión simple que nos permita
pronosticar los pesos conociendo las tallas. Utilizaremos a = 0.05.
. DESARROLLO
• Representación matemática y gráfica de los datos:
Representación Matemática
I.C. para la I. C.
estatura pesos Regresión Lineal media individual
1 152 50 23104 2500 7600 56.43 -6.43 53.07 59.79 47.30 65.56
2 155 61.5 24025 3782.3 9532.5 59.03 2.47 56.09 61.97 50.05 68.02
3 152 54.5 23104 2970.3 8284 56.43 -1.93 53.07 59.79 47.30 65.56
4 155 57.5 24025 3306.3 8912.5 59.03 -1.53 56.09 61.97 50.05 68.02
5 157 63.5 24649 4032.3 9969.5 60.77 2.73 58.05 63.48 51.85 69.68
6 152 59 23104 3481 8968 56.43 2.57 53.07 59.79 47.30 65.56
7 157 61 24649 3721 9577 60.77 0.23 58.05 63.48 51.85 69.68
8 165 72 27225 5184 11880 67.71 4.29 65.17 70.24 58.85 76.57
9 162 66 26244 4356 10692 65.11 0.89 62.65 67.56 56.27 73.94
10 178 72 31684 5184 12816 78.99 -6.99 74.65 83.33 69.45 88.52
11 183 84 33489 7056 15372 83.32 0.68 78.01 88.64 73.31 93.34
12 178 82 31684 6724 14596 78.99 3.01 74.65 83.33 69.45 88.52
Representación Gráfica
199
Hipótesis.
Se obtiene:
Conclusion
La ecuación de Regresión lineal estimada para las variables estatura y peso muestran,
de acuerdo a la prueba F, relación.
Esta relación se ha estimado en un R = 93.7, que indica una fuerte relación positiva.
Además si consideramos el coeficiente de determinación R² = 87.9 podemos indicar
que el 87.9% de las variaciones que ocurren en el peso se explicarían por las
variaciones en la variable estatura.
Definición:
de las hipótesis sobre las que habitualmente se fundamentan las pruebas estadísticas
de comparación de grupos es que las observaciones pertenecientes a cada una de las
muestras son independientes entre sí, no guardan relación; siendo precisamente ese
uno de los objetivos de la aleatorización (elección aleatoria de los sujetos o unidades de
observación, asignación aleatoria del tratamiento a cada paciente, etc). Sin embargo,
como veremos en este artículo, la falta de independencia entre las observaciones de los
grupos puede ser una característica de diseño del estudio para buscar
201
Símbolo: “t”
Ejemplo:
Se supone que se quiere comparar dos tratamientos con relación a una variable
cuantitativa. Los datos experimentales son:
Trat A: 25, 24, 25, 26
Trat B: 23, 18, 22, 28, 17, 25, 19, 16
Formula:
Si estamos comparando un resultado cuantitativo en dos grupos de datos, a partir de
muestras extraídas de forma aleatoria de una población normal, siendo nA el tamaño de
la primera muestra y nB el de la segunda, la cantidad:
Distribución de F
Definición: Es una prueba estadística para analizar si mas de dos grupos difieren
significativamente entre si en cuanto a sus medias y varianzas. Como vimos la prueba
“t” es utilizada para dos grupos y el análisis de varianza unidireccional es para tres,
cuatro, o mas grupos. Y aunque con dos grupos, el análisis de varianza unidireccional
se puede utilizar, no es una práctica común.
Interpretación: este análisis de varianza produce un valor conocido como “F” o razón
“F” , que se basa en una distribución muestral, conocida como la distribución F, que es
otro miembro de las distribuciones muestrales. La Prueba de “F” compara las
204
variaciones en las puntuaciones debidas a dos diferentes fuentes: variaciones entre los
grupos que se comparan y variaciones dentro de los grupos.
Distribución de F:
Sean X2(m) y X2(n) dos variables aleatorias independientes con distribución Ji cuadrado
con m y n grados de libertad, respectivamente. Entonces, la variable aleatoria F,
definida como:
F = X2(m)/m
X2(n)/n
P ( F≥ Fo) = α
El valor de Fo se puede indicar como Fα(m,n), que significa que a la derecha de este valor
existe un área o probabilidad en la curva igual a α .Diferentes autores, entre ellos
(Infante y zarate ,1989; Dixon y Massey,1965, y Guenther, 1977) presentan tablas
apropiadas para esta y otras distribuciones de uso común en la investigación.
Ejemplo:
Tabla .Rendimientos clones de un pasto con 5 tratamientos y 4 replicas
Tratamientos
Maceta 1 2 3 4 5
1 101 51 83 67 29
2 93 61 68 40 45
3 93 59 72 46 51
4 96 58 75 52 42
205
(X..)2
1. calculo factor corrección (FC) es: FC = 5.4
(1282)2
FC = 20 = 82176
Total 19 8168
** Diferencias altamente significativas entre tratamientos )P < 0.01)
Fc > Ft , 30.98 > 3.06 y 4.89
Se pueden aplicar pruebas de comparación de medias para saber entre cuales
promedios de tratamientos hay o no diferencias significativas.
Análisis factorial de varianza
206
En este capitulo se estudian también los experimentos factoriales. Aquí hay varios
tratamientos en cada una de varias categorías y definen un marco de tratamientos.
Esta elección de diseño de tratamientos conduce a una partición lógica de las sumas
de cuadrados de tratamientos en componentes aditivas con pruebas correspondientes
de hipótesis.
Se encuentra claramente fuera del propósito de este texto desarrollar las bases
matemáticas y los procedimientos de cálculo del análisis factorial, pero pretende facilitar
el entendimiento de los resultados del mismo dado que aún sin comprender cómo se
calcularon las saturaciones de los factores, el lector podrá familiarizarse con la forma de
utilizar una matriz factorial y con la interpretación de los mencionados factores.
Dado que una simple inspección de una tabla de correlación es difícil e incierta, se han
desarrollado técnicas estadísticas precisas para localizar los factores comunes
necesarios en la explicación de las correlaciones obtenidas. Dichas técnicas constituyen
el análisis factorial.
207
Siguiendo con el ejemplo anterior, cinco o seis factores podrían ser suficientes para dar
cuenta de las intercorrelaciones entre los 20 tests originales, de manera que podemos
sustituir las 20 puntuaciones originales de cada persona por cinco o seis puntuaciones,
una por cada factor, sin sacrificar ninguna información esencial. La práctica habitual es
retener, de los tests originales, aquellos que proporcionan las mejores medidas de cada
uno de los factores.
Cuesta y Herrero definen al análisis factorial como una técnica que consiste en resumir la
información obtenida en una matriz de datos con V variables. Para ello se identifican un
número reducido de factores F, siendo el número de factores menor que el número de
variables. Los factores representan a las variables originales, con una pérdida mínima de
información.
El test sirve para suscitar las actividades y respuestas de los sujetos; la correlación,
para indicar el grado de concomitancia entre las diversas respuestas.
Un factor es, así, una dimensión de variabilidad del comportamiento, verificada por la
covariación empírica de una serie de respuestas y definida por la significación común
de esas respuestas.
Por lo tanto el análisis factorial en psicología ayuda descubrir las dimensiones de
variación común de la conducta o factores; y el conjunto de factores constituye una
clasificación general de los rasgos psicológicos en función de los cuales se puede
describir las características de los individuos.
Características
Usos
Notación y definiciones
Los sistemas de notación que se usan en experimentos factoriales son similares, pero
presentan diferencias suficientes como para que el lector tenga que comprobar con
cuidado cuando utilice nuevas referencias. Se sigue una notación parecida en muchos
aspectos a la sugerida por Yates (1933). Las tres letras mayúsculas se usan para
designar factores, y las minúsculas para designar los niveles.
Contrastes de hipótesis en un anova de dos vías
Modelo mixto
Supóngase el primer factor de efectos fijos y el segundo de efectos aleatorios, lo que no
supone ninguna perdida de generalidad, ya que el orden de los factores es arbitrario.
MS Valor esperado
MSA
MSB
MSAB
MSE
Se contrastan la interacción y el factor aleatorio con el término de error, si la interacción
fuera significativa no tiene sentido contrastar el efecto fijo y si no lo fuera, el efecto fijo
se contrasta con el término de interacción o con el promedio de interacción y error
Aquí cabe hacer una distinción entre análisis factorial confirmatorio en el cual, a través
de las hipótesis mencionadas, se propone un modelo “a priori” que mediante el análisis
se va a confirmar o no, y análisis factorial exploratorio en el cual no se realizan hipótesis
210
previas acerca de un modelo posible sino que el modelo se construye luego de realizar
el análisis.
De cualquier manera, ya sea que se trate de un análisis confirmatorio o exploratorio,
esta etapa finaliza cuando se obtiene la matriz de correlaciones entre todas las
variables que entran en el análisis.
Los tests surgieron antes que el análisis factorial y en muchos aspectos se han
desarrollado con independencia de él. Sin embargo, el análisis factorial proporciona a
los tests un fundamento científico más firme y unas posibilidades, antes insospechadas,
para su empleo en la investigación del psiquismo y de la conducta, a tal punto que en la
actualidad constituye el fundamento más serio y coherente de la teoría de los tests.
El requisito más importante de un test es su validez; es decir, si no aprecia lo que dice
apreciar, si no sirve para lo que dice servir, huelga todo lo demás. Ahora bien, ¿cómo
averiguar y comprobar la validez de un test? Según Yela(1963) hay dos modos
fundamentales para hacerlo:
se relacionen; tanto menos, cuanto menos relación haya entre ellos. La correlación
entre el test y el criterio suele llamarse coeficiente de validez. El valor práctico de este
procedimiento es insustituible pero no logra ocultar su insuficiencia teórica. Por ejemplo,
si un test que dice medir inteligencia discrimina bien entre los alumnos peores y mejores
de una clase, este valor práctico no garantiza que sea verdaderamente un test de
inteligencia.
- modo intrínseco: consiste en descubrir cuáles son los procesos y funciones que
reclaman la solución del test. Supongamos que el test de inteligencia se propone
apreciar la capacidad de razonamiento, ¿lo consigue el test?, ¿exige en verdad
razonar?, ¿cómo comprobarlo?, ¿hay un solo modo de razonar o hay varios? Si hay
varios ¿son independientes entre sí? Por otra parte ¿cabe limitar la inteligencia al
razonamiento? ¿no cubrirá también otras funciones y procesos, como abstraer,
comparar, comprender, etc.? En definitiva ¿cuántas son las aptitudes que cabe
distinguir en el campo de la actividad inteligente? ¿cuántos y cuáles son los rasgos
fundamentales en los demás campos del psiquismo?
El medio experimental de enfrentarse con estas cuestiones y abordar estos problemas
será el procedimiento para comprobar intrínsecamente la validez de los tests. La validez
del test vendrá indicada por la medida en que con él se aprecie uno o varios de los
rasgos previa y experimentalmente determinados. El análisis factorial pretende ser
precisamente ese procedimiento.
EJEMPLO
(http://www.hrc.es/bioest/Anova_18.html)
Se quiere probar la eficacia de un somnífero estudiando posibles diferencias de la
misma por el sexo de los sujetos. Se eligen al azar dos grupos de insomnes varones y
otros dos de mujeres y tanto para los hombres como para las mujeres se suministra a
un grupo el somnífero y a otro un placebo y se mide, en minutos, el tiempo que tardan
en dormirse.
Los resultados son:
Placebo Somnífero
30 35
50 32
45 30 Hombre
47 25
38 30
50 42
35 30
46 15 Mujer
25 18
32 23
212
Se trata de un anova de dos factores fijos. Llamamos primer factor a la droga que tiene
dos niveles: placebo y somnífero. El segundo factor es el sexo también con 2 niveles:
hombres y mujeres. El tamaño de las muestras es n=5.
La tabla de anova es:
Fuente de GL SS MS
variación
Somnífero 1 696,2 696,2
Sexo 1 105,8 105,8
Interacción 1 0,2 0,2
Error 16 1197,6 74,85
Total 19 1999,8
Se empieza contrastando la interacción: f = 0,2/74,85 = 0,0026 que como es menor que
F0,05(1,16)=4,49 no se rechaza la hipótesis nula de que no existe interacción.
A continuación se contrastan los factores: para el somnífero f = 696,2/74,85 = 9,3 que
es mayor que 4,49 por lo tanto existe efecto del somnífero y para el sexo f =
105,8/74,85 = 1,41 que como es menor que 4,49 no existe diferencias entre los sexos.
La estimación del efecto del somnífero será la diferencia entre las medias de los que lo
toman y los que tomaron placebo, sin tener en cuenta el sexo, una vez que se ha visto
que no tiene efecto.
Para analizarlo con un paquete estadístico, p.e. el Statgraphics, se necesita crear un
archivo con tres variables
213
y la tabla de medias
Por tanto la estimación del efecto del somnífero es 39,8 - 28,0=11,8 min.
En el ensayo clínico de los analgésicos descrito anteriormente se encuentran los
siguientes resultados:
Placebo Analgésico A <Analgésico B
35 20 22
40 35 42
60 50 30
50 40 35
50 30 22
La tabla de anova correspondiente:
Fuente de variación G.L. SS MS
Analgésico (tratamiento) 2 748,8 374,4
Paciente (bloque) 4 767,6 191,9
Error 8 409,2 51,15
Total 14 1925,6
Como resultado final se acuerdo a los contrastes de hipótesis se hacen:
para el analgésico f=374,4/51,15=7,32 que como es mayor que F0,05(2,8)=4,46 existe un
efecto del tratamiento.
para los bloques f=191,9/51,15=3,75 que es menor que F0,05(4,8)=3,84 por tanto no hay
componente añadida por los pacien
Definición
El análisis de covarianza es un procedimiento muy importante en experimentación.
Utiliza el análisis de varianza y el de regresión para eliminar la variabilidad que existe
en la variable independiente X; también ajusta medias de tratamiento y así estima
mucho mejor el efecto de la variable independiente X sobre la variable dependiente Y.
El análisis de covarianza trata de dos o más variables medidas y donde cualquier
variable independiente medible no se encuentra a niveles predeterminados, como en
un experimento factorial. Este aparte trata de la covarianza lineal. A menudo, una
relación lineal es una aproximación razonablemente buena para una relación no lineal
con tal que los valores de las variables independientes no cubran un intervalo muy
amplio.
Análisis de la varianza
donde, como nos temíamos, la edad media de las mujeres con estudios de 2º o 3º
grado es inferior a la de los otros grupos, lo que por sí solo podría explicar las
diferencias encontradas en cuanto a la media de PAS.
Utilizando el análisis de la covarianza nos planteamos la posiblidad de "corregir" o
"ajustar" esa diferencia de edad, con el fin de hacer comparables los grupos. Para ello
se construye un modelo de regresión entre la variable resultado PAS y la variable de
confusión EDAD y la pregunta que nos hacemos es ¿explica la regresión por sí sola la
diferencia de PAS media observada entre los grupos?.
Vamos pues a estimar una ecuación de regresión entre la PAS y la EDAD, pero ¿qué
tipo de regresión?, porque tenemos tres posibilidades, que vamos a representar para el
caso de que haya sólo dos grupos de estudio:
219
Fig. 5
Veamos cuales son nuestros resultados cuando efectuamos un análisis de la
covarianza en el ejemplo planteado:
Análisis de la covarianza PAS
Medias
Introduccion
Como ya sabemos, la estadística es considerada como el conjunto de procedimientos
utilizados para clasificar, calcular, analizar y resumir los datos obtenidos de manera
sistemática.
Dentro de los principales análisis estadísticos que se pueden llevar a cabo, se
encuentran las pruebas estadísticas paramétricas (como la regresión lineal) y las
pruebas estadísticas no paramétricas.
Estas últimas, objeto del presente estudio, en realidad son poco utilizadas a pesar de la
potencia y certeza de sus resultados. Normalmente se utilizan cuando no se dispone de
información suficiente de la población de la cual se extrajeron los datos; careciendo
224
entonces de un soporte para la realización de una inferencia con base a una muestra
observada.
ANALISIS NO PARAMETRICOS
Para realizar este tipo de análisis, se debe partir de las siguientes consideraciones:
La mayoría de estos análisis no requieren de presupuestos acerca de la forma de la
distribución poblacional y acepta distribuciones no normales.
Las variables no necesariamente tienen que estar medidas en un nivel por intervalos o
de razón.
PRUEBAS NO PARAMÉTRICAS
En estas técnicas, solamente se necesitan conocimientos elementales de matemáticas,
pues los métodos son relativamente más sencillos que en las pruebas paramétricas. En
estas pruebas, también se tienen supuestos, pero son pocos y no tienen que ver con la
naturaleza de la distribución de la población, por lo que a estas técnicas también se les
conoce como de libre distribución.
225
Una limitación que tienen es que no son aplicables a casos en los que se desean
manejar muchas variables al mismo tiempo, para estos casos, sí se requeriría una
prueba paramétrica; lo que sí se requiere y en general es el supuesto que se debe
cumplir en la mayoría de las pruebas no paramétricas para confiar en ellas, es que la
muestra haya sido seleccionada en forma probabilística.
Además del problema de los supuestos, algunos experimentos o estudios que se
deseen realizar producen respuestas que no es posible evaluar con la escala que tiene
más ventajas, por ejemplo, cuando los datos solamente se encuentran en una escala
ordinal como cuando se evalúan las habilidades de los vendedores, o el atractivo de
cinco modelos de casas, o la preferencia por sopas de cinco marcas diferentes. En
general aspectos como la habilidad o preferencias de un alimento o producto,
solamente los podemos ordenar; resultados de este tipo se presentan frecuentemente
en estudios de mercado y en otros del campo de las ciencias sociales.
Las pruebas que se mencionarán son las que se podrían necesitar con mayor
frecuencia, se mencionarán sus principales características y aplicaciones, además de la
prueba paramétrica a la que podrían sustituir en caso necesario, así como los
supuestos en los que se basa la prueba, que como se podrá ver, son menos rigurosos
que para las pruebas paramétricas.
4. Pruebas de aleatoriedad
Muchos métodos de tipo inferencial, se basan en el supuesto de que se manejan
muestras aleatorias. Cuando se tiene una aplicación en la que es difícil saber si esta
suposición se justifica o cuando no es posible seleccionar una muestra aleatoria por
contar solamente con cierta información; se tienen dentro de las técnicas no
paramétricas varios métodos que hacen posible juzgar la aleatoriedad sobre la base del
orden o secuencia en el que se realizan las observaciones o en el que los puntajes u
observaciones fueron obtenidos originalmente. Lo que se analiza es si aparecen
patrones de los que se sospeche no sean aleatorios.
En las variables de tipo nominal, una corrida es una sucesión de letras u otro símbolo
idénticos que van seguidos o precedidos de otra letra, símbolo, diversas letras o de
ninguna, si se encuentra en el inicio o al final de una sucesión.4 Por ejemplo, cuando se
lanza una moneda diez veces y si representamos por A el águila y con S el sol, se
puede presentar la siguiente sucesión de resultados:
A SS AAA S AA S
1 2 3 4 5 6
Aquí se presentan seis corridas o rachas. Esta prueba puede aplicarse a variables de
tipo cualitativo y cuantitativo, en el segundo caso, se utiliza la mediana como medida de
referencia y a los valores que caigan arriba de ella se les asigna un signo positivo (+) o
una letra como por ejemplo la A y a los que caigan abajo de ella, se les asigna el signo
negativo (-) o una letra distinta, como por ejemplo la B y a partir de los signos o letras
asignados, se identifican las rachas o corridas.
En estos casos, el número de corridas que se tiene es una buena indicación de una
posible falta de aleatoriedad, que se presentaría con pocas o demasiadas corridas. Aquí
se prueba aleatoriedad en el proceso de generación de una serie de observaciones de
una variable aleatoria que sólo toma dos valores y la probabilidad de cada uno de ellos
es 0.5, por lo cual la prueba se basa en una distribución binomial con probabilidad igual
a 0.5. Se tiene una tabla realizada a partir de la distribución mencionada, mediante la
que se hace la prueba de aleatoriedad de rachas en la que se encuentran los valores
críticos del número de rachas tomando en cuenta el número de elementos de una clase
(n1) y el número de elementos de la otra clase (n2). Cuando n1 y n2 son mayores que 20,
la distribución muestral se puede determinar en forma muy aproximada con una
distribución de probabilidad normal.
5. Medidas de asociación
Cuando se tienen observaciones formadas por una pareja de valores a partir de dos
variables, surge la pregunta o necesidad de conocer acerca de si las variables estarán o no
relacionadas y qué tan fuerte es esa relación. Para saber esto, generalmente se piensa en
obtener un coeficiente de correlación que nos indique el grado de relación lineal entre las
variables, pero debe tenerse cuidado de no interpretarlo como una medida de la relación
228
causal entre las variables y también tomar en cuenta que si la relación no es lineal, la
correlación no detecta la relación existente entre las variables.
En la estadística paramétrica se puede calcular el coeficiente de correlación de Pearson,
que se puede aplicar a variables que se miden en escala de intervalo o mayor, pero bajo el
supuesto de que los datos se distribuyen en base a una distribución normal bivariada,
cuando esto no se cumple o cuando la escala de medida solamente es ordinal, es
preferible usar una medida de asociación de las que se tienen en la estadística no
paramétrica.
Un coeficiente de correlación que se basa en rangos y que es muy utilizado, es el de
Sperman éste resultado es muy fácil de calcular porque su cálculo es semejante al de
correlación que generalmente se usa. Sperman desarrolló un trabajo en 1940 donde
presentó este coeficiente que en lugar de utilizar los valores de las variables, utilizaba los
rangos asociados a ellas, mediante éste se tiene una medida de asociación y además
permite probar hipótesis; el único supuesto que tiene es que la escala de medida de la
variable es al menos ordinal.
Además de este coeficiente que nos permite medir la asociación entre dos variables, hay
otras medidas de asociación para aquéllos casos en los que la escala con la que se miden
las variables es de tipo nominal.
6. PRUEBA DE INDEPENDENCIA
En el análisis de independencia se considera que la muestra, una vez escogida, se
clasifica según los criterios de interés; por ello se supone que las muestras provienen
de una población.
En las aplicaciones estadísticas es frecuente interesarse en calcular si dos variables de
clasificación, ya sea cuantitativa o cualitativa, son independientes o si están
relacionadas. En situaciones como las siguientes, se puede estar interesado en
determinar si dos variables están relacionadas:
¿Están relacionados los hábitos de lectura con el sexo del lector?
¿Están relacionadas las calificaciones obtenidas con el número de faltas?
¿Es independiente la opinión sobre la política exterior de la política partidista?
¿Es independiente el sexo de una persona de su preferencia en colores?
¿Está relacionado el sexo con tener una educación universitaria?
¿Están relacionadas las enfermedades del corazón con el tabaquismo?
¿Son independientes el tamaño de una familia y el nivel de educación de los padres?
¿Está relacionado el desempleo con el incremento de la criminalidad?
229
Entonces:
H0: La calidad de un producto electrodoméstico es independiente a su precio.
Ha: La calidad de un producto electrodoméstico no es independiente a su precio.
Una vez establecidas nuestras hipótesis, procederemos a elaborar una tabla de
contingencia, la cual es una combinación de dos o mas tablas de distribución de
frecuencia, arregladas de manera que cada celda o casilla de la tabla resultante,
represente una única combinación de nuestras variables (precio y calidad).
TABLA DE CONTINGENCIA DEL ANALISIS DE LA RELACION QUE EXISTE ENTRE
EL PRECIO Y LA CALIDAD DE LOS APARATOS ELECTRODOMESTICOS
Ahora, supongamos que se ha hecho un muestreo aleatorio simple de 150 aparatos
electrodomésticos. Después de someterlos a estudios exhaustivos para determinar su
calidad y comparar sus respectivos precios, procederemos a vaciar los resultados en
nuestra tabla de contingencia, que obtendrá las frecuencias observadas (FOi) para las
nueve combinaciones o categorías existentes:
Posteriormente, se calculan las frecuencias esperadas (FEi) para cada celda,
basándonos en el siguiente razonamiento:
230
En nuestro caso:
Gl = (3-1)(3-1) = 4
Entonces acudimos con los grados de libertad que corresponden a la tabla de
distribución ji cuadrada (anexo 1), eligiendo nuestro nivel de confianza (0.05 o 0.01). Si
nuestro valor calculado de X2 es igual o superior al de la tabla, decimos que las
variables están relacionadas, por lo que rechazamos la hipótesis nula.
En nuestro caso:
2 = 33.80
X2.05 = 9.48773
X2.01 = 13.2767
Por lo tanto, podemos concluir que en nuestro caso, la hipótesis nula es completamente
falsa, ya que si existe una dependencia entre nuestras variables (precio y calidad).
Bibliografía Complementaria
Gene V. Glass y Julien C. Stanley, Métodos estadísticos aplicados a las ciencias
sociales, Madrid: Prentice Hall Internacional, 1974, p. 7.
2
Alberto Castillo M. y Mario Miguel Ojeda R., Principios de estadística no paramétrica,
Xalapa: Universidad Veracruzana, 1994, p.19.
3
William Mendenhall , Estadística para administradores, México: Grupo Editorial
Iberoamérica, 1990, pp. 660-665
Sidney Siegel, Estadística no paramétrica, México: Editorial Trillas, 1991, pp. 74-79
Alberto Castillo M. y Mario Miguel Ojeda R., op.cit. pp. 143-146.
232
Bonilla Gildaberto, Métodos prácticos de inferencia estadística, Trillas 1991. ISBN 968-
24-3960-4.
Kazmier Leonard J., Estadística aplicada a la administración y a la economía,
McGrawHill, 3ª ed 1998. ISBN 970-10-0961-4.
Freund John E. y Simon, Estadística elemental, Prentice Hall, 8ª ed 1994. ISBN 0-13-
602699-0.
Levin Richard I y Rubin, Estadística para administradores, Prentice may, 6a ed, ISBN
968-880-675-7
Biblioteca de Consulta Encarta 2003, Microsoft Corporation.
Introducción:
Creo que el estudiante o lector deseara o necesitara llevar a cabo análisis estadísticos
de sus datos en varias ocasiones, por lo que a pesar de que en el curso de estadística
descriptiva trata con mas detalle todo lo relacionado con las diversas pruebas
estadísticas especificas, en esta unidad se tratara básicamente de ilustrar con
ejemplos prácticos para cada situación en especial que tipo de herramienta estadística
aplica, o que pruebas estadísticas son apropiadas para analizar los datos,
dependiendo de las hipótesis formuladas y los niveles de medición de las variables
La relación que existe entre el análisis estadístico de los datos, la descripción de estos
y su interpretación, varía entre unos estudios y otros.
Esta unidad proporcionara en forma las bases que sustentan ambos tipos de
estadística, sin ser su propósito el de dar una visión detallada de los métodos
estadísticos mismos. Para el estudiante que se interese en profundizar en este campo,
ya sea en el curso de estadística descriptiva, o al final de la unidad consular las
referencias, o lecturas recomendadas al respecto.
Objetivos:
Entender que no se aplican las pruebas estadísticas simplemente por aplicarlas, sino
que se aplican con sentido y justificación.
Conocer las principales pruebas estadísticas desarrolladas para las ciencias sociales y
naturales, así como sus aplicaciones, situaciones en que se utiliza cada una y formas
de interpretarlas.
Introducción.
En el presente capitulo se tratara de dar una visión general de las pruebas estadísticas
que mas se emplean en el análisis de datos. Existen estudios en los que un análisis
estadístico no es necesario, debido al reducido tamaño de la muestra o a que el
investigador se interesa por llevar a cabo un estudio cualitativo y no cuantitativo.
Una vez que los datos han sido codificados y transferidos a una matriz, así como
guardados en un archivo, el investigador puede proceder a analizarlos.
Figura 4
La Estadística descriptiva, una vez que se han recogido los valores que toman las
variables de nuestro estudio (datos), procederemos al análisis descriptivo de los
mismos. Para variables categóricas, como el sexo o el estadiaje, se quiere conocer el
número de casos en cada una de las categorías, reflejando habitualmente el porcentaje
que representan del total, y expresándolo en una tabla de frecuencias.
Para variables numéricas, en las que puede haber un gran número de valores
observados distintos, se ha de optar por un método de análisis distinto, respondiendo a
las siguientes preguntas:
c. ¿Alrededor de qué valor se agrupan los datos?
d. Supuesto que se agrupan alrededor de un número, ¿cómo lo
hacen? ¿muy concentrados? ¿muy dispersos?
Lección 40. Distribucion de frecuencias, medidas de tendencia central y de
dispersion
a. distribución de frecuencias
. ¿Qué es una distribución de frecuencias?
Es un conjunto de puntuaciones ordenadas en sus respectivas categorías
Lección 40. Distribución y Tablas de frecuencias.
http://www.universidadabierta.edu.mx/SerEst/MAP/METODOS%20CUANTITATIVO
S/Pye/tema_11.htm
mediante una tabla en la que se representa los variables mediante variables con
nombre como (xi) y el número de veces en que un dato se representara mediante
frecuencias, frecuencias absolutas, frecuencias relativas. La representación de esta
tabla mediante frecuencias se le conoce como tabla estadística cuya función es la
determinar la frecuencia de cada clase las cuales aparecen a un lado de cada clase
descriptiva
Cualitativos Cuantitativos
EJEMPLO:
A) Se preguntó a un grupo de alumnos de Ingeniería Industrial su materia preferida.
240
Distrib. de frecuencia
Respuestas obtenidas datos f
Distrib. de frecuencia
Respuestas obtenidas datos f
157 1
158 2
160 4
161 2
162 2
163 2
164 1
165 2
242
166 2
168 5
169 1
170 3
172 1
TotN = 35
Grupos
f
(clases)
151-
6 Los grupos deben formarse de igual tamaño
155
156-
8 (tamaño de clase : c)
160
161-
9 El total de grupos o clases no deben ser menor a
165
166- 11 5 ni mayor a 15
243
170
171-
1
175
N= 35
Los límites extremos de cada clase se les llama Límite Inferior y Superior de
clase respectivamente. En la la. Clase 151 es el L.I. , y 155 es el L.S.
Existen también Límites Reales Inferior y Superior de clase, estos se obtienen
sumando el límite superior de un intervalo de clase con el límite inferior de la clase
siguiente y dividiéndolos entre dos.
Marca de clase es el punto medio de cada clase y se obtiene sumando los límites
de clase y dividiéndolos entre dos.
Tamaño o anchura de clase es la diferencia entre los límites reales de clase, o la
diferencia entre los límites de clase más una unidad (la misma que se esté trabajando)
ó la diferencia entre las marcas de clase.
Por ejemplo:
En la distribución de frecuencias anterior, se tiene:
151-
6 150.5-155.5 153 c=5
155
156-
8 155.5-160.5 158
160
161-
9 160.5-165.5 163
165
244
166-
11 165.5-170.5 168
170
171-
1 170.5-175.5 173
175
N=35
R = 172 - 151 = 21
Grupo1
calif F
5 3
6 8
7 14
246
8 9
9 4
10 2
Total 40
Grupo2
-Histograma.
-Polígono de Frecuencias.
-Pictograma.
247
Diagrama de barras
Se utilizan rectángulos separados, que tienen como base a cada uno de los
datos y como altura la frecuencia de ese dato.
Ejemplo: En la siguiente tabla se muestra el total de vacunas aplicadas durante el
verano de l991 en un estado de la República Mexicana.
Datos Fr(%)
f (en miles)
(vacunas) (redondeado
BCG 47 17
SABIN 111 41
DPT 73 27
SARAMPION 41 15
Histograma.
Se utiliza en datos cuantitativos en distribuciones de frecuencia. Son rectángulos
verticales unidos entre sí, en donde sus lados son los límites reales inferior y superior
de clase y cuya altura es igual ala frecuencia de clase.
Con la distribución de frec. anterior se tiene:
249
Polígono de Frecuencias:
Consiste en una serie de segmentos que unen los puntos cuyas abscisas son los
valores centrales de cada clase y cuyas ordenadas son proporcionales a sus
frecuencias respectivas.
Gráfica Circular:
Se forma al dividir un círculo en sectores circulares de manera que:
a) Cada sector circular equivale al porcentaje correspondiente al dato o grupo que
representa.
b) La unión de los sectores circulares forma el círculo y la suma de sus porcentajes
es 100.
Pictograma:
Se utiliza un dibujo relacionado con el tema, para representar cierta cantidad de
frecuencias.
Este tipo de gráfica atrae la atención por los dibujos, pero la desventaja es que
se lee en forma aproximada.
Ejemplo:
En una biblioteca de una escuela se tienen los siguientes libros:
Libros f
Biologia 25
251
Matematicas 30
Fisica 43
Quimica 20
Filosofia 10
Total 128
Como ejemplo, consideremos 10 pacientes de edades 21 años, 32, 15, 59, 60, 61, 64,
60, 71, y 80. La media de edad de estos sujetos será de:
Más formalmente, si denotamos por (X1, X2,...,Xn) los n datos que tenemos recogidos de
la variable en cuestión, el valor medio vendrá dado por:
Esta varianza muestral se obtiene como la suma de las de las diferencias de cuadrados
y por tanto tiene como unidades de medida el cuadrado de las unidades de medida en
que se mide la variable estudiada.
En el ejemplo anterior la varianza sería:
S x 2=
CV de la variable peso =
CV de la variable TAS =
A la vista de los resultados, observamos que la variable peso tiene mayor dispersión.
Cuando los datos se distribuyen de forma simétrica (y ya hemos dicho que esto ocurre
cuando los valores de su media y mediana están próximos), se usan para describir esa
variable su media y desviación típica. En el caso de distribuciones asimétricas, la
mediana y la amplitud son medidas más adecuadas. En este caso, se suelen utilizar
además los cuartiles y percentiles.
Los cuartiles y percentiles no son medidas de tendencia central sino medidas de
posición. El percentil es el valor de la variable que indica el porcentaje de una
distribución que es igual o menor a esa cifra.
Así, por ejemplo, el percentil 80 es el valor de la variable que es igual o deja por debajo
de sí al 80% del total de las puntuaciones. Los cuartiles son los valores de la variable
256
que dejan por debajo de sí el 25%, 50% y el 75% del total de las puntuaciones y así
tenemos por tanto el primer cuartil (Q1), el segundo (Q2) y el tercer cuartil (Q3).
Prueba “T “
Definición: Es una prueba estadistica para evaluar si dos grupos difieren entre si de
manera significativa respecto a sus medias. O hasta que punto una diferencia entre dos
medias es mayor de lo que cabe esperarse se deba al azar.
Utilización: Suele utilizarse cuando necesitamos conocer, hasta que punto una
diferencia entre es mayor de los que cabe esperarse se deba al azar, para muestras
cuyo numero de elementos sea inferior a a treinta n < 30 ).1
Tabla 6 Tabla 7
Dif.medias 0.41 Trat. A Trat. B
Err.est.dif. 1.11 Media 2,63 3,04
t Student 0.37 Desv.Típ. 2,45 2,52
Gl 18
P 0.7165
Intervalo 95% para la dif. de medias -1.93 a 2.75
258
Z= P1 - P2
P q +P q
N1 N2
q1 = 1 – P1
q2 = 1 – P2
Análisis de covarianza
REFERENCIAS BIBLIOGRÁFICAS
Anderson, G.L. (1989). Critical ethnography in education: Its origins, current status and
new directions. Review of Educational Research, 59(3), 249-270.
Cervo, L .A., y Alcino, B.P. Metodología científica. Editorial Mc Graw –Hill. Coeditores.
Bogota.1983.137 p.
CHitaroni, Horacio – "El análisis de los datos: técnicas de análisis cuantitativos. Análisis
descriptivos. La lógica de la comparación. Cruces de variables". – Material de cátedra.
USAL. Facultad de Ciencias Sociales. Bs. As., 2005:
Clanchy, J y Ballard, B.; Cómo se hace un trabajo académico. Guía práctica para
estudiantes universitarios. Zaragoza, 1995, 176 pp.
Dewey, J. (1934). Art as experience. New York: Minton, Balch. Dewey, J. (1938). Logic:
The theory of inquiry. New York: Holt. Erickson, F. (1986). Qualitative methods in
research on teaching. En M.C. Wittrock, (Ed.), The handbook of research in teaching (3¦
edición). New York: MacMillan, pp. 119-161.
Gallego, A; Ser doctor: Cómo redactar una tesis doctoral. Madrid, Fundación
Universidad-Empresa, 1987.
262
Goetz J.P. y LeCompte, M.D. (1984). Ethnography and qualitative design in educational
research. New York: Academic Press. Guttentag, M. (1971). Evaluation and society.
Personality and Social Psychology Bulletin, 3, 31-40.
Lasso De La Vega, J; Cómo nace una tesis doctoral. Técnicas, normas y sistemas de
la investigación científica y técnica. Madrid, Fundación Universitaria Española, 1977.
LeCompte, M.D. (1972). The uneasy alliance of community action and research. School
Review, 79, 125-132.
LeCompte, M.D. (1990). Review of Designing qualitative research, por C. Marshall y G.
Rossman, Qualitative Studies in Education, 3 (3), 295-298.
LeCompte, M.D. y Goetz, J. P. (1982). Ethnographic data collection and analysis in
evaluatlon research. Educational Evaluation and Policy Analysis, Fall, 387-400.
LeCompte, M.D. y Preissle, J. (1993). Ethnography and qualitative design in
educational research. San Diego: Academic Press. Lincoln, Y.S. y Guba, E. G. (1985).
Naturalistic inquiry. Beverly Hills, CA: Sage
House, E. (1979). The objectivity fairness and justice of federal evaluation policy as
reflected in the Follow-Through evaluation. Educational Evaluation and Policy Analysis,
1(1), 28-42.
Meek, Harriet W. (2003, May). The Place of the Unconscious in Qualitative Research.
Forum Qualitative Sozialforschung / Forum: Qualitative Social Research [On-line
Journal], 4(2). Disponible en: http://www.qualitative-research.net/fqs-texte/2-03/2-
03meek-e.htm.Accesado febrero 2006.
Rodríguez Del Ángel, J. Métodos de Investigación Pecuaria. Ed. Trillas, México, 1990.
208 p.
Sabino, C.A. Como Hacer una Tesis y elaborar toda clase de trabajos escritos.
Editorial Panamericana. 1ª Edicion. Bogota . 1996. 296 p.
Sandoval C, C. A. Investigación Cualitativa. Instituto Colombiano para el Fomento de la
Educación Superior , ICFES. Bogota, Colombia. 1996. 313 p.
Stake, R.E. (1978). The case study method in social inquiry. Educational Researcher 7,
5-8.
Tesh, R. (1990): Qualitative Research. Analysis, Types and Software Tools. London,
The Falmer Press.