Diseño de Experimentos Uni 3

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 22

El diseño completamente al azar (DCA), es el

mas simple de todos los diseños que se


utilizan para comparar dos o mas tiramientos,
dado que sólo se consideran dos fuentes de
variabilidad: los tratamientos y el error
aleatorio.
Este se llama completamente al azar porque todas las
corridas experimentales se realizan en orden aleatorio
completo. De esta manera, si durante el estudio se hacen
en total n pruebas, éstas se corren al azar, de manera que
los posibles efectos ambientales y temporales se vayan
repartiendo equitativamente entre los tratamientos.

Supongamos que se tienen k poblaciones o tratamientos,


independientes y con medias desconocidas µ1, µ2,…µk, así
como varianzas también desconocidas pero que se
suponen iguales σ21= σ22=…=σ2k=σ2. Las poblaciones
pueden ser k métodos de producción, k tratamientos, k
grupos, etc., y sus medias se refieren o son medidas en
términos de la variable de respuesta.
El numero de tratamientos K es determinado por el investigador y
depende del problema particular de que se trata. El numero de
observaciones por tratamiento (n) debe escogerse con base en la
variabilidad que se espera observar en los datos, así como en la
diferencia mínima que el experimentador considera que es
importante detectar. Con este tipo de consideraciones, por lo
general se recomienda entre 5 y 30 mediciones en cada tratamiento.
Por ejemplo, se usa n=10 cuando las mediciones dentro de cada
tratamiento tienen un comportamiento consistente (con poca
dispersión). En el otro extremo, se recomienda n= 30 cuando las
mediciones muestran bastante dispersión. Cuando es costoso o
tardado realizar las pruebas para cada tratamiento se puede
seleccionar un numero menor de repeticiones, con lo cual solo se
podrán detectar diferencias grande entre los tratamiento.
ANOVA para el diseño completamente al azar (DCA)

El análisis de varianza (ANOVA) es la técnica central en el


análisis de datos experimentales. La idea general de esta técnica
es separar la variación total en las partes con las que atribuye
cada fuente de variación en el experimento. En el caso de DCA se
separan la variabilidad debida a los tratamientos y la debida al
error. Cuando la primera predomina “claramente” sobre la
segunda, es cuando se concluye que los tratamientos tienen
efecto, o dicho de otra manera, las medias son diferentes.
Cuando los tratamientos no dominan contribuyen igual o menos
que el error, por lo que se concluye que las medias sin iguales.
ANOVA
El objetivo del análisis de varianza en el DCA es probar la hipótesis
de igualdad de los tratamiento con respecto a la media de la
correspondiente variable de respuesta:

Donde τi es el efecto del tratamiento i sobre la variable de


respuesta. Si se acepta Ho se confirma que los efectos sobre la
respuesta de los k tratamientos son estadísticamente nulos
(iguales a cero), y en caso de rechazar se estaría concluyendo que
al menos un efecto es diferente de cero.
Ejemplo
Comparación de cuatro métodos de ensamble. un equipo de mejora
investiga el efecto de cuatro métodos de ensamble A, B, C y D, sobre
el tiempo de ensamble en minutos. en primera instancia, la
estrategia experimental es aplicar cuatro veces los cuatro métodos
de ensamble en orden completamente aleatorio (las 16 pruebas en
orden aleatorio). Los tiempos de ensamble obtenidos se muestran
en la tabla 3.1. si se usa el diseño completamente al azar (DCA), se
supone que, además del método de ensamble, no existe ningún otro
factor que influya de manera significativa sobre la variable de
respuesta (tiempo de ensamble)
Usando las tablas F, se lee que el valor critico para

clic

, entonces se rechaza H0, con lo cual se


concluye que si hay diferencia o efecto de los
métodos de ensamble en cuanto a su tiempo
promedio.
COMPARACIONES Y PRUEBAS DE RANGO MULTIPLE
Después de que se rechazó la hipótesis nula en un análisis de
varianza, es necesario ir a detalle y ver cuales tratamientos son
diferentes. A continuación veremos tres estrategias distintas para
ir a ese detalle.

Comparación de parejas de medias de tratamientos


Cuando no se rechaza la hipótesis nula H0= µ1 = µ2 = µk = µ, el
objetivo del experimento está cubierto y la conclusión es que los
tratamientos no son diferentes. Si por el contrario se rechaza H0, y
por consiguiente se acepta la hipótesis alternativa HA: µi ≠ µj, para
un i ≠ j, es necesario investigar cuales tratamientos resultaron
diferentes, o cuales provocan la diferencia. Estas interrogantes se
responden probando la igualdad de todos los posibles pares de
medias, para lo que se han propuesto varios métodos, conocidos
como métodos de comparaciones múltiples o pruebas de rango
múltiple. La diferencia primordial entre los métodos radica en la
potencia que tienen para detectar las diferencias entre las medias.
Se dice que una prueba es mas potente si es capaz de detectar
diferencias mas pequeñas.
Método LSD (diferencia mínima significativa)

Una vez que se rechazó Ho en el ANOVA, el problema es probar la


igualdad de todos los posibles pares de medias con la hipótesis:
Ho: µi = µ
HA: µi ≠ µ

Para toda i ≠ j. Para k tratamientos se tienen en total k(k-1)/2 pares


de medias. Por ejemplo, si k=4 existen 4 x 3/2=6 posibles pares de
medias. El estadístico de prueba para cada una de las hipótesis
dadas anteriormente, es la correspondiente diferencia en valor
absoluto entre sus medias muestrales . Se rechaza la
hipótesis Ho: µi = µj

Donde el valor de tα/2,N-k se lee en las tablas de la distribución T de


Student con N-k grados de libertad que corresponden al error, el
CME es el cuadrado medio del error y se obtiene de la tabla de
ANOVA, ni y nj son el numero de observaciones para los
tratamientos i y j, respectivamente.
La cantidad LSD se llama diferencia mínima significativa (least
significanst difference), ya que es la diferencia mínima que debe
existir entre dos medias muestrales para considerar que los
tratamientos correspondientes son significativamente
diferentes. Así, cada diferencia de medias muestrales en valor
absoluto que sea mayor que el numero LSD se declara
significativa. Note que si el diseño es balanceado, es decir, si
n1= n=2…= nk = n, la diferencia mínima significativa se reduce a:

En caso de rechazar Ho se acepta la hipótesis alternativa HA: µi


≠ µj, la cual nos dice que las medias de los tratamientos i y j
son diferentes. El método LSD tiene una potencia importante,
por lo que en ocasiones declara significativas aun pequeñas
diferencias.
Ejemplo 3.4
Ilustramos esta prueba continuando con el ejemplo 3.3, en el cual,
con el ANOVA se rechazo la hipótesis Ho: µA = µB = µC = µD y se
acepta que al menos un par de medias de tratamientos (métodos
de ensamble) son diferentes entre si. Para investigar cuales pares
de hipótesis son estadísticamente diferentes se prueban los seis
posibles pares de hipótesis:

k(k-1)/2 k=4 existen 4 (4-1)/2=6


Utilizando el método de LSD. En el ANOVA de la tabla 3.6 se observa
que los grados de libertad del error son N-k = 12, y que el cuadrado
medio del error es CME= 2.46. si usamos una significancia
predefinida de α= 0.05, de la tabla T de Student con 12 grados de
libertad, se obtiene que t0.025, 12= 2.18. Como en cada tratamiento se
hicieron n=4 pruebas, entonces:

La decisión sobre cada una de las seis hipótesis listadas arriba se


obtiene al comparar las correspondientes diferencias de medias
muestrales en valor absoluto con el numero LSD= 2.42. Se
declaran significativas aquellas diferencias que son mayores a
este numero. Los resultados se muestran en la tabla 3.8, de donde
se concluye que µA=µB, µB=µD, µC=µD, mientras que µA≠µC, µB≠µC, y
µA≠µd. Note que son los mismos resultados que previamente se
obtuvieron en la grafica de medias, cuyos intervalos están basados
en este método.
Especifica, los intervalos en la gráfica de medias (means plot) con el
método LSD se obtienen con:

De esta forma, si dos intervalos se traslapan, entonces no habrá


diferencias entre las medias de los tratamientos correspondientes.
Notes que se está considerando como el error estándar o
desviación estándar de la correspondiente media muestral.
Método de Tukey
Un método mas conservador para comparar pares de medias de
tratamientos es el método de Tukey, el cual consiste en comparar las
diferencias entre medias muestrales con el valor critico dado por

Don CME es el cuadrado medio del error, n es el numero de


observaciones por tratamiento, k es el numero de tratamientos, N-K
es igual a los grados de libertad para el error, α es el nivel de
significancia prefijado y el estadístico qα (k,N-k) son puntos
porcentuales de la distribución del rango estudentizado, que se
obtiene de la correspondiente tabla en el apéndice. Se declaran
significativamente diferentes los pares de medias cuya diferencian
muestral en el valor absoluto sea mayor que Tα. A diferencia de los
métodos LSD y Duncan, el método de Tukey trabaja con error α muy
cercano al declarado por el experimentador.
Ejemplo
Para aplicar el método de Tukey al ejemplo de los métodos de
ensamble, a partir del ANOVA de la tabla 3.6, se toma la
información pertinente y de las tablas del rango estudentizado
dadas en el apéndice, para α= 0.05, se obtiene q 0.05 (4,12)= 4.20,
de manera que le valor critico es:

Que al compararlo con las diferencias de medias muestrales, los


resultados sobre las seis hipótesis son:
3.49

También podría gustarte