Principios y Supuestos

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 6

ESCUELA SUPERIOR POLITÉCNICA DE CHIMBORAZO

FACULTAD DE MECÁNICA
ESCUELA DE INGENIERÍA INDUSTRIAL

MATERIA: Diseño Experimental.


ESTUDIANTE: Juan Carlos Villarroel Pérez.
CÓDIGO: 1672.
SEMESTRE: NOVENO “1”.
FECHA DE PRESENTACIÓN: Martes, 8 de Noviembre de 2016
TEMA: Supuestos que se deben cumplir en Diseño Experimental.
INTRODUCCIÓN
Actualmente las investigaciones que involucran la estimación cuantitativa de efectos
acuden necesariamente a los técnicos de la estadística tanto para la planeación de
experimentos como para la interpretación de resultados originados en ensayos
experimentales.

PRINCIPIOS BÁSICOS
El diseño de experimentos trata de fenómenos que son observables y repetibles. Por lo
tanto, sin el pensamiento estadístico, los conceptos de observabilidad y repetitividad
son inherentemente contradictorios. Cualquier cosa observada se aprecia con
variabilidad; nada ocurre exactamente de la misma forma dos veces, incluso las
mediciones del mismo evento varían.

Se debe ser muy cuidadoso en la planeación y el análisis de un experimento. El punto


de partida para una correcta planeación es aplicar los principios básicos del diseño de
experimentos: aleatorización, repetición y bloqueo, los cuales tienen que ver
directamente con que los datos obtenidos sean útiles para responder a las preguntas
planteadas, es decir, la validez del análisis de los datos se apoya en estos principios.

1. Aleatorización: Consiste en hacer las corridas experimentales en orden


aleatorio (al azar) y con material también seleccionado aleatoriamente. Este
principio aumenta la probabilidad de que el supuesto de independencia de los
errores se cumpla, lo cual es un requisito para la validez de las pruebas de

1
estadísticas que se realizan. También es una manera de asegurar que las
pequeñas diferencias provocadas por materiales, equipo y todos los factores no
controlados, se repartan de manera homogénea en todos los tratamientos. Por
ejemplo, una evidencia de incumplimiento o violación de este principio se
manifiesta cuando el resultado obtenido en una prueba está muy influenciado
por la prueba inmediata anterior.

2. Repetición: Es correr más de una vez un tratamiento o una combinación de


factores. Es preciso no confundir este principio con medir varias veces el mismo
resultado experimental. Repetir es volver a realizar un tratamiento, pero no
inmediatamente después de haber corrido el mismo tratamiento, sino cuando
corresponda de acuerdo con la aleatorización. Las repeticiones permiten
distinguir mejor qué parte de la variabilidad total de los datos se debe al error
aleatorio y cuál a los factores. Cuando no se hacen repeticiones no hay manera
de estimar la variabilidad natural o el error aleatorio, y esto dificulta la
construcción de estadísticas realistas en el análisis de los datos.

3. Bloqueo. Consiste en nulificar o tomar en cuenta, en forma adecuada, todos


los factores que puedan afectar la respuesta observada. Al bloquear, se supone
que el subconjunto de datos que se obtengan dentro de cada bloque (nivel
particular del factor bloqueado), debe resultar más homogéneo que el conjunto
total de datos. Por ejemplo, si se quieren comparar cuatro máquinas, es
importante tomar en cuenta al operador de las máquinas, en especial si se cree
que la habilidad y los conocimientos del operador pueden influir en el resultado.
Una posible estrategia de bloqueo del factor operador, sería que un mismo
operador realizara todas las pruebas del experimento. Otra posible estrategia de
bloqueo sería experimentar con cuatro operadores (cuatro bloques), donde cada
uno de ellos prueba en orden aleatorio las cuatro máquinas; en este segundo
caso, la comparación de las máquinas quizás es más real. Cada operador es un
bloque porque se espera que las mediciones del mismo operador sean más
parecidas entre sí que las mediciones de varios operadores.

VERIFICACIÓN DE SUPUESTOS DEL MODELO


La validez de los resultados obtenidos en cualquier análisis de varianza queda
supeditada a que los supuestos del modelo se cumplan. Estos supuestos son
normalidad, varianza constante (igual varianza de los tratamientos) e
independencia. Esto es, la respuesta (Y) se debe distribuir de manera normal, con la
misma varianza en cada tratamiento y las mediciones deben ser independientes.

Es una práctica común utilizar la muestra de residuos para comprobar los supuestos
del modelo, ya que si los supuestos se cumplen, los residuos o residuales se pueden ver
como una muestra aleatoria de una distribución normal con media cero y varianza
constante. Los residuos, e, se definen como la diferencia entre la respuesta observada Y
y la respuesta predicha por el modelo Y’, lo cual permite hacer un diagnóstico más
directo de la calidad del modelo, ya que su magnitud señala qué tan bien describe a los
datos el modelo.

El modelo lineal que se espera es:

2
Y ij =u+ τ i+ ε ij

donde Yij (i = 1, 2, …, k; j = 1, 2, …, n) es el j-ésimo dato en el tratamiento i; u es la


media global, τ i es el efecto del tratamiento i y ε ij representa al error asociado con la
observación Yij.

El residuo asociado a la observación Yij está dado por:

e ij =Y ij −Y ' ij

Los supuestos del modelo lineal, en términos de los residuos son:

 Los e ij siguen una distribución normal con media cero.


 Los e ij son independientes entre sí.
 Los residuos de cada tratamiento tienen la misma varianza.

Para comprobar cada supuesto existen pruebas analíticas y gráficas. Muchas veces se
prefieren las pruebas gráficas. Éstas tienen el inconveniente de que no son “exactas”,
pero aun así, en la mayoría de las situaciones prácticas proporcionan la evidencia
suficiente en contra o a favor de los supuestos. El uso de las pruebas gráficas requiere
una fuerte evidencia visual para concluir que el supuesto en cuestión no se cumple, ya
que se requiere que la evidencia en contra de un supuesto esté soportada por más de
dos puntos.

Cuando son uno o dos los puntos que se salen del comportamiento esperado de las
gráficas se puede tratar de un problema de puntos descarriados, no de violación del
supuesto en cuestión. En ese caso debe investigarse la obtención de dichas mediciones
atípicas, ya que ese tipo de puntos pueden afectar sensiblemente los resultados del
análisis. Se puede utilizar una prueba analítica para subsanar las ambigüedades que
surjan en la interpretación visual (subjetiva) de las gráficas.

Es mejor prevenir en lo posible que los supuestos no se violen, para ello se aplican los
tres principios básicos del diseño de experimentos: repetición, aleatorización y
bloqueo. Es fácil encontrar situaciones en las que por no aplicar alguno de estos
principios no se cumplen los supuestos del modelo. Por ejemplo, por no aleatorizar el
orden en que se corren las pruebas pueden surgir problemas con el supuesto de
independencia.

1. Normalidad: Un procedimiento gráfico para verificar el cumplimiento del


supuesto de normalidad de los residuos consiste en graficar los residuos en
papel o en la gráfica de probabilidad normal que se incluye casi en todos los
paquetes estadísticos. Esta gráfica del tipo X-Y tiene las escalas de tal manera
que si los residuos siguen una distribución normal, al graficarlos tienden a
quedar alineados en una línea recta; por lo tanto, si claramente no se alinean se
concluye que el supuesto de normalidad no es correcto. Cabe enfatizar el hecho
de que el ajuste de los puntos a una recta no tiene que ser perfecto, dado que el
análisis de varianza resiste pequeñas y moderadas desviaciones al supuesto de
normalidad.

3
Gráfica de probabilidad en papel normal

Consideremos los N residuos ei que resultan del análisis de una varianza, o cualquier
conjunto de N datos de los cuales se quiere verificar su procedencia de una distribución
normal. Los pasos en la construcción de la gráfica de probabilidad normal para los
residuos son los siguientes:

1. Ordenar los N valores del menor al mayor y asignarles los rangos de 1 a N. Sean
ri, i = 1, 2,…, N, los datos en orden creciente.
2. Calcular una posición de graficación para cada dato en función de su rango y del
total de observaciones como (i – 0.5)/N, i = 1, 2,…, N.
3. El papel de probabilidad normal es un formato para realizar una gráfica del tipo
X-Y, donde una de las escalas es lineal y la otra es logarítmica. Sobre el papel de
probabilidad normal se dibujan las parejas (ri, (i – 0.5)/N).
4. Dibujar una línea recta sobre los puntos para tratar de dilucidar si se ajustan a
ella o no. La interpretación de la gráfica es subjetiva, pero muchas veces es
suficiente para llegar a una conclusión razonable sobre la distribución que
siguen los datos.

Gráfica de probabilidad normal en papel ordinario

A falta de papel de probabilidad normal, la gráfica de probabilidad también se puede


hacer en papel ordinario con escalas equiespaciadas en ambos ejes. Para ello, primero
se obtiene el valor normal estandarizado Zi que cumple la relación:

Entre dichas pruebas se encuentran la ji-cuadrada para bondad de ajuste, la prueba de


Shapiro-Wilks y la prueba de Anderson-Darling.

2. Varianza constante: Una forma de verificar el supuesto de varianza


constante (o que los tratamientos tienen la misma varianza) es graficando los
predichos contra los residuos (Y’ij vs. ei), por lo general Y’ij va en el eje
horizontal y los residuos en el eje vertical. Si los puntos en esta gráfica se
distribuyen de manera aleatoria en una banda horizontal (sin ningún patrón
claro y contundente), entonces es señal de que se cumple el supuesto de que los
tratamientos tienen igual varianza. Por el contrario, si se distribuyen con algún
patrón claro y contundente, como por ejemplo una forma de “corneta o
embudo”, entonces es señal de que no se está cumpliendo el supuesto de
varianza constante.

Otra gráfica que ayuda a verificar el supuesto es la gráfica de niveles de factor


contra residuos. En el eje X de esta gráfica se ponen los tratamientos o los
niveles de un factor, y en el eje vertical se agregan los residuos correspondientes
a cada tratamiento o nivel de factor. Si se cumple el supuesto de varianza
constante, se espera que la amplitud de la dispersión de los puntos en cada nivel
de factor tenderá a ser similar; y no se cumplirá el supuesto si hay diferencias
fuertes en esta amplitud.

4
En la interpretación de las gráficas debe considerarse que, en estadística, las
pequeñas diferencias por lo general no son significativas, y también debe
tomarse en cuenta la cantidad de observaciones hechas en cada nivel del factor,
puesto que este hecho puede impactar la dispersión aparente en cada
tratamiento. Otra interpretación de la gráfica de factor contra residuos es que
cuando los tratamientos o niveles muestran una dispersión diferente de sus
residuales correspondientes, es que el factor o los tratamientos tienen un efecto
significativo sobre la variabilidad de la respuesta.

Existe una gran cantidad de transformaciones propuestas que logran lo


anterior, entre las más frecuentes se encuentran la logarítmica y la raíz
cuadrada. La transformación se hace de la siguiente manera: se saca logaritmo a
los datos u observaciones por ejemplo, y con los datos transformados se vuelve a
hacer el análisis completo. En la sección “Transformaciones para estabilizar
varianzas”. También podemos aplicar una prueba analítica para la igualdad de
varianzas que es la “Prueba de Bartlett para homogeneidad de varianzas”.

3. Independencia: La suposición de independencia en los residuos puede


verificarse si se grafica el orden en que se colectó un dato contra el residuo
correspondiente. De esta manera, si al graficar en el eje horizontal el tiempo
(orden de corrida) y en el eje vertical los residuos, se detecta una tendencia o
patrón no aleatorio claramente definido, esto es evidencia de que existe una
correlación entre los errores y, por lo tanto, el supuesto de independencia no se
cumple.

Si el comportamiento de los puntos es aleatorio dentro de una banda horizontal,


el supuesto se está cumpliendo. La violación de este supuesto generalmente
indica deficiencias en la planeación y ejecución del experimento; asimismo,
puede ser un indicador de que no se aplicó en forma correcta el principio de
aleatorización, o de que conforme se fueron realizando las pruebas
experimentales aparecieron factores que afectaron la respuesta observada. Por
ello, en caso de tener problemas con este supuesto, las conclusiones que se
obtienen del análisis son débiles y por ello es mejor revisar lo hecho y tratar de
investigar por qué no se cumplió con ese supuesto de independencia, a fin de
reconsiderar la situación.

Una prueba analítica para verificar la independencia entre residuos


consecutivos es la prueba de Durbin-Watson. El problema con dicha prueba es
que no es capaz de detectar otros patrones de correlación entre residuos (no
consecutivos) que también son violatorios del supuesto de independencia.

CONCLUSIONES
Entonces luego de haberse realizado la consulta y una lectura comprensiva de la misma
se puede generar conceptos propios de fácil comprensión, que a continuación
detallamos:

 La Aleatorización consiste en hacer corridas experimentales en orden aleatorio


(al azar); este principio aumenta la posibilidad de que el supuesto de
independencia de los errores se cumpla.

5
 La Repetitividad es correr más de una vez un tratamiento o combinación de
factores.

 El Bloqueo es nulificar o tomar en cuenta en forma adecuada todos los factores


que pueden afectar la respuesta observada.

 La gráfica de probabilidad nos sirve para verificar visualmente si los datos


siguen una distribución de probabilidad específica.

 Para poder tener un buen diseño debemos aplicar correctamente los Principios
para así poder cumplir con cada uno de los supuestos y concluir con la
validación del diseño.

 Para la evaluación de cada uno de los Supuestos existen pruebas estadísticas


para ello también es necesario aplicar ya sean métodos gráficos o analíticos.

BIBLIOGRAFÍA
Pulido, H. G. (2008). Análisis y Diseño de Experimentos. México: Mc Graw Hill.

También podría gustarte