Comparaciones Multiples PDF
Comparaciones Multiples PDF
Comparaciones Multiples PDF
Prueba de t
Planteamiento de hipótesis
Para i i , i, i 1, 2, ,t
Nivel de significación
Estadística de prueba
Yi Yi
tc ~ tGLE / H 0 es verdadera
SYi Yi
donde :
GLE = Grados de libertad del error
1 1
SYi Yi CME
ni ni
Criterio de decisión
Se rechaza H 0 tc t
o tc t
tc t1 ,GLE tc t ,GLE
,GLE 1 ,GLE
2 2
H 0 : i i
H a : i i
Para i i , i, i 1, 2, ,t
Nivel de significación
En la prueba de t se acepta H 0 si
t
tc t
,GLE 1 ,GLE
2 2
Yi Yi
t
t
,GLE SYi Yi 1 ,GLE
2 2
t S
Yi Yi
Yi Yi t S
Yi Yi
1 ,GLE 1 ,GLE
2 2
Yi Yi t S
Yi Yi
1 ,GLE
2
Y se rechaza H 0 si
Yi Yi t S
Yi Yi
1 ,GLE
2
Entonces si definimos
DMS i, i t S
Yi Yi
o DLS i, i t S
Yi Yi
1 ,GLE 1 ,GLE
2 2
H 0 : A C
H a : A C
0.05
1 1
5.6
1 1
SYA YC CME 1.5275
nA nC 4 6
YA YC 61 68
tc 4.5826
SYA YC 1.5275
t 0.025,20 2.086 y t 0.975,20 2.086 , como tc t 0.975,20 , se rechaza H 0
H 0 : i i
H a : i i Para i i , i, i A, B, C, D
i A D B C
Yi. 61 61 66 68
ni 4 8 6 6
Prueba de t con R
> coag<-read.table("c:/victor/datos/coag.txt",header=TRUE)
> tiempo<-coag[,1]
> dieta<-coag[,2]
> pairwise.t.test(tiempo,dieta,p.adjust.method="none")
se utiliza la estadística
yi y j
t0 (1)
1 1
s2
ri rj
Siendo s 2 CME , el nivel de significación o probabilidad de error tipo I para una sola
prueba es una tasa de error con respecto a la comparación , C , es el riesgo que estamos
dispuestos a correr en una sola comparación .
Con la posibilidad de hasta 6 errores tipo I para 6 pruebas, se puede emplear otra forma
de error tipo I basada en el riesgo acumulado asociado con la familia de prueba en
estudio. La familia es el conjunto de comparaciones por pares como para el ejemplo del
párrafo anterior. El riesgo acumulado asociado con una familia de comparaciones se
conoce como la tasa de error tipo I con respecto al experimento, E . Es el riesgo de
cometer al menos un error tipo I en la familia de comparaciones en el experimento.
Para una familia de pruebas independientes, se puede evaluar la tasa de error tipo I con
respecto al experimento. Sin embargo, no todas las pruebas son independientes con la
ecuación dado en (1), ya que s 2 CME en el denominador es la misma, y en el
numerador de cada prueba contiene la misma media que en algunos otros estadísticos
t0 .
n
P x Cx 1 C
n x
(2)
x
para x 0,1, , n errores tipo I. La probabilidad de no cometer error tipo I es:
P X 0 1 C
n
(3)
E 1 1 C
n
(4)
La probabilidad E es el riesgo de cometer al menos un error tipo I entre las n
comparaciones independientes. Es el límite superior de la tasa de error tipo I con
respecto al experimento, para n pruebas en un conjunto de medias de tratamientos.
La relación
C 1 1 E
1/ n
(5)
Expresa la tasa de error tipo I con respecto a la comparación como una función de la
tasa de error tipo I con respecto al experimento o familiar.
En la siguiente tabla se muestra la relación entre la tasa de error tipo I del Experimento
o familiar y la tasa de error tipo I de la comparación
Para el caso del ejemplo de comparación de coagulación si fijamos una tasa de error
tipo I C 0.05 para cada comparación, la tasa de error tipo I para el experimento será
de E 1 1 .05 0.265 y si fijamos una tasa de error tipo I para el experimento de
6
Esta prueba fue propuesta por Tukey(1949), quien desarrolló un procedimiento que
proporciona una tasa con respecto al experimento en el sentido fuerte, para las
comparaciones por pares de todas las medias de tratamiento, que se usa para obtener
intervalos de confianza simultáneos de 100 1 % . La prueba se le conoce por varios
nombres, entre ellas “diferencia honestamente significativa”.
Para aplicar esta prueba sólo es necesario que los ij sea una variable aleatoria
independiente distribuida normalmente con media cero y variancia común 2 . Es decir
no se necesita que las comparaciones sean previamente planeada y que la prueba de F
en el ANVA resulte significativa.
Planteamiento de hipótesis
H 0 : i i
H a : i i Para i i , i, i 1, 2, ,t
Nivel de significación
donde:
q t , GLE =amplitud estudiantizada para la prueba de Tukey
t = número de tratamiento a comparar
GLE = Grados de libertad del error
1 1
SYi Yi CME
ni ni
Yi Yi w
i A D B C
Yi. 61 61 66 68
ni 4 8 6 6
q0.05 4, 20 3.96
H 0 : i i
H a : i i Para i i , i, i A, B, C, D
Con el paquete R
Para realizar esta pruebas con el lenguaje R bajar del CRAN los paquetes multcomp y
nvtnorm. Esto puede realizarse directamente usando el Menú para el caso que tuviera
Internet. Ente caso ir a Package y dentro de esto a la opción Install package(s) from
CRAN. Para el caso que no tuviera internet, se puede ir al CRAN y bajar los archivos
zip en www.cran.r-project/bin/windows, guardar estos archivos en una carpeta, luego ir
al menu de R a Package y dentro de este ir a la opción Install package(s) from local zip
files buscar la carpeta e instalar estos paquetes. Una vez instalado esto queda grabado en
una librería. Para usar estos paquetes primero instalar mediante la opción de Menu en
Packages e ir a la opción Load Packages y leer primero “nvtnorm” luego hacer lo
mismo con multcomp.
> coag<-read.table("d:/data2/coag.txt",header=T)
> mod<-aov(Tiempo~dieta,data=coag)
> summary(mod)
Df Sum Sq Mean Sq F value Pr(>F)
dieta 3 228.0 76.0 13.571 4.658e-05 ***
Residuals 20 112.0 5.6
> library(multcomp)
> cht <- glht(mod, linfct = mcp(dieta = "Tukey"))
> summary(cht)
Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
B - A == 0 5.000e+00 1.528e+00 3.273 0.01832 *
C - A == 0 7.000e+00 1.528e+00 4.583 < 0.001 ***
D - A == 0 -1.071e-14 1.449e+00 -7.39e-15 1.00000
C - B == 0 2.000e+00 1.366e+00 1.464 0.47487
D - B == 0 -5.000e+00 1.278e+00 -3.912 0.00433 **
D - C == 0 -7.000e+00 1.278e+00 -5.477 < 0.001 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘
’ 1
(Adjusted p values reported -- single-step method)
> coag<-read.table("d:/data2/coag.txt",header=T)
> mod<-aov(Tiempo~dieta,data=coag)
> TukeyHSD(mod,"dieta")
Tukey multiple comparisons of means
95% family-wise confidence level
$dieta
diff lwr upr p adj
B-A 5.000000e+00 0.7245544 9.275446 0.0183283
C-A 7.000000e+00 2.7245544 11.275446 0.0009577
D-A -1.421085e-14 -4.0560438 4.056044 1.0000000
C-B 2.000000e+00 -1.8240748 5.824075 0.4766005
D-B -5.000000e+00 -8.5770944 -1.422906 0.0044114
D-C -7.000000e+00 -10.5770944 -3.422906 0.0001268
H 0 : i 1
H a : i 1 , para i 2, ,t
Donde: 1 = es la media del tratamiento testigo o de control
Nivel de significación
Valor Crítico:
d tDunnet , t , GLE SYi Y1 , para i 2, ,t
donde :
Yi Y1 d , para i 2, ,t
H 0 : i A
H a : i A , para i B, C, D
0.05
Usando el paquete R
> library(multcomp)
> coag<-read.table("d:/data2/coag.txt",header=T)
> mod<-aov(Tiempo~dieta,data=coag)
> cdu <- glht(mod, linfct = mcp(dieta = "Dunnett"))
> summary(cdu)
Simultaneous Tests for General Linear Hypotheses
Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
B - A == 0 5.000e+00 1.528e+00 3.273 0.00955 **
C - A == 0 7.000e+00 1.528e+00 4.583 < 0.001 ***
D - A == 0 -1.071e-14 1.449e+00 -7.39e-15 1.00000
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)
t t t
Q CiYi. ni CiYi. , con n C i i 0
i 1 i 1 i 1
t t t
Q CiYi. n CiYi. , con C i 0
i 1 i 1 i 1
Contrastes Ortogonales:
t t
Dos contrastes: Q1 C1iYi. y Q2 C2 iYi. son ortogonales si
i 1 i 1
t t t
niC1i 0 ,
i 1
niC2i 0 y
i 1
nC C
i 1
i 1i 2i 0
t t
En el caso de igualmente repetido ( n1 n2 nt n ), Q1 C1iYi. y Q2 C2 iYi.
i 1 i 1
son ortogonales si
t t t
C1i 0 ,
i 1
C2i 0 y
i 1
C Ci 1
1i 2i 0
Nota: En un experimento con t tratamiento y dado un contraste base entonces se puede
formar t-1 contrastes ortogonales.
t t
Media y variancia de un contraste: Sea Q CiYi. ni CiYi. , entonces la media del
i 1 i 1
contraste está dado por:
t t t t
E Q E CiYi. E niCiYi. niCi E Yi. niCi i
i 1 i 1 i 1 i 1
t
E Q ni Ci i
i 1
y la variancia está dado por:
t t t
2 t
Var Q Var niCiYi. ni2Ci2Var Yi. ni2Ci2 niCi2 2
i 1 i 1 i 1 ni i 1
t
Var Q ni Ci2 2
i 1
Si los ij sea una variable aleatoria independiente distribuida normalmente con media
cero y variancia común 2 , entonces
t t
t t
Q CiYi. ni CiYi. ~ N niCi i , niCi2 2
i 1 i 1 i 1 i 1
Luego
t t
niCiYi. niCi i
Z i 1 i 1
~ N 0,1
t
nC
i 1
i i
2 2
GLE CME ~ 2
GLE
2
Z
t ~ tGLE
2GLE
GLE
Luego
t t
niCiYi. niCi i
i 1 i 1
t t t
nC
i 1
i i
2 2
niCiYi. niCi i
t i 1 i 1
2
i 1
GLE
t t
niCiYi. niCi i
t i 1 i 1
~ tGLE
t
CME ni C i
2
i 1
t
H 0 : ni Ci i 0
i 1
t
H a : ni Ci i 0
i 1
a un nivel de significación
Estadística de Prueba
t t
Q
t ~ tGLE / H 0 es verdadera, siendo Q CiYi. ni CiYi.
t
CME ni Ci2
i 1 i 1
i 1
Luego se acepta H 0 si t
tc t
, caso contrario se rechaza.
,GLE 1 ,GLE
2 2
t
H 0 : ni Ci i 0
i 1
t
H a : ni Ci i 0
i 1
a un nivel de significación
Estadística de Prueba
2
Q2
t
2 ni Ci2
Q Q
t2GLE i 1 ~ F1,GLE
t
CME ni Ci
t CME
CME ni Ci2
2
i 1 i 1
Si se hace
Q2
SCQ t
=Suma de cuadrado de contraste, entonces se puede usar la siguiente
nC
i 1
i i
2
estadística de prueba:
SCQ
Fc ~ F1,GLE / H 0 es verdadera
CME
Fuente de SC GL CM Fc
Variación
Entre Tratamiento SCTrat GLTrat CMTrat CMTrat / CME
Q1 SCQ1 1 SCQ1 SCQ1 / CME
Q2 SCQ2 1 SCQ2 SCQ2 / CME
. . . . .
. . . . .
. . . . .
Qt 1 SCQt 1 1 SCQt 1 SCQt 1 / CME
Dentro de SCE GLE CME
Tratamiento
Total SCTotal n. 1
t t
H 0 : ni Cli i 0 versus H a : ni Cli i 0 , para l 1, 2, , t 1
i 1 i 1
t t
donde : n C
i 1
i li 0 y nC C
i 1
i li l i 0 , para l l y l , l 1, 2, , t 1
2 2 2
t 2
t
t
2 nCi Yi . n CiYi. n CiYi.
i 1t i 1 i 1
Q
SCQ t t t
niCi2 nCi2
i 1
n Ci2
i 1 i 1
C
i 1
i
2
t
Luego, para el caso balanceado, se puede probar: H 0 : Ci i 0 versus
i 1
t
H a : Ci i 0 usando la siguiente suma de cuadrados de contraste
i 1
2
t
n CiYi.
SCQ i t1
Ci2 i 1
Ejemplo : Suponga que se tiene cuatro fertilizantes que se desea comparar, con tal
motivo se realizó un experimento bajo un DCA con cinco repeticiones por tratamiento,
obteniéndose los siguientes resultados:
Fertilizante
T1 T2 T3 T4
Yi. 73.8 74.2 69.0 71.8
SCE 10.4
Matriz de contraste
Fertilizante
Coeficientes T1 T2 T3 T4
C1i -1 -1 1 1
C2i -1 1 0 0
C3i 0 0 -1 1
Contrastes ortogonales
Q1 Y1. Y2. Y3. Y4.
Q2 Y1. Y2.
Q3 Y3. Y4.
Hipótesis:
( T1 y T2 ) versus ( T3 y T4 )
H 0 : 3 4 1 2 0 contra H a : 3 4 1 2 0
T1 versus T2
H 0 : 2 1 0 contra H a : 2 1 0
T3 versus T4
H 0 : 4 3 0 contra H a : 4 3 0
2
t
n C1iYi.
5 73.8 74.2 69.0 71.8
2
SCQ1 i 1 64.8
t 2 2 2 2
C1i
2
i 1
1 1 1 1
2
t
n C2iYi.
5 73.8 74.2
2
SCQ2 i 1 0.4
t 2 2
C2i
2
i 1
1 1
2
t
n C3iYi.
5 69.0 71.8
2
SCQ3 i 1 19.6
t 2 2
C3i
2
i 1
1 1
Contraste SC GL CM Fc
( T1 y T2 ) versus ( T3 y T4 ) 64.80 1 64.80 99.69*
T1 versus T2 0.4 1 0.4 0.62 ns
T3 versus T4 19.6 1 19.6 30.15*
Residual 10.4 16 0.65
*=Significativo ns = no significativo F 0.95,1,16 4.49
> vp<-c(73.8,74.2,69,71.8)
> sce<-10.4
> r=5
> ct<-c(-1,-1,1,1)
> scc1<-r*((t(ct)%*%vp)^2)/(sum(ct^2))
> scc1
[,1]
[1,] 64.8
> ct2<-c(-1,1,0,0)
> scc2<-r*((t(ct2)%*%vp)^2)/(sum(ct2^2))
> scc2
[,1]
[1,] 0.4
> ct3<-c(0,0,-1,1)
> scc3<-r*((t(ct3)%*%vp)^2)/(sum(ct3^2))
> scc3
[,1]
[1,] 19.6
> tr<-4
> gle<-r*tr-tr
> gle
[1] 16
> cme<-sce/gle
> fuente<-c("Q1","Q2","Q3","Residuals")
> gl<-c(1,1,1,gle)
> SC<-c(scc1,scc2,scc3,sce)
> CM<-SC/gl
> Fc<-c(round(CM[1:3]/CM[4],4),"")
> Fc1<-as.numeric(Fc[1:3])
> pvalue1<-round(1-pf(Fc1,1,gle),4)
> pvalue<-c(pvalue1,"")
> data.frame(fuente,gl,SC,CM,Fc,pvalue)
fuente gl SC CM Fc pvalue
1 Q1 1 64.8 64.80 99.6923 0
2 Q2 1 0.4 0.40 0.6154 0.4442
3 Q3 1 19.6 19.60 30.1538 0
4 Residuals 16 10.4 0.65
>
Prueba de Scheffe
Es una prueba que permite realizar pruebas sobre cualquier función estimable de
medias de tratamientos (o de funciones lineales de medias de tratamientos). Esto quiere
decir que se puede realizar infinitas pruebas simultáneas aunque en la práctica se
realice un número finito de pruebas simultáneas. Inclusive esta prueba válida para
comparaciones sugeridas por los datos. Luego, esta prueba de hipótesis sobre las
siguientes funciones lineales de parámetros:
t t
L Ci i donde C i 0
i 1 i 1
Para aplicar esta prueba se requiere que los ij son variables aleatorias independientes
distribuidas normalmente con media cero y variancia común 2 . Entonces, para probar
las siguientes hipótesis
t
H 0 : Ci i 0 contra
i 1
t
H a : Ci i 0
i 1
Nivel de significación
t
Lˆ CiYi.
i 1
t
Ci2
S Lˆ CME
i 1 ni
Se acepta H 0 , si
L̂ VCS
Se rechaza H 0 , si
20 L̂ VCS
H 0 : A B C D 0 contra la alternativa H a : A B C D 0
0.05
A B C D
Yi. 61 66 68 61
ni 4 6 6 8
Ci 1 1 -1 -1
Ci2
t 12 12 12 12
S Lˆ CME 5.6 1.991649
i 1 ni
4 6 6 8
Usando R
> tiempo<-coag[,1]
> dieta<-coag[,2]
> yp<-tapply(tiempo,dieta,mean)
> ci<-c(1,1,-1,-1)
> lab<-abs(t(ci)%*%yp)
> lab
[,1]
[1,] 2
> re<-tapply(tiempo,dieta,length)
> mod<- lm(tiempo~dieta)
> cme<-deviance(mod)/df.residual(mod)
> sdl<-sqrt(cme*(sum(ci^2/re)))
> vcs<-sdl*sqrt(3*qf(0.95,3,20))
> vcs
[1] 6.072138
El Método de Bonferroni
Este método se basa en la desigualdad de Bonferroni, el cual dice: dado una secuencia
de eventos Aj , P j
Aj j P Aj . De esta manera la posibilidad de uno o más
error tipo I es una colección arbitraria de la prueba es a lo más la suma de sus
t
posibilidades separada de error tipo I. Para el caso que se desee realizar nc de
2
tratamientos se puede seguir el siguiente procedimiento:
H 0 : i i
H a : i i , para i i , y i, i 1, 2, .t
VCB i, i t S
Y Y
1 ,GLE i . i.
2 nc
donde:
1 1
SYi . Yi. CME
ni ni
Se rechaza H 0 para i i , y i, i 1, 2, . t , si
Para aplicar esta prueba se requiere que ij son variables aleatorias independientes
distribuidas normalmente con media cero y variancia común 2 . Además, en este caso
las comparaciones deben ser planeadas de antemano. Esta prueba es recomendable
cuando se desea realizar pocas comparaciones entre medias de tratamientos.
H 0 : i i
H a : i i Para i i , i, i A, B, C, D
i A D B C
Yi. 61 61 66 68
ni 4 8 6 6
t 0.05
t 0.9958333,20 2.927116 , esto se obtuvo usando R:
1 ,20
12
> qt(0.9958333,20)
[1] 2.927116
> pairwise.t.test(tiempo,dieta,p.adjust.method="bonferroni")
a b c
b 0.02282 - -
c 0.00108 0.95266 -
d 1.00000 0.00518 0.00014
Nota el R da los pvalue ajustado de manera que se pueda tomar decisiones con la tasa
de error del experimento.
i . máx j , para i 1, 2, ,t
j i
donde: máx j es la media máxima sin incluir i . Si i . máx j 0 , entonces el
j i j i
no es el mejor.
Los intervalos de confianza simultáneos (ICS) de las CMM para i . máx j tiene la
j i
restricción de incluir el cero con la perspectiva de que a la larga dos tratamientos nunca
tienen promedio idénticos. El intervalo de confianza CMM restringido establece que el
tratamiento i es uno de los mejores si el intervalo para i . máx j incluye el cero o el
j i
cero es su límite inferior. Por el contrario, si el límite superior del intervalo para
i . máx j es cero, entonces el tratamiento i no es el mejor. El procedimiento para
j i
2CME
2.- La cantidad M d ,t 1, gle , donde d ,t 1, gle es el estadístico tabulado para las
r
comparaciones de un lado en la Tabla IV del apéndice del texto Diseños de
Experimentos de Robert Kuehl para una tasa experimental de , t 1 comparaciones y
gle grados de libertad del error experimental.
3.- Encontrar los intervalos de confianza restringidos. El límite inferior del intervalo de
confianza restringido para i . máx j es:
j i
D M , Si Di M 0
L i
0 de otra manera
D M , Si Di M 0
U i
0 de otra manera
4.- Para obtener el mejor tratamiento o el conjunto de los mejores de tratamientos con
una tasa de error experimental de se selecciona a aquellos tratamientos cuyo límite
superior cumple con la regla: Di M 0
i . min j , para i 1, 2, ,t
j i
donde: min j es la media mínima sin incluir i . Si i . min j 0 , entonces el
j i j i
no es el mejor.
2CME
2.- La cantidad M d ,t 1, gle , donde d ,t 1, gle es el estadístico tabulado para las
r
comparaciones de un lado en la Tabla IV del apéndice del texto Diseños de
Experimentos de Robert Kuehl para una tasa experimental de , t 1 comparaciones y
gle grados de libertad del error experimental.
3.- Encontrar los intervalos de confianza restringidos. El límite inferior del intervalo de
confianza restringido para i . min j es:
j i
D M , Si Di M 0
L i
0 de otra manera
D M , Si Di M 0
U i
0 de otra manera
4.- Para obtener el mejor tratamiento o el conjunto de los mejores de tratamientos con
una tasa de error experimental de se selecciona a aquellos tratamientos cuyo límite
inferior cumple con la regla: Di M 0
Observación: Hsu (1996) desarrolló su metodología para el caso balanceado donde las
variancias de la diferencia de media de tratamientos son todos iguales. Por otro lado,
para el caso del Diseño completamente aleatorizado desigualmente repetido,
recomienda algunas aproximaciones basadas en desigualdades de probabilidad, que
paquetes como el Minitab ha incorporado
Source DF SS MS F P
Porcentajes 4 475,76 118,94 14,76 0,000
Error 20 161,20 8,06
Total 24 636,96
Fuente GL SC MC F P
dieta 3 228.00 76.00 13.57 0.000
Error 20 112.00 5.60
Total 23 340.00
Intervalos para la media de los niveles menos la menor de las medias de otros
niveles
k
N ni (1)
i 1
R X ij
ni
Ri i=1, 2, ..., k (2)
j 1
En caso que existan empates, asignar el promedio de los rangos a cada una de las
observaciones empatadas.
Asunciones:
1.- Todas las muestras son muestras aleatorias de sus respectivas poblaciones
Hipótesis :
Nota : La prueba de Kruskal - Wallis está diseñado para ser más sensitivo contra la
diferencia entre medias en k poblaciones, por esta razón, algunas veces la hipótesis
alternativa se expresa como sigue :
1 k Ri2 N N 1
2
T 2 (3)
S i 1 ni 4
donde
1 N N 1
2
R X ij
2
S2 (4)
N 1 i, j 4
N N 1
2
2
si no hay empates S se simplifica a y el estadístico de prueba se reduce a
4
12 k
Ri2
T 3 N 1
N N 1 i 1 ni
(5)
Si hay pocos empates (número de empates moderado) de manera que los valores
obtenidos con la ecuación (3) y (5) son muy próximos, entonces se prefiere usar
ecuación (5).
Regla de decisión :
Si k=3, todos los tamaños de muestras son 5 o menos y no hay empates, el cuantil
exacto puede ser obtenido de la tabla A8. Tabla más completa pueden ser obtenidos de
Iman Quade y Alexander (1975). Cuando hay empates o cuando tablas exactas no son
disponibles, entonces se puede usar la aproximación
Comparaciones Múltiples :
Ri R j
ni n j
con
1/ 2
S 2 N 1 T 1 1
t 1 , N k
2 N k ni n j
Así si
1/ 2
Ri R j S 2 N 1 T 1 1
t 1 , N k
ni n j 2 N k ni n j
Se extraen de grandes grupos de alumnos instruidas por uno de los métodos en forma
aleatoria: 4 alumnos del método A, 6 del método B y 5 del método C. Luego se les tomó
una prueba. Los puntajes obtenidos se dan a continuación:
Métodos
A B C
73 91 72
77 90 76
67 81 79
71 83 77
84 78
83
Métodos
A B C
Observ. Rango Observ. Rango Observ. Rango
73 4 91 15 72 3
77 6.5 90 14 76 5
67 1 81 10 79 9
71 2 83 11.5 77 6.5
84 13 78 8
83 11.5
Ri 13.5 75 31.5
ni 4 6 5
N=15
1 N N 1 1 15 15 1
2 2
R X ij
2
S
2
1239 19.92857
N 1 i , j 4 15 1 4
1 k R 2 N N 12 1 15 15 1
2
T 2 i
1181.513 11.11535
S i 1 ni 4 19.92857 4
Comparaciones Ri R j S 2 N 1 T 1 1
1/ 2
t1 , N k
ni n j 2
N k ni n j
AyB 9.125 3.078296*
AyC 2.925 3.199059ns
ByC 6.2 2.887698*
> curso<-read.table("calif.txt",T)
> calificación<-curso[,1]
> método<-curso[,2]
> library(agricolae)
> kruskal(calificación,método)
Study:
Kruskal-Wallis test's
Ties or no Ties
Value: 11.11532
degrees of freedom: 2
Pvalue chisq : 0.003857788
calificación replication
a 3.375 4
b 12.500 6
c 6.300 5
t-Student: 2.178813
Alpha : 0.05
LSD : 3.057705
> kruskal(calificación,método,group=FALSE)
Study:
Kruskal-Wallis test's
Ties or no Ties
Value: 11.11532
degrees of freedom: 2
Pvalue chisq : 0.003857788
calificación replication
a 3.375 4
b 12.500 6
c 6.300 5