Documento (

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 22

Chi cuadrado

Definición:

La prueba Chi-cuadrado es una prueba de hipótesis utilizada para


variables categóricas con escala de medida nominal u ordinal. La
prueba Chi-cuadrado comprueba si las frecuencias que se dan en la
muestra difieren significativamente de las frecuencias que cabría
esperar. Así, se comparan las frecuencias observadas con las
esperadas y se examinan sus desviaciones.

fuente: https://datatab.es/tutorial/chi-square-test

Características

Trabaja sólo con variables categóricas o nominales.

es una prueba no parametrica

Toma valores entre 0 e ∞ ya que no tiene un límite superior que


permita conocer la fuerza de la correlación.

Gráficamente posee una asimetría positiva cuya forma depende de


los grados de libertad.

Las frecuencias esperadas no deben ser menores a cinco.

Es sensible al tamaño de la muestra por lo que muestras muy


grandes conducirán a resultados erróneos.

Las variables no pueden tener muchos niveles ya que podría conducir


a observaciones diferenciales entre ellas aún cuando no las haya.

Fuente: https://www.ibm.com/docs/es/spss-statistics/saas?topic=tests-
chi-square-test

En que caso se usa chi cuadrado?

Las Pruebas de Chi Cuadrado, nos permiten verificar si más de dos


proporciones de poblaciones pueden considerarse iguales. En
realidad, éstas nos permiten hacer muchas cosas y no simplemente
probar la igualdad de varias proporciones. Por ejemplo: si clasificamos
una población de diversas categorías respectos a dos atributos, como
la edad y rendimiento en el trabajo, se puede aplicar entonces la
Prueba del Chi Cuadrado, para determinar si ambos atributos son
independientes entre sí.
fuente: https://virtual.usalesiana.edu.bo/web/conte/archivos/1856.pdf

Tipos de calculo de chi cuadrado

PRUEBA DE BONDAD DE AJUSTE :

En este tipo de prueba de hipótesis se determina si los datos “se


ajustan” a una determinada distribución o no. Por ejemplo, puede
sospechar que sus datos desconocidos se ajustan a una distribución
binomial. Se utiliza una prueba de chi-cuadrado (lo que significa que
la distribución para la prueba de hipótesis es chi-cuadrado) para
determinar si hay un ajuste o no. Las hipótesis nula y alternativa de
esta prueba se pueden escribir en oraciones o plantear como
ecuaciones o desigualdades.

fuente:
https://assets.openstax.org/oscms-prodcms/media/documents/Introdu
ccion_al_la_estadistica_-_WEB.pdf

PRUEBA DE INDEPENDENCIA:

Las pruebas de independencia implican el uso de una tabla de


contingencia de valores observados (datos). es una prueba
estadística de proporciones de frecuencias; que se utiliza para
determinar si la pertenencia de una variable a categorías, es diferente
como función de la pertenencia a la categoría de una segunda
variable. Y Una prueba de independencia determina si dos factores
son independientes o no

La Prueba de Independencia, lo que busca es resolver aquellas


situaciones en las que se está interesado en determinar; si dos
variables están relacionadas.
Prueba de homogeneidad

se puede usar para sacar una conclusión sobre si dos poblaciones


tienen la misma distribución. en el análisis de situaciones que se dan
frecuentemente, las poblaciones son conocidas como diferentes y el
interés radica en tomar una decisión; que consiste en verificar si el
comportamiento de éstas es homogéneo respecto alguna
característica. Primordialmente, lo que busca esta prueba es, que
cuando se presente varias muestras cualitativas, lo que se busca es
comprobar si las mismas provienen de una misma población. En estos
casos, las variables medibles, es necesario que estén representadas
mediante categorías, ya que para aplicar esta prueba se expresan los
datos mediante tablas de contingencias.

COMPONENTES IMPORTANTES

Frecuencias observadas: las frecuencias de celda realmente


observadas en una tabla bivariada.

Frecuencias esperadas: las frecuencias de celda que uno podría


esperar ver. en una tabla bivariada si las dos variables fueran
estadísticamente independientes

https://soc.utah.edu/sociology3112/chi-square.php

Hipótesis nula (H0): Afirma que no existe asociación entre las dos
variables cruzadas en la población. Por lo tanto, las variables son
estadísticamente independientes. Por ejemplo, si se comparan dos
métodos A y B por su bondad o por cuál funciona mejor, y si la
hipótesis es que ambos métodos son igual de buenos, entonces esta
hipótesis se conoce como hipótesis nula.

Hipótesis alternativa (HA): Propone que las dos variables estén


relacionadas con la población. Si se supone que de dos métodos, el
método A es superior al método B o el método B es superior al
método A, esta suposición se conoce como Hipótesis Alternativa.

Grado de libertad: El número de variables independientes que


componen el estadístico se conoce como grado de libertad de dicho
estadístico.

https://www.datacamp.com/es/tutorial/chi-square-test-in-spreadsheets
El nivel de significancia es el límite para juzgar un resultado como
estadísticamente significativo. Si el valor de significación es menor
que el nivel de significación, se considera que el resultado es
estadísticamente significativo. El nivel de significación también se
conoce como el nivel alfa y se utiliza como nivel de significancia 0.05.
Este número significa que un resultado estadísticamente significativo
tiene menos de un 5 % de probabilidad de que ocurra producto de la
casualidad.

fuente: https://www.ibm.com/docs/es/cognos-analytics/11.1.0?
topic=terms-significance-level

COEFICIENTE DE PHI

Es un estadístico comúnmente utilizado para el análisis de datos en


estudios bivariados (Binario significa que su variable es una categoría
con solo dos valores posibles. Algunos buenos ejemplos de variables
binarias incluyen el género (masculino/femenino) o cualquier variable
Verdadero/Falso o Sí/No). Para que pueda ser empleado en un caso
determinado ambas variables presentes deben ser de carácter
nominal, es decir, que el valor numérico con el que se representa a
las mismas sea arbitrario puesto que dichas variables no se vinculan
con el orden lógico numérico por características relativas a su
naturaleza categorial.

https://mariafatimadossantosestadistica1.files.wordpress.com/
2009/10/guia-de-estadistica-coeficiente-phi.docx

https://www.statstest.com/phi-coefficient/

Caracteristicas

Se emplea cuando se cuenta con dos variables nominales


dicotómicas.

Puede asumir valores entre -1 y 1, indicando estos dos correlaciones


perfectas. Valores cercanos a 0 implican ausencia de correlación entre
las variables.

Para ser calculado, es necesario realizar una tabla de doble entrada o


una tabla de contingencia. En esta se deben registrar las frecuencias,
o el número de casos, considerando las posibles combinaciones de las
dos variables involucradas.
https://api-saber.ucab.edu.ve/server/api/core/bitstreams/20f45f29-
0b70-4fcf-8fb6-24009de3e015/content

la diferencia principal entre el test de Chi cuadrado y el coeficiente de


phi radica en su aplicación y en la medida en que cada uno evalúa la
relación entre variables categóricas. el coeficiente de phi es una
medida de asociación utilizada específicamente para evaluar la fuerza
y la dirección de la relación entre dos variables categóricas. Mientras
que de Chi cuadrado indica si hay una asociación significativa, el
coeficiente de phi te proporciona información sobre la fuerza de esa
asociación.

COEFICIENTE BISERIAL

El coeficiente biserial es una medida de la correlación entre una


variable binaria, es decir, dicotómica (con solo dos categorías) y una
variable continua. Es útil para analizar la relación entre variables
como por ejemplo:

* Género (masculino/femenino) y puntuación en un test de


inteligencia.

* Presencia/ausencia de una condición (por ejemplo, depresión) y


nivel de ansiedad.

* Grupo de tratamiento (control/tratamiento) y puntuación en una


variable de resultado.

“El coeficiente de correlación biserial, se utiliza cuando queremos


conocer la correlación existente entre dos variables, de las cuales una
ha sido considerada como escala de intervalo y la otra resulta ser una
variable dicotómica (significa que toma dos modalidades. Ej: sexo, si
o no, etc)”. (González, 2018, p. 18)

En resumidas cuentas, el coeficiente de correlación biserial, mide la


fuerza y dirección de la asociación entre una variable continua (X) y
una variable dicotómica (Y), se utiliza cuando una de las variables es
naturalmente dicotómica. (Bing, 2024)
Características principales:

* Mide la fuerza y la dirección de la relación lineal entre las variables.


Un valor positivo indica una correlación positiva (las puntuaciones
altas en la variable dicotómica se asocian con puntuaciones altas en
la variable continua), mientras que un valor negativo indica una
correlación negativa (las puntuaciones altas en la variable dicotómica
se asocian con puntuaciones bajas en la variable continua).

* Su rango es de -1 a +1. Un valor de 0 indica que no existe una


relación lineal entre las variables.

* Es un caso especial del coeficiente de correlación producto-


momento de Pearson. Se utiliza cuando una de las variables es
dicotómica.

* Se asume que la variable continua tiene una distribución normal.

* Es sensible a la presencia de valores atípicos.

* Es menos preciso que el coeficiente de correlación producto-


momento de Pearson cuando se utiliza con variables que no son
normalmente distribuidas.

Interpretación del coeficiente biserial:

* 0.1-0.3: Relación débil.

* 0.3-0.5: Relación moderada.

* 0.5-1.0: Relación fuerte.

Aplicaciones:

El coeficiente biserial se utiliza en una variedad de campos,


incluyendo:

* Psicología: Para evaluar la relación entre variables como la


personalidad y el rendimiento académico.
* Educación: Para investigar la relación entre el método de enseñanza
y el aprendizaje de los estudiantes.

* Medicina: Para estudiar la relación entre los factores de riesgo y la


presencia de una enfermedad.

* Sociología: Para analizar la relación entre las características


socioeconómicas y los resultados sociales.

CALCULO:

Para calcular el coeficiente biserial, se realizan los siguientes pasos:

1)Identificar las variables: una variable continua y otra binaria.

2)Calcular la media y la desviación estándar de la variable continua.

3)Asignar valores numéricos a las categorías de la variable binaria


(por ejemplo, 0 y 1).

4)Calcular el producto de la desviación estándar de la variable


continua y la diferencia entre la media de la variable continua y el
valor numérico asignado a una de las categorías de la variable
binaria.

5)Dividir el resultado por la desviación estándar de la variable


continua.

Límites

Supuesto de normalidad: El Coeficiente Biserial debe ser empleado en


muestras que tengan una distribución normal. (Johnson, 2003).

Tamaño de la muestra: La confiabilidad del Coeficiente Biserial


depende del tamaño de la muestra, si la muestra es pequeña puede
producir resultados inestables y poco confiables. (Smith & Jones,
2005)
Aplicabilidad a diseños experimentales: No se recomienda el uso de
este coeficiente en diseños experimentales ya que supone que las
variables son aleatoriamente independientes, es más apropiado usar
enfoques alternativos como la regresión lineal con variables ficticias.
(Lee & Chen, 2014)

Presencia de valores atípicos: Los valores atípicos en la variable


continua puede afectar el valor del Coeficiente Biserial, por lo que
podría generar resultados inexactos. (Park & Kim, 2012)

Supuesto de relación lineal: El Coeficiente Biserial supone una


relación lineal entre la variable binaria y la continua. Si la relación no
es lineal, es posible que el coeficiente no esté representado con
precisión la fuerza de la asociación. (Smith & Johnson, 2003)

Bondades:

Facilidad de interpretación: El Coeficiente Biserial oscila entre -1 y +1,


un valor de 0 o cercano a él nos indica una relación débil o nula,
mientras que un valor de -1 o cercano a él nos indica que hay relación
fuerte negativa o si es +1 nos indica una relación fuerte positiva. el
valor absoluto del coeficiente biserial indica la magnitud de la relación
entre las dos variables, lo que hace fácil interpretar el resultado.
(Marrón, 2014)

Utilidad en psicometría y educación: Es utilizado a menudo en el


ámbito de la psicometría y la investigación educativa, para evaluar la
relación entre resultados binarios como por ejemplo (paso/reprobó) y
las evaluaciones de pruebas continuas. (Kaplan & Saccuzzo, 2016)

Relación con el Coeficiente de Pearson: La relación tan amplia entre


ambas medidas ayuda a que los investigadores ya con sus previos
conocimientos sobre el Coeficiente de Pearson, puedan aplicar e
interpretar el Coeficiente Biserial. (Field, 2015)
Permite comparaciones: Este coeficiente nos permite realizar
comparaciones entre diferentes estudios y situaciones, siempre y
cuando se utilicen los mismos contextos y las mismas variables.
(Glantz & Slinker, 2005)

Utilidad por capacidad predictiva: Es útil para evaluar la capacidad


predictiva de una variable binaria y una continua. (Dobson, 2001)

Este Coeficiente es una muy buena herramienta para evaluar la


asociación entre variables binarias y continuas en varios campos de
estudio. Sin embargo, es importante tomar en cuenta sus limitaciones
y condiciones de aplicación correspondientes.

COEFICIENTE DE CORRELACIÓN PUNTO BISERIAL

El coeficiente de correlación punto biserial es una medida estadística


utilizada

para determinar la fuerza y la dirección de la relación entre una


variable

continua y una variable dicotómica. Este análisis permite comprender


cómo se

relacionan estos dos tipos de variables en un conjunto de datos.

El coeficiente punto biserial se denota por 𝑟𝑏𝑝. El término biserial se


refiere al hecho de que existen dos series de observaciones en X: las
puntuaciones en Y de “cero” o uno. Y tanto el nombre como la
formula se deben a Pearson.

El punto biserial es una medida que evalúa la correlación entre una


variable continua y una variable dicotómica teniendo en cuenta un
punto de corte específico en la variable continua. Además, Se utiliza
cuando una variable dicotómica se relaciona con una variable
continua, y se asume que la variable continua sigue una distribución
normal, proporcionando así información sobre la asociación entre la
variable continua y la variable binaria tomando en consideración el
valor de corte particular en la variable continua.

Glass y Stanley (1985) explica que:

La relación entre X y Y se puede calcular mediante el coeficiente


producto-momento de Pearson. A partir de los datos tal como se dan
y el resultado, se denomina coeficiente de correlación biserial-puntual
y se denota por . El término biserial se refiere al hecho de que
existen dos series de observaciones en X: las puntuaciones en Y de
“cero” o uno. Tanto el nombre como la formula se deben a Karl
Pearson. La fórmula siguiente es una simplificación de .

Donde es la media en X de las puntuaciones 1 en Y,

es la media en X de las puntuaciones 0 en Y,

es la desviación típica de las n puntuaciones en X,

es el número de puntuaciones con valor 1 en Y,

es el número de puntuaciones con valor 0 en Y, y

La ecuación es una simplificación algebraica de la fórmula del


coeficiente de correlación producto-momento de Pearson, cuando Y es
una variable dicotómica; no es sino una de las muchas abreviaciones
que puede derivarse de la fórmula original.

pasos generales para el cálculo:

1)Identificar las variables: una continua y una dicotómica.

2)Calcular la media y la desviación estándar de la variable continua.

3)Aplicar la fórmula del coeficiente de

correlación punto biserial.


Aplicaciones del coeficiente de correlación

correlación punto biserial

•Psicología: Evaluar la relación entre características de personalidad y


éxito académico.

•Educación: Analizar la asociación entre métodos de enseñanza y


rendimiento estudiantil.

•Mercadeo: Estudiar la influencia de características demográficas en


el comportamiento de compra.

Ventajas y limitaciones del coeficiente de correlación punto biserial

Ventajas:

Permite analizar relaciones entre variables de diferente naturaleza.

Es sencillo de calcular e interpretar.

Proporciona información valiosa para la toma de decisiones.

Limitaciones:

Solo mide la relación lineal entre variables.

Puede ser sensible a valores atípicos en los datos.

No establece causalidad, solo asociación.

El Coeficiente de Correlación de Spearman: Midiendo la Asociación


Monótona

En estadística, la correlación de Spearman, también conocida como


coeficiente de correlación de rango, es una medida no paramétrica
que describe la asociación monótona entre dos variables. Es decir,
mide la tendencia de dos variables a aumentar o disminuir juntas, sin
requerir una relación lineal específica.

Definición

El coeficiente de correlación de Spearman (ρ) se calcula a partir de los


rangos de las variables, no de los valores originales. Se basa en la
idea de que si dos variables están fuertemente asociadas, sus rangos
deberían estar estrechamente relacionados.

Cálculo

1. Asignar rangos: A cada observación se le asigna un rango según su


valor en la variable. Si hay valores repetidos, se les asigna el
promedio de los rangos que les corresponderían.

2. Calcular la diferencia de rangos: Para cada observación, se calcula


la diferencia entre el rango de la primera variable y el rango de la
segunda variable.

3. Calcular la suma de cuadrados de las diferencias de rangos: Se


suman los cuadrados de las diferencias de rangos calculadas en el
paso anterior.

4. Aplicar la fórmula: El coeficiente de correlación de Spearman se


calcula con la siguiente fórmula:

ρ = 1 - (6 * Σd²) / (N * (N² - 1))

Donde:

* ρ es el coeficiente de correlación de Spearman

* Σd² es la suma de los cuadrados de las diferencias de rangos

* N es el número de observaciones
Interpretación

El coeficiente de correlación de Spearman toma valores entre -1 y 1:

* ρ = 1: Indica una asociación monótona perfecta positiva, donde las


variables aumentan o disminuyen juntas.

* ρ = 0: Indica la ausencia de asociación monótona.

* ρ = -1: Indica una asociación monótona perfecta negativa, donde


una variable aumenta mientras que la otra disminuye.

Ventajas del Coeficiente de Spearman:

* No paramétrico: No requiere supuestos sobre la distribución de las


variables.

* Robusto a valores atípicos: No se ve afectado por valores extremos.

* Interpretable: Facilidad de interpretación, ya que su valor indica la


fuerza y dirección de la asociación monótona.

* Ampliamente utilizado: Se utiliza en diversas áreas, como la


sociología, la economía y la psicología.

Ejemplo:

Supongamos que queremos analizar la relación entre la altura y el


peso de 5 personas:

| Persona | Altura (cm) | Peso (kg) |

|---|---|---|

| 1 | 170 | 65 |

| 2 | 180 | 75 |

| 3 | 160 | 55 |

| 4 | 175 | 60 |
| 5 | 190 | 80 |

Primero, asignamos rangos a cada variable:

| Persona | Altura (rango) | Peso (rango) |

|---|---|---|

|1|2|2|

|2|4|4|

|3|1|1|

|4|3|3|

|5|5|5|

Luego, calculamos las diferencias de rangos y su suma de cuadrados:

| Persona | Diferencia de rangos (d) | d² |

|---|---|---|

|1|0|0|

|2|0|0|

|3|0|0|

|4|0|0|

|5|0|0|

Finalmente, aplicamos la fórmula para obtener el coeficiente de


correlación de Spearman:

ρ = 1 - (6 * 0) / (5 * (5² - 1)) = 1

El coeficiente de correlación de Spearman es 1, lo que indica una


asociación monótona perfecta positiva entre la altura y el peso.
El coeficiente de correlación de Spearman es una herramienta útil
para analizar la asociación monótona entre dos variables,
especialmente cuando la relación no es lineal o cuando hay valores
atípicos. Su simplicidad de cálculo y su capacidad de interpretación lo
convierten en una herramienta valiosa en diversas áreas de
investigación.

Nota: El coeficiente de Spearman es una alternativa al coeficiente de


correlación de Pearson, que mide la correlación lineal. En algunos
casos, puede ser más apropiado utilizar el coeficiente de Spearman,
especialmente cuando la relación entre las variables es no lineal.

El Coeficiente Tau de Kendall: Una Medida de Asociación Monótona

En el ámbito de la estadística, la correlación se utiliza para medir la


relación entre dos variables. Sin embargo, no todas las relaciones son
lineales. En muchas situaciones, la relación entre dos variables puede
ser monótona, es decir, que una variable tiende a aumentar o
disminuir a medida que la otra lo hace, sin necesidad de una relación
lineal. Para medir este tipo de asociación, se utiliza el coeficiente Tau
de Kendall.

Definición

El coeficiente Tau de Kendall (τ) es una medida estadística no


paramétrica que cuantifica la asociación monótona entre dos
variables ordinales o de rango. Se basa en el concepto de pares
concordantes y discordantes.
* Par concordante: Dos pares de observaciones (x1, y1) y (x2, y2) se
consideran concordantes si los rangos de ambas variables siguen la
misma tendencia. Es decir, si x1 < x2 entonces y1 < y2 o si x1 > x2
entonces y1 > y2.

* Par discordante: Dos pares de observaciones (x1, y1) y (x2, y2) se


consideran discordantes si los rangos de ambas variables siguen
tendencias opuestas. Es decir, si x1 < x2 entonces y1 > y2 o si x1 >
x2 entonces y1 < y2.

El coeficiente Tau de Kendall se calcula como la diferencia entre el


número de pares concordantes (Nc) y el número de pares
discordantes (Nd) dividida por el número total de pares posibles
(N*(N-1)/2), donde N es el número de observaciones.

Fórmula:

τ = (Nc - Nd) / (N*(N-1)/2)

Interpretación

El coeficiente Tau de Kendall toma valores entre -1 y 1.

* τ = 1: Indica una asociación monótona perfecta positiva, donde las


variables aumentan o disminuyen juntas.

* τ = 0: Indica la ausencia de asociación monótona.

* τ = -1: Indica una asociación monótona perfecta negativa, donde


una variable aumenta mientras que la otra disminuye.

Ventajas del Coeficiente Tau de Kendall:

* No paramétrico: No requiere supuestos sobre la distribución de las


variables.
* Robusto a valores atípicos: No se ve afectado por valores extremos.

* Interpretable: Facilidad de interpretación, ya que su valor indica la


fuerza y dirección de la asociación monótona.

* Ampliamente utilizado: Se utiliza en diversas áreas, como la


sociología, la economía y la psicología.

Ejemplo:

Supongamos que queremos analizar la relación entre el número de


horas de estudio y la calificación en un examen. Se recopilan los
datos de 5 estudiantes:

| Estudiante | Horas de Estudio | Calificación |

|---|---|---|

| 1 | 2 | 70 |

| 2 | 4 | 80 |

| 3 | 1 | 60 |

| 4 | 3 | 75 |

| 5 | 5 | 90 |

Para calcular el coeficiente Tau de Kendall, primero identificamos los


pares concordantes y discordantes:

* Pares concordantes: (1,2), (1,3), (1,4), (1,5), (2,3), (2,4), (2,5), (3,4),
(3,5), (4,5)

* Pares discordantes: Ninguno

Luego calculamos el coeficiente Tau:

τ = (10 - 0) / (5*(5-1)/2) = 1
El coeficiente Tau de Kendall es 1, lo que indica una asociación
monótona perfecta positiva entre el número de horas de estudio y la
calificación en el examen.

El coeficiente Tau de Kendall es una medida útil para determinar la


asociación monótona entre dos variables. Su facilidad de cálculo, su
robustez y su capacidad de interpretar la dirección y fuerza de la
asociación lo convierten en una herramienta valuable en diversas
áreas de investigación.

COEFICIENTE DE CORRELACIÓN TETRACÓRICO

El coeficiente tetracórico es una medida estadística que se utiliza


para estimar la correlación entre dos variables dicotómicas latentes,
es decir, variables que no se han observado directamente pero que se
infieren a partir de variables observadas que son dicotómicas (solo
tienen dos categorías). Este coeficiente asume que hay una
correlación normal bivariada subyacente entre las dos variables
latentes.

Características:

• Es útil cuando las variables observadas son el resultado de


categorizar variables continuas latentes.

• Se basa en la suposición de normalidad bivariada de las variables


latentes.

• Puede ser interpretado como una extensión del coeficiente de


correlación de Pearson para datos dicotómicos.

Aplicaciones:
• Análisis factorial de ítems binarios.

• Medición del acuerdo inter-evaluador.

• Investigaciones en psicometría y otras ciencias sociales donde las


variables son a menudo dicotómicas.

Cálculo: Para calcular el coeficiente tetracórico, se construye una


tabla de contingencia 2x2 con las frecuencias observadas y se utiliza
una fórmula que estima la correlación de Pearson que existiría si las
variables subyacentes fueran continuas y normalmente distribuidas.
La fórmula exacta puede variar, pero generalmente implica el uso de
métodos de estimación como la máxima verosimilitud o los
momentos metodológicos.

Interpretación: La interpretación del coeficiente tetracórico es similar


a la del coeficiente de correlación de Pearson:

• Un valor de 1 indica una correlación positiva perfecta.

• Un valor de -1 indica una correlación negativa perfecta.

• Un valor cercano a 0 sugiere que no hay correlación.

Es importante tener en cuenta que el coeficiente tetracórico puede


ser sensible a la distribución subyacente y a la forma en que se
categorizan las variables continuas latentes.

V DE CRAMER:
La V de Cramér, también conocida como φ de Cramér, es una medida
estadística que se utiliza para evaluar la fuerza de asociación entre
dos variables nominales. Fue desarrollada por Harald Cramér en 1946
y se basa en la estadística de chi-cuadrado de Pearson.

Características:

• Proporciona un valor entre 0 y +1, donde 0 indica ninguna


asociación y +1 indica una asociación perfecta.

• Es independiente del tamaño de la muestra y del número de


categorías en las variables.

• Es adecuada para tablas de contingencia mayores de 2x2.

Aplicaciones:

• Análisis de tablas de contingencia para determinar si hay una


relación entre dos variables categóricas.

• Evaluación del tamaño del efecto en pruebas chi-cuadrado de


independencia.

Cálculo: Para calcular la V de Cramér, primero se realiza una prueba


chi-cuadrado para obtener el estadístico chi-cuadrado (X²). Luego, se
utiliza la fórmula: [ V = \sqrt{\frac{X^2}{n \cdot \min(k - 1, r - 1)}} ]
donde:

• ( X^2 ) es el valor del estadístico chi-cuadrado,

• ( n ) es el tamaño total de la muestra,


• ( k ) es el número de columnas,

• ( r ) es el número de filas.

Interpretación: La interpretación de la V de Cramér es similar a otros


coeficientes de correlación:

• Valores cercanos a 0 indican una asociación débil o inexistente.

• Valores cercanos a 1 indican una asociación fuerte. Es importante


realizar un análisis posterior para determinar la significancia
estadística y la fuerza de la asociación después de obtener un
resultado significativo en la prueba

https://www.ibm.com/docs/es/cognos-analytics/11.1.0?topic=terms-
cramrs-v

https://es.m.wikipedia.org/wiki/Coeficiente_de_contingencia

https://apolonio.es/metodo-de-cramer/

https://statologos.com/cramers-v-en-python/

https://statologos.com/correlacion-tetracorica/
Bibliografía:

Glass y Stanley (1985). Métodos Estadísticos Aplicados a las Ciencias


Sociales (1era ed.). Editorial Calypso, S. A.

Howell, D. C. (2016). Fundamental statistics for the behavioral


sciences (9th ed.). Boston, MA: Cengage Learning.

Hernández-Nieto, R. (2014). Correlación biserial y correlación punto-


biserial: un enfoque práctico. Revista Argentina de Ciencias del
Comportamiento, 8(1), 35-42.

Benites, L. (2022). Correlación punto-biserial y correlación biserial:


definición y ejemplos. Statologos. Recuperado el 28 de mayo de 2024.
https://statologos.com/correlacion-biserial-puntual/

https://www.spss-tutorials.com/kendalls-tau/

http://www.statstutor.ac.uk/resources/uploaded/spearmans.pdf

https://statisticsbyjim.com/basics/spearmans-correlation/

También podría gustarte