01 Estadistica en Medicina

Descargar como pptx, pdf o txt
Descargar como pptx, pdf o txt
Está en la página 1de 37

Apuntes de

Estadística en Medicina

Dr. Julio Hilario Vargas


Departamento de Fisiología
Facultad de Medicina
Universidad Nacional de Trujillo
“Medical students may not like statistics,
but as doctors they will.”
Martin Bland, Letter to the Editor, 1998. BMJ; 316:1674.
Que es un experimento?
• Método de investigación en el cual
– Las condiciones son controladas
– Hay 1 o mas variables independientes
– Puede ser manipulado para probar una hipótesis
– Sobre una variable dependiente.
• Permite
- Evaluación de las relaciones causales entre variables
- Mientras todas las demás variables son eliminados o
controlados
Algunas definiciones
• Variable Dependiente
– Criterio por el cual los resultados de un experimento
son evaluados.
– Variable que se espera que sea dependiente de la
manipulación de la variable independiente
• Variable Independiente
– Cualquier variable que puede ser manipulada, o
alterada, independientemente de alguna otra variable
– Se hipotetiza que puede ser causal de influencia
Mas definiciones
• Tratamientos experimentales
– Manipulaciones alternativas de la variable
independiente que esta siendo investigada
• Grupo experimental
– Grupo de sujetos expuestos a tratamiento
experimental
• Grupo control
– Grupo de sujetos expuestos a la condición de control
– No expuestos al tratamiento experimental
La Estadística
1. Es la ciencia que trata de la recopilación, organización
presentación, análisis e interpretación de datos con el fin de
realizar una toma de decisión más efectiva

2. La Estadística es una ciencia que proporciona un conjunto de


métodos que se utilizan para recolectar, resumir, clasificar,
analizar e interpretar el comportamiento de los datos con
respecto a una característica materia de estudio o investigación

Ruiz D. Manual de estadística. Eumed.net. Sevilla, España. 2004


En las ciencias biológicas las propiedades
observables y el resultado de los procesos
experimentales presentan una gran variabilidad,
incluso cuando aparentemente los experimentos y
las observaciones se llevan a cabo en las mismas
condiciones de trabajo.
En ciencias de la salud la repetición de un
experimento no lleva necesariamente al mismo
resultado.
Existen dos conceptos al momento de caracterizar,
usar una técnica o calibrar un aparato: La precisión
y la exactitud.
Precisión: Rango de valores que se obtiene al medir el
experimento.
Exactitud: El promedio de las medidas en comparación
con el verdadero valor del patrón medido.
Componentes de la variabilidad en experimentos de salud

Martin M. Fundamentos de estadistica en ciencias de la salud. Serveis de publications. Universitat Autonoma de Barcelona. 2010.
Variables estadísticas: Escalas de medida
En estadística, el tipo de variables utilizadas son de dos tipos
fundamentales: Cualitativas y cuantitativas.
Variables cualitativas: Son magnitudes cuyos posibles valores no
pueden representarse numéricamente, pero se pueden diferenciar. Ej. La
variable sexo: Hombre-mujer.
Las escalas de medida pueden nominales u ordinales.
Variables cuantitativas: Son magnitudes cuya variabilidad puede ser
representada numéricamente. Las escalas de medida pueden ser de
intervalo o de razón
Son de dos tipos:
- Variables cuantitativas discretas (VCD), la variabilidad es finita. Los
valores son números y no siempre son enteros. Ej. Hijos de una
pareja.
- Variables cuantitativas continuas (VCC), la variabilidad es
teóricamente infinita. Ej. La talla de una persona entre 170 y 171 cm.
Variables estadísticas: Escalas de medida
Variables cualitativas
Escala nominal, aquellas variables en las que variabilidad
puede ser distinguida, pero sin establecer grados
diferenciales. A los nombres que definen las diferencias se
les denomina categorías o modalidades. Ej. Religión,
estado civil, aficiones, color de pelo, etc.
Escala ordinal, aquellas variables en las que su
variabilidad puede ser distinguida, y establecer grados
dentro de ella. Ej. Nivel de estudios, intensidad de un soplo
cardiaco, estadio de una enfermedad, etc.
Variables estadísticas: Escalas de medida
Variables cuantitativas
Escala de intervalo, aplicable a variables cuya variabilidad se
diferencia pero sin dar un valor exacto, sino un valor dentro de un
determinado intervalo, el cero de la escala cuando existe es un valor
elegido como referencia sin que signifique una ausencia total de la
magnitud observada. Ej. En Celsius el cero es el punto de congelación del
agua a nivel de mar y una atmosfera de presión; el cero no significa
ausencia de temperatura. Esta escala permite diferenciar y ordenar.
Escala de razón, es aplicada a variables cuya variabilidad puede ser
medida y representada numéricamente, también existe un origen de
medidas denominado cero. Ej. Presión arterial sistólica, glicemia, peso,
etc. El cero no es un convencionalismo, significa la ausencia total de la
magnitud estudiada, no teniendo sentido hablar de valores negativos.
Permite diferenciar, ordenar y medir la diferencia entre dos valores; y
referenciarla a un origen de medidas común.
Tipos de datos
1. Datos Nominales
Son números o letras que representan categorías donde no interesa el
orden (ej., 0=masculino, 1= femenino)
2. Datos Ordinales
Son números o letras que representan categorías donde el orden interesa
(ej., lesión fatal=1, lesión severa=2, lesión moderada=3, etc.)
3. Datos Discretos
Son aquellos que surgen por el procedimiento de conteo. Es decir, los
datos discretos toman valores enteros (ej., el número de hijos por
familia; el número de automóviles que pasan por una avenida en una
hora, etc.)
4. Datos Continuos
Son aquellos que surgen cuando se mide alguna característica. Es decir,
toman al menos teóricamente cualquier valor dentro de un intervalo (ej.,
el peso, la estatura, la tensión arterial de las personas, etc.)
Datos categóricos
Son aquellos que registra categorías o cualidades. Ej. Sexo, estado civil,
fumar. Se distinguen en nominal y ordinal.
Se presentan con tablas de frecuencias, diagramas de barras y de sectores.

Datos numéricos
Son mas ricos que los categóricos. Lo primero que se busca es alrededor de
que valor se agrupan los datos y como se dispersan con respecto a el.
Las tres mejores propiedades que describe una serie numérica de datos son:
Tendencia central, Variación, Forma.
Se presentan con tablas y otras de acuerdo a la información que contienen.
Análisis estadístico por tipo de variable

Hernández B, Velasco-Mondragón HE. Encuestas transversales. Salud pública Méx  [serial on the Internet]. 2000 
Sep [cited  2012  June  15] ;  42(5): 447-455. 
Parámetro y estadístico
Pruebas de independencia
Se usa para determinar si los atributos son estadísticamente
independientes. Se dice que dos criterios de clasificación son
independientes si la distribución de uno de los criterios es la
misma sin importar cuál sea la distribución del otro criterio.

Por ejemplo, deseamos investigar si una enfermedad y los


factores de riesgo son independientes,

Los datos de presentan mediante una Tabla de Contingencia.

Se contrastará la hipótesis nula de que en la población (o


muestra) los dos criterios de clasificación son independientes. Si
se rechaza la hipótesis nula se concluye que los dos criterios de
clasificación no son independientes.
Tabla de contingencia
ASOCIACIÓN ENTRE DOS VARIABLES

CUALITATIVA (prueba Chi cuadrado)


N .-Pruebas de Independencia
.-Homogeneidad

X
CUANTITATIVA (prueba “t” )
.-Análisis de Correlación Lineal Simple
.-Análisis de Regresión Lineal Simple
Distribución de variables aleatorias continuas

Curva normal
T de student
Chi cuadrado
F de Snedecor
Distribución normal
Distribución normal, distribución de Gauss o distribución
gaussiana.
Su importancia se debe a la frecuencia con la que distintas variables
asociadas a fenómenos naturales y cotidianos siguen,
aproximadamente, esta distribución.
Caracteres morfológicos (como la talla o el peso), o psicológicos
(como el cociente intelectual) son ejemplos de variables de las que
frecuentemente se asume que siguen una distribución normal. 
Distribución normal
La distribución de una variable normal está completamente
determinada por dos parámetros, su media y su desviación
estándar, denotadas generalmente por  µ y σ.  Con esta notación,
la densidad de la normal viene dada por la ecuación:

Así, se dice que una característica χ sigue una


distribución normal de media  µ y varianza  σ 2 , y
se denota como  χ≈ N (µ, σ ) , si su función de
densidad viene dada por la Ecuación 1.
Propiedades de la distribución normal
1. Tiene una única moda, que coincide con su media y su mediana.
2. La curva normal es asintótica al eje de abscisas. El área total bajo la curva es 1.
3. Es simétrica con respecto a su media µ. 
4. La distancia entre la línea trazada en la media y el punto de inflexión de la curva
es igual a una desviación típica ( σ ).  Cuanto mayor sea σ, más aplanada será la
curva de la densidad.
5. El área bajo la curva comprendido entre los valores situados aproximadamente
a dos desviaciones estándar de la media es igual a 0.95.  En concreto, existe un
95% de posibilidades de observar un valor comprendido en el intervalo (µ-
1.96σ, µ+1.96σ).
6. La forma de la campana de Gauss depende de los parámetros µ y σ .  La media
indica la posición de la campana, de modo que para diferentes valores de la
gráfica es desplazada a lo largo del eje horizontal.  Por otra parte, la desviación
estándar determina el grado de apuntamiento de la curva.  Cuanto mayor sea el
valor de µ, más se dispersarán los datos en torno a la media y la curva será más
plana.  Un valor pequeño de este parámetro indica, por tanto, una gran
probabilidad de obtener datos cercanos al valor medio de la distribución.
Distribución chi-cuadrado (X2)
Propiedades de la distribucion chi-cuadrado
1. Los valores de X2 son mayores o iguales que 0.
2. La forma de una distribución X2 depende del gl=n-1. En
consecuencia, hay un número infinito de distribuciones X2.
3. El área bajo una curva ji-cuadrada y sobre el eje horizontal
es 1.
4. Las distribuciones X2 no son simétricas. Tienen colas
estrechas que se extienden a la derecha; esto es, están
sesgadas a la derecha.
5. Cuando n>2, la media de una distribución X2 es n-1 y la
varianza es 2(n-1).
6. El valor modal de una distribución X2 se da en el valor (n-
3).
7. Se usa cuando el tamaño de muestra es pequeño, < 30.
Prueba “ t ” de Student
Se utiliza para comparar los promedios de dos grupos independientes, o
las diferencia pareadas entre dos grupos no independientes, cuando el
tamaño de muestra es pequeño, < 30.
Esta prueba en el programa EXCEL, tiene tres opciones.
1. Prueba “t” para medias de dos muestras emparejadas. Es la
prueba “ t” para dos grupos de datos relacionados entre sí; con esta
opción no se comparan los promedios, sino las diferencias entre
pares de valores.
2. Prueba “t” para dos muestras suponiendo varianzas iguales. Es
la prueba “t” donde se compara los promedios de dos grupos
independientes, cuyas varianzas sean iguales u homocedasticas.
3. Prueba “t” para dos muestras suponiendo varianzas
desiguales. Es la prueba “t” donde se compara los promedios de dos
grupos independientes, cuyas varianzas sean desiguales o
heterocedasticas.
Prueba F de Fisher
Es la comparación de la variabilidad de los datos en dos grupos
independientes que permite comparar dos varianzas obteniendo un
coeficiente, mayor que uno resultante de dividir la varianza mayor entre la
menor. Se usa cuando el tamaño de muestra es pequeño, < 30

Interpretación: Se compara el valor de F calculado, con el indicado en la


tabla de F de Fisher, para los grados de libertad de los dos grupos,
correspondientes (g.l. = n-1 de cada grupo, siendo el del numerador el que
corresponda al del grupo que tenga la varianza mayor.
 
Si la probabilidad es p menor que 0.05 la diferencia entre las varianzas es
significativa o que las varianzas son heterogéneas o heterocedásticas; si p
mayor que 0.05, las varianzas son iguales (estadísticamente), homogéneas
u homocedásticas.
El análisis de regresión
Consiste en emplear métodos que permitan determinar la
mejor
relación funcional entre dos o mas variables concomitantes (o
relacionadas). El análisis de correlación estudia el grado de
asociación de dos o mas variables.
El análisis de correlación
Emplea métodos para medir la significación del grado o intensidad
de asociación entre dos o mas variables.
El concepto de correlación esta estrechamente vinculado al
concepto de regresión, pues, para que una ecuación de regresión
sea razonable los puntos muestrales deben estar ceñidos a la
ecuación de regresión; además el coeficiente de correlación debe
ser:
1. Grande cuando el grado de asociación es alto (cerca de +1 o -1,
y pequeño cuando es bajo, cerca de cero.
2. Independiente de las unidades en que se miden las variables
Inferencia de los resultados experimentales

También podría gustarte