Este documento describe varias distribuciones de probabilidad para variables aleatorias discretas y continuas. Explica la distribución uniforme para variables discretas y las distribuciones normal, binomial, t de Student y F de Fisher para variables continuas. Define los parámetros y propiedades clave de cada distribución como su forma, media, varianza y aplicaciones comunes.
0 calificaciones0% encontró este documento útil (0 votos)
49 vistas7 páginas
Este documento describe varias distribuciones de probabilidad para variables aleatorias discretas y continuas. Explica la distribución uniforme para variables discretas y las distribuciones normal, binomial, t de Student y F de Fisher para variables continuas. Define los parámetros y propiedades clave de cada distribución como su forma, media, varianza y aplicaciones comunes.
Este documento describe varias distribuciones de probabilidad para variables aleatorias discretas y continuas. Explica la distribución uniforme para variables discretas y las distribuciones normal, binomial, t de Student y F de Fisher para variables continuas. Define los parámetros y propiedades clave de cada distribución como su forma, media, varianza y aplicaciones comunes.
Este documento describe varias distribuciones de probabilidad para variables aleatorias discretas y continuas. Explica la distribución uniforme para variables discretas y las distribuciones normal, binomial, t de Student y F de Fisher para variables continuas. Define los parámetros y propiedades clave de cada distribución como su forma, media, varianza y aplicaciones comunes.
Descargue como PDF, TXT o lea en línea desde Scribd
Descargar como pdf o txt
Está en la página 1de 7
VARIABLES ALEATORIAS DISCRETAS
Distribución uniforme
La distribución uniforme es la que corresponde a una variable que toma todos
sus valores, x1, x2... , xk, con igual probabilidad; el espacio muestral debe ser finito.
Si la variable tiene k posibles valores, su función de probabilidad sería:
donde k es el parámetro de la distribución (un parámetro es un valor que sirve para
determinar la función de probabilidad o densidad de una variable aleatoria)
La media y la varianza de la variable uniforme se calculan por las
expresiones:
El histograma de la función toma el aspecto de un rectángulo, por ello, a la
distribución uniforme se le suele llamar distribución rectangular.
Distribución binomial
La distribución binomial es típica de las variables que proceden de un
experimento que cumple las siguientes condiciones:
1) El experimento está compuesto de n pruebas iguales, siendo n un número
natural fijo. 2) Cada prueba resulta en un suceso que cumple las propiedades de la variable binómica o de Bernouilli, es decir, sólo existen dos posibles resultados, mutuamente excluyentes, que se denominan generalmente como éxito y fracaso.
3) La probabilidad del ‚éxito (o del fracaso) es constante en todas las pruebas.
P(éxito) = p ; P(fracaso) = 1 - p = q
4) Las pruebas son estadísticamente independientes,
En estas condiciones, la variable aleatoria X que cuenta el número de ‚éxitos
en las n pruebas se llama variable binomial. Evidentemente, el espacio muestral estar compuesto por los números enteros del 0 al n. Se suele decir que una variable binómica cuenta objetos de un tipo determinado en un muestreo de n elementos con reemplazamiento.
La función de probabilidad de la variable binomial se representa como
b(x,n,p) siendo n el número de pruebas y p la probabilidad del ‚éxito. n y p son los parámetros de la distribución.
La media y la varianza de la variable binomial se calculan como:
Media = μ = n p
Varianza = σ2 = n p q
Gráficamente el aspecto de la distribución depende de que sea o no
simétrica Por ejemplo, el caso en que n = 4: VARIABLES ALEATORIAS CONTINUAS
Distribución normal o de Gauss
La distribución normal fue definida por De Moivre en 1733 y es la
distribución de mayor importancia en el campo de la estadística.
Una variable es normal cuando se ajusta a la ley de los grandes números, es
decir, cuando sus valores son el resultado de medir reiteradamente una magnitud sobre la que influyen infinitas causas de efecto infinitesimal.
Las variables normales tienen una función de densidad con forma de
campana a la que se llama campana de Gauss.
Su función de densidad es la siguiente:
Los parámetros de la distribución son la media y la desviación típica, μ y σ,
respectivamente. Como consecuencia, en una variable normal, media y desviación típica no deben estar correlacionadas en ningún caso (como desgraciadamente ocurre en la inmensa mayoría de las variables aleatorias reales que se asemejan a la normal.
La curva normal cumple las siguientes propiedades:
1) El máximo de la curva coincide con la media.
2) Es perfectamente simétrica respecto a la media (g 1 = 0). 3) La curva tiene dos puntos de inflexión situados a una desviación típica de la media. Es convexa entre ambos puntos de inflexión y cóncava en ambas colas. 4) Sus colas son asintóticas al eje X.
Para calcular probabilidades en intervalos de valores de la variable, habría
que integrar la función de densidad entre los extremos del intervalo. Por desgracia (o por suerte), la función de densidad normal no tiene primitiva, es decir, no se puede integrar. Por ello la única solución es referirse a tablas de la función de distribución de la variable (calculadas por integración numérica) Estas tablas tendrían que ser de triple entrada (μ, σ, valor) y el asunto tendría una complejidad enorme.
Afortunadamente, cualquier que sea la variable normal, X, se puede
establecer una correspondencia de sus valores con los de otra variable con distribución normal, media 0 y varianza 1, a la que se llama variable normal tipificada o Z. La equivalencia entre ambas variables se obtiene mediante la ecuación:
La función de distribución de la variable normal tipificada está tabulada y,
simplemente, consultando en las tablas se pueden calcular probabilidades en cualquier intervalo que nos interese.
De forma análoga a lo pasaba con las variables Poisson, la suma de
variables normales independientes es otra normal.
Histograma de una normal idealizada Histograma de una muestra de una
variable normal Distribución T de Student
Supongamos dos variables aleatorias independientes, una normal tipificada,
Z, y otra con distribución con grados de libertad, la variable definida según la ecuación:
Tiene distribución t con grados de libertad.
La función de densidad de la distribución t es:
El parámetro de la distribución t es , su número de grados de libertad.
Esta distribución es simétrica respecto al eje Y y sus colas se aproximan
asintóticamente al eje X. Es similar a la distribución Z salvo que es platicúrtica y, por tanto, más aplanada.
Cuando n tiende a infinito, t tiende asintóticamente a Z y se pueden
considerar prácticamente iguales para valores de n mayores o iguales que 30..
Variables T con valores de progresivamente mayores
son cada vez menos platicúrticas
Comparación entre la variable T y la normal tipificado.
Distribución F de Fisher - Snedecor
Sean U y V dos variables aleatorias independientes con distribución con
1 y 2 grados de libertad, respectivamente. La variable definida según la ecuación:
Tiene distribución F con 1, 2 grados de libertad.
La función de densidad de la distribución F es:
Los parámetros de la variable F son sus grados de libertad 1 y 2.
Las distribuciones F tienen una propiedad que se utiliza en la construcción de
tablas que es la siguiente:
Llamemos f1,2 al valor de una distribución F con 1 y 2 grados de libertad
que cumple la condición, P(F > f1,2) = α; llamemos f1,2 al valor de una distribución F con 1 y 2 grados de libertad que cumple la condición, P(F > f 1,2) = 1- α. Ambos valores están relacionados de modo que uno es el inverso del otro.