Distribuciones de Probabilidad

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 9

INSTITUTO POLITECNICO NACIONAL

Escuela Superior de Ingeniería Química e


Industrias extractivas

Departamento de formación básica


Academia de integración básica

Probabilidad y estadística

DISTRIBUCIONES DE PROBABILIDAD
ESPINOZA JUAREZ VALERIA
Honorato Cervantes Hever
Grupo:1IM38
Fecha de entrega: 18/09/2021
FUNCIÓN DE PROBABILIDAD
En teoría de la probabilidad, una función de probabilidad (también
denominada función de masa de probabilidad) es una función que asocia a
cada punto de su espacio muestral X la probabilidad de que ésta lo asuma.

La gráfica de una función de probabilidad de masa note que todos los valores
no son negativos, y la suma de ellos es igual a 1.

La función de masa de probabilidad de un Dado. Todos los números tienen


la misma probabilidad de aparecer cuando este es tirado.

En concreto, si el espacio muestral, E de la variable aleatoria X consta de

los puntos x1, x2, ...,

xk, la función de probabilidad P asociada a X es

donde pi es la probabilidad del suceso X = xi.

Por definición de probabilidad,

Hay que advertir que el concepto de función de probabilidad sólo tiene


sentido para variables aleatorias que toman un conjunto discreto de valores.
Para variables aleatorias continuas el concepto análogo es el de función de
densidad.
FUNCIÓN DE DISTRIBUCIÓN
Llamamos función de distribución de una variable aleatoria X y la
denotamos por F(x), a la función que asocia a cada valor x la probabilidad
acumulada para todos los valores menores o iguales a x: F(x)=P(X≤x).
Podemos decir por tanto, que la función de distribución nos permite estudiar
el comportamiento probabilístico de la variable aleatoria X que tiene
asociada cualquier experimento aleatorio.
PROPIEDADES
Cualquier función que cumpla estas cinco propiedades diremos que es un
función de distribución, y recíprocamente; toda función de distribución
tiene que cumplir estas cinco propiedades por el simple hecho de ser función
de distribución:
1. Su imagen está entre el 0 y el 1. 0≤F(x)≤1.
2. Para valores de la variable aleatoria en el más infinito (los valores mayores
de los que están definidos), la función de distribución tiende a 1: F(x)→1
cuando x→+∞. Es decir:
3. Por el contrario, para los valores de la variable aleatoria en el menos
infinito (los valores más pequeños de los que están definidos), la función de
distribución tiende a cero: F(x)→0 cuando x→-∞. Es decir:

4. F(x) es un función monótona creciente, es decir, si x1<x2, entonces


F(x1)≤F(x2).
5. F(x) es continua por la derecha, por tanto se cumple:

REPRESENTACIÓN
A partir de las propiedades anteriores, podemos decir como será la
representación de nuestra función. Nos podemos encontrar dos tipos de
representaciones, y en algún caso, puede ser que sea una mezcla se ambas.
PRINCIPALES DISTRIBUCIONES DISCRETAS Y SUS
CARACTERÍSTICAS.

DISTRIBUCIÓN UNIFORME
Es la distribución discreta más simple de todas. En ella la variable puede
tomar “n” valores discretos: x1, x2, x3, … xi, todos con la misma probabilidad.
En tal caso, la distribución viene dada por:

DISTRIBUCIÓN BINOMIAL
Se aplica a experiencias con solo dos resultados posibles y mutuamente
excluyentes, a los cuales se les suele llamar “éxito” y “fracaso”, denotadas
como E y F respectivamente. El hecho de que a un evento se le llame “éxito”,
no necesariamente significa que sea algo bueno, es más bien una
designación arbitraria.

A la probabilidad de éxito P(E) en “n” ensayos, se la denota como p, y a la de


fracaso P(F) como q = 1 – p.

Si “x” representa un determinado número de éxitos en los “n” ensayos


independientes, se cumple que: 0 ≤ x ≤ n. Y la probabilidad de ocurrencia
P(x) del evento, se calcula a través de la siguiente fórmula:

Donde x = 0, 1, 2, 3…, n y el símbolo (!)


significa “factorial”:

x! = x∙(x−1)∙(x−2) ∙(x−3)… 1

0! = 1
DISTRIBUCIÓN DE POISSON
En esta distribución, la variable aleatoria x señala cuántas veces ocurre un
evento en algún intervalo, que puede ser de tiempo, distancia u otro. Las
ocurrencias del evento son aleatorias, independientes y están distribuidas
de manera uniforme a lo largo del intervalo en cuestión.

Cumplidas estas condiciones, la probabilidad, que depende del promedio de


ocurrencias μ y del número de Euler o número “e”, se calcula mediante:

Las probabilidades de que sucedan eventos con esta distribución son


pequeñas, por eso se la denomina la “ley de los casos raros”.

APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL


La distribución de Poisson sirve como aproximación a la distribución
binomial cuando n es grande (n≥ 100) y p es pequeña (np ≤ 10). En tal caso,
la media μ se calcula como:

μ = n∙p

DISTRIBUCIÓN HIPERGEOMÉTRICA
Se utiliza cuando las probabilidades no son independientes, es decir que,
luego de llevar a cabo el experimento, las condiciones no vuelven a ser las
mismas. Esto es lo que sucede al extraer muestras sin reemplazo de una
población, por lo que ya no puede usarse la distribución binomial.

Si la población consta de dos tipos de objetos diferentes A y B, y se


seleccionan n objetos al azar y sin reemplazo, la probabilidad de obtener x
objetos del tipo A es:
Donde A y B son las cantidades respectivas de objetos de cada tipo,
presentes en la población.

No obstante, si la población tiene un tamaño muy grande, aun si no hay


reemplazo, es difícil que un mismo elemento pueda ser seleccionado más de
una vez, por lo que ambas distribuciones: binomial e hipergeométrica,
producen resultados similares.

PRINCIPALES DISTRIBUCIONES CONTINUAS Y SUS


CARACTERÍSTICAS.
DISTRIBUCIÓN BETA
La distribución beta es una distribución de probabilidad continua que
se puede utilizar para representar resultados proporcionales o de
probabilidad. Por ejemplo, la distribución beta podría usarse para
determinar la probabilidad de que su candidato preferido a la alcaldía
reciba el 70% de los votos.
Para usar una distribución de probabilidad continua para encontrar
probabilidades ( P ) se usa la siguiente fórmula general:

Esta fórmula encuentra la probabilidad de que la variable aleatoria X cae


dentro del intervalo desde una a ayb dada la función de densidad f
( x ). Cada distribución de probabilidad continua tiene su propia función
de densidad asociada, y la de la distribución beta es la siguiente:
La distribución exponencial
La distribución exponencial es el equivalente continuo de la distribución
geométrica discreta. Esta ley de distribución describe procesos en los que:

• Nos interesa saber el tiempo hasta que


ocurre determinado evento, sabiendo que,
• El tiempo que pueda ocurrir desde
cualquier instante dado t, hasta que ello
ocurra en un instante tf, no depende del
tiempo transcurrido anteriormente en el
que no ha pasado nada.

DISTRIBUCIÓN F
La distribución F es un modelo estadístico que se utiliza para estudiar las
varianzas de dos poblaciones independientes. También se usa,
principalmente, en el análisis de varianza, una técnica estadística
desarrollada por estadístico inglés Fisher.
La distribución F presenta características definidas que la diferencian de
otras distribuciones. Algunas de ellas son:
Las distribuciones F incluyen varios métodos estadísticos.
La distribución F particular que se utiliza depende del número de grado de
libertad que tiene la muestra. Esta característica de
la distribución F también está presente en otras
distribuciones, como la distribución T y la
distribución chi-cuadrado.
El valor de la distribución F es nulo, es decir, cero o
positivo. No tiene valores negativos.
La distribución F posee una leve inclinación hacia
la derecha. Por lo tanto, se trata de una
distribución de probabilidad que no es simétrica.
DISTRIBUCIÓN GAMMA
Es una distribución adecuada para modelizar el comportamiento de
variables aleatorias continuas con asimetría positiva.
Es decir, variables que presentan una mayor
densidad de sucesos a la izquierda de la media que a
la derecha. En su expresión se encuentran dos
parámetros, siempre positivos, (α) y (β) de los que
depende su forma y alcance por la derecha, y
también la función Gamma Γ(α), responsable de la
convergencia de la distribución.

DISTRIBUCIÓN JI-CUADRADA
La distribución ji-cuadrado tiene muchas aplicaciones en inferencia
estadística, por ejemplo, en el test ji-cuadrado y en la estimación de
varianzas. También está involucrada en el problema de estimar la media
de una población normalmente distribuida y en el problema de estimar la
pendiente de una recta de regresión lineal, a través de su papel en la
distribución t , y participa en todos los problemas de análisis de varianza,
por su papel en la distribución F , que es la distribución del cociente de
dos variables aleatorias de distribución ji-cuadrada e independientes.
DISTRIBUCIÓN UNIFORME CONTINUA

Una variable aleatoria tiene una distribución uniforme continua si la


probabilidad de que tome un valor, dentro de un intervalo finito [a,b], es la
misma para cualquier sub-intervalo de igual longitud.

Esta distribución es análoga a la distribución uniforme discreta, que


asignaba a cada resultado del experimento aleatorio la misma
probabilidad, pero en este caso la variable a considerar es continua. Por
ejemplo, el experimento que consiste en seleccionar un número real al
azar, entre los valores a y b, sigue la distribución uniforme. Acá se tiene
su gráfica:

En notación matemática, la distribución uniforme continua tiene una


función de densidad definida como una función a trozos o por tramos, que
se puede escribir como:

También podría gustarte