Epn-(3) Leyes Probabilidad

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 18

ESCUELA POLITECNICA NACIONAL – FACULTAD SISTEMAS

CURSO DE ESTADISTICA Y PROBABILIDADES


PROFESOR: MAT. FERNANDO CARRASCO

Variables aleatorias

2.1 Introducción.
La palabra aleatoria, implica el azar, es decir, que no se sabe cuál valor o resultado se
va a obtener como consecuencia de un experimento.

También son importantes las variables aleatorias, debido a que son el inicio para
comenzar a abordar lo que se llama la estadística inferencial, que se diferencia de la
estadística descriptiva, en que, la estadística inferencial toma como base la
probabilidad para llevar a cabo las diferentes pruebas de hipótesis requeridas.

Definición.

Sea, X una función, y  su espacio muestral (sobre el cual está definida la función).
 A la función X :  ----------- R, se le llama variable aleatoria.

En otras palabras se tiene una variable aleatoria, si como resultado de un experimento,


no se sabe que valores va a tomar de antemano, es decir, es un resultado incierto que
depende del azar.

2.2 Tipos de variables aleatorias.


Se tiene dos tipos de variables aleatorias, las variables aleatorias discretas y las
variables aleatorias continuas.

Se tiene una variable aleatoria discreta (v.a.d.), cuando se pueden numerar los valores
que puede tomar la variable, pudiendo establecer una correspondencia con el conjunto
de los números enteros positivos. La numeración o conteo de los valores de la variable
aleatoria discreta puede ser finita o infinita, es decir, cuando se pueden numerar los
valores como: 1,2,3, 4, ....,n,...

Por otro lado, se tiene una variable aleatoria continua (v.a.c.), cuando los valores que
puede tomar la variable no se pueden numerar, y por ende no se puede establecer una
correspondencia con los enteros positivos.

1
2.3 Función de distribución de probabilidad

La función de distribución de probabilidad F(x), conocida también como ley integral de


distribución de probabilidad, o función de distribución acumulativa, indica la
probabilidad que existe desde el menos infinito hasta el valor x de la variable aleatoria
Ж (sea discreta o continua).

Así, se define la función de distribución de probabilidad para la variable aleatoria Ж


(discreta o continua) por:

F(x) = P(Ж ≤ x)

Gráficamente, tenemos el siguiente esquema:

Recordemos que la suma de toda la probabilidad es igual a 1, donde el área


sombreada en azul (probabilidad desde el menos infinito hasta el valor x), representa la
función de distribución de probabilidad F(x).

Esta función F(x) es una función creciente, lo que significa que:

 Si x1 < x2, entonces F(x1) ≤ F(x2), y

Propiedad que es evidente, ya que si tenemos un valor x2 de la variable aleatoria


mayor que un valor x1, vamos a tener mayor probabilidad acumulada para el valor
mayor. Esto lo podemos apreciar en el siguiente gráfico:

Además: lim F(x) =1, lim F(x) =0.


x-> + α x-> - α

2
2.4 Caracterización de variables aleatorias

Al definir la probabilidad, esta se la hace siempre sobre los eventos A, B, C, etc.,


teniendo P(A), o P(B), etc. Sin embargo, para el caso de las variables aleatorias, la
notación, como se aprecia en la definición de función de distribución de probabilidad,
cambia. Esto no implica que cambie la noción de probabilidad, es solamente una forma
diferente de designar al evento.

Así, por ejemplo, para notar la probabilidad de que al lanzar un dado salga un número
menor o igual que 3, tenemos lo siguiente:

 Sea A el evento “que salga un número menor o igual que 3”, se notaba P(A).
 Ahora, se define una variable aleatoria X, que representa el valor de la cara al
lanzar un dado, y se escribe simplemente P(X ≤ 3).

Las variables aleatorias discretas X, se caracterizan por su tabla de distribución


de probabilidad:

Variable X x1 x2 x3 . xi . Xn
aleatoria
Distribución o
ley de P p1 p2 p3 . pi . pn
probabilidad

Con la propiedad (suma de probabilidades igual a 1): p1 + p2 + p3 +...+ pn = 1.

Se utiliza la notación siguiente: pi = P(X = xi) para i = 1,2,3,...,n.

A esta función pi = P(X = xi), se le suele llamar también, “función discreta de


densidad” o “ley de probabilidad” de la variable aleatoria discreta X.

Las variables aleatorias continuas X, se caracterizan por una función f(x),


conocida como “función de densidad” o “ley de probabilidad” de la variable
aleatoria continua X, la que se obtiene tomando la primera derivada de la función
de distribución de probabilidad F(x), es decir: f(x) = F(x)’.

De esta relación f(x) = F(x)’ se tienen las propiedades:

∫ ( (

( ∫ ( ( ∫ (

Así, una función cualquiera de densidad f(x)


de alguna variable aleatoria continua X,
gráficamente se la puede visualizar de la
forma siguiente:

3
Estas funciones de densidad o leyes de probabilidad tanto discretas o continuas,
surgen de situaciones reales en diferentes ámbitos del saber y, de acuerdo a la
situación y el descubridor de tales funciones, se han bautizado con diferentes nombres,
tales como:

 Ley de Bernoulli, Ley Binomial, Ley de Poisson, Ley Geométrica, Ley Binomial
Negativa, etc., para el caso de variables aleatorias discretas y,

 Ley Uniforme, Ley Normal, Ley T-student, Ley Chi-Cuadrada, etc., para el caso
de variables aleatorias continuas.

A continuación se define la tendencia central y dispersión para variables aleatorias.


Esto se hace con lo que se denomina “momentos estadísticos de orden k”, lo que
sirve para definir otras estadísticas acerca de las distribuciones de los datos, como es
la simetría, números índice, entre otros.

2.5 Definición de momentos estadísticos de orden k


Sea X una variable aleatoria discreta.

Definición.- Se define el momento de orden k para la variable discreta X, por:

n
 k  E ( X )   xik pi
k

i 1

Se dice también que el momento de orden k, es el valor esperado de la variable


aleatoria Xk (la variable aleatoria X elevada a la potencia k)

Nota: al caso particular del momento de orden 1 (k=1), se le llama ESPERANZA


MATEMÁTICA, o valor esperado, que viene a representar el valor promedio de la
distribución de los datos. Es decir, se define el promedio (o valor esperado, o
esperanza matemática) como:
n
  E ( X )   xi pi
i 1

La varianza, se define como:


n
  V ( X )   ( xi   ) 2 pi
2

i 1

Esta expresión representa el momento de orden 2 de la variable (X-μ).

La desviación estándar, como ya sabemos, se la obtiene tomando la raíz cuadrada de


la varianza.

4
Vemos ahora las definiciones anteriores para una variable aleatoria continua X.

Definición.- Se define el momento de orden k para la variable aleatoria continua X,


por:

k  E( X )   x k f ( x)dx
k



Se dice también que el momento de orden k, es el valor esperado de la variable


aleatoria Xk (la variable aleatoria X elevada a la potencia k)

Nota: al caso particular del momento de orden 1 (k=1), se le llama ESPERANZA


MATEMÁTICA, o valor esperado, que es el valor promedio de la distribución de los
datos. Es decir, se define el promedio (o valor esperado, o esperanza matemática)
como:

  E ( X )   x f ( x)dx


La varianza, se define como:



  V ( X )   ( x   ) 2 f ( x)dx
2



Esta expresión representa el momento de orden 2 de la variable (X-μ). Para la


desviación estándar, tomamos la raíz cuadrada de la varianza.

Con base en estas definiciones, se calcula la tendencia central y la dispersión de las


diferentes leyes de probabilidad, teniendo que estos parámetros (o valores o
características) representan atributos muy importantes en los diferentes esquemas de
probabilidad.

Además, con estas definiciones pueden plantearse algunas aplicaciones como el índice
de precios al consumidor, a partir del cual se mide la inflación, sea para la canasta
básica de bienes y servicios, o precios de la industria, etc.

Así, las leyes de probabilidad sean discretas (pi, = P(X = xi)) o continuas (f(x)), se
reitera, son funciones que surgen de situaciones y problemas reales, es decir, son
esquemas que se repiten con cierta frecuencia y que se modelan por una función
denominada ley de probabilidad.

Existen muchas leyes de probabilidad, discretas y continuas, de las cuales vamos a


abordar a continuación algunas de éstas.

5
Capítulo 3: Leyes de probabilidad para variables discretas
3.1 Ley Bernoulli
Bernoulli, es el esquema más simple de las leyes de probabilidad discreta y consiste en
lo siguiente:

Se realiza un experimento, sobre el cual se plantea si ocurre o no un cierto evento.

Así, este es un experimento donde se tienen dos posibles resultados: (i) ocurre el
evento, y (ii) no ocurre el evento. Cuando ocurre el evento, se dice que se tiene un
éxito (E), mientras que, cuando no ocurre el evento, se dice que se tiene un fracaso (F).

Sea X, la variable aleatoria discreta de Bernoulli que cuenta el número de éxitos que se
obtienen del experimento, como tal puede tomar dos valores 0 y 1, equivalente a
fracaso y éxito respectivamente.

Por ejemplo, se lanza un dado, y se plantea el evento que salga la cara marcada con el
número cuatro. Si sale el número cuatro, se dice que se tiene un éxito, en caso
contrario (si sale el uno o el dos o el tres o el cinco o el seis), se tiene un fracaso.

Bajo este esquema se notan las probabilidades de éxito y fracaso, por:

 P(éxito) = P(E) = P( X = 1) = p
 P(fracaso) = P(F) = P( X = 0) = q

Con la propiedad : p+q=1

Estas probabilidades, p y q representan la ley de probabilidad, (en este caso Ley


Bernoulli de probabilidades), de la variable aleatoria discreta X.

Para el ejemplo planteado, se tiene un éxito si sale la cara marcada con el número
cuatro, entonces:
 P(E) = 1/6 (por definición básica de probabilidad), y
 P(F) = 5/6 (ya que p + q = 1).

Veamos la tendencia central y la dispersión de esta ley de probabilidad. Para esto se


utiliza la definición de esperanza matemática (o promedio) y varianza para una variable
aleatoria discreta. Sea X la v.a.d. de Bernoullí, la tabla de distribución de probabilidades
es:
X 0 1
P p q

 E(X) = 1 * p + 0 * q = p

La varianza es:

 V(X) = (1-p)2 p + (0-p)2 q = q2 p + p2 q = pq (p + q) = pq

La desviación estándar, es D(X) = pq

6
3.2 Ley Binomial

Supongamos ahora, que se realizan “n” experimentos de Bernoulli, cada uno de ellos
de forma independiente. Consideremos en este caso la variable aleatoria discreta X,
que representa la suma de éxitos obtenidos en los “n” experimentos de Bernoulli.
Los posibles resultados de suma de éxitos que se pueden tener son: 0 éxitos, 1 éxito, 2
éxitos, 3 éxitos..., hasta n éxitos.

Así, bajo este esquema se plantea lo siguiente, ¿cuál será la probabilidad de obtener
k éxitos, como resultado de los n experimentos de Bernoulli?.

A este esquema planteado, se lo denomina, el esquema o modelo Binomial 1de


probabilidades.

Luego, nos interesa calcular la probabilidad siguiente: P( X = k)

Se realizan “n” experimentos de Bernoulli”, de los cuales “k” son éxitos (y por lo tanto
se tienen (n-k) fracasos). Supongamos que ocurrió la siguiente serie de k éxitos y (n-k)
fracasos.

Luego la probabilidad de tener “k” éxitos para esta serie de eventos de Bernoulli es:

 P(B1) = P(E ∩ E ∩ F ∩ F ∩ E …. ∩ E ∩ E ∩ F ∩ E ∩ E)
= P(E) P(E) P(F) P(F) P(E) ….. P(E) P(E) P(F) P(E) P(E)
= p * p * q * q * p * …. *p*p* q * p * p = pk q n-k

Supongamos ahora que, de los n eventos de Bernoulli, los primeros k eventos fueron
éxitos, y los restantes (n-k) fracasos. Veamos si cambia la probabilidad, para este
esquema, como puede apreciarse en la siguiente figura:

Nuevamente, la probabilidad de tener “k” éxitos para esta serie, está dada por:

 P(B2) = P(E ∩ E ∩ E ∩ E ∩ E …. ∩ F ∩ F ∩ F ∩ F ∩ F)
= P(E) P(E) P(E) P(E) P(E) ….. P(F) P(F) P(F) P(F) P(F)
= p * p * p * p * p * …. *q*q* q * q * q = pk q n-k

1
Toma este nombre en honor al famoso Binomio de Newton.

7
Se aprecia que la probabilidad no cambia. Sin embargo, no interesa solamente las
series B1 y B2 de eventos, sino todas las combinaciones posibles, ya que se desea
calcular la probabilidad de tener k éxitos en n eventos de Bernoulli en cualquier orden
que éstos aparezcan.

Luego la suma de todas las combinaciones posibles de estas probabilidades nos da la


probabilidad deseada, es decir, se tiene que:

 P( X = k) = pk q n-k + pk q n-k + pk q n-k + … + pk q n-k


n!
C nk 
Por análisis combinatorio el total de combinaciones es:
k!(n  k )!
Donde el símbolo ! representa el factorial2 del número que le precede.

Así tenemos que:

 P( X = k) = pk q n-k + pk q n-k + pk q n-k + … + pk q n-k

n!
P( X  k )  p k q ( nk )
k!(n  k )!
Siendo ésta, la LEY BINOMIAL DE PROBABILIDADES.

La tabla de distribución de probabilidades de la v.a.d. X Binomial es:

X (número
0 1 … k … n
de éxitos)
… n! … n!
p k q (nk ) p n q (nn)
P n! n!
p 1 q ( n 1) k! (n  k )! n! (n  n)!
(probabilidad p 0 q ( n 0 )
de los 0!(n  0)! 1! (n  1)!
éxitos)

Así, utilizando nuevamente las definiciones de los momentos estadísticos, el valor


esperado y la varianza de una variable aleatoria binomial están dados por:


  E ( X )   xi pi  np
i 1

 La varianza está dado por: V(X) = npq

Nota: como deber, demostrar estos dos resultados indicados.

Puede apreciarse que si se aplica esta ley para n=1, se tiene la ley de Bernoulli.

2
El factorial no existe para enteros negativos
Por ejemplo, 5 factorial = 5! = 1*2*3*4*5 = 120,
10 factorial = 10! = 1*2*3*4*5*6*7*8*9*10 = 3’628.800
Por definición 0 factorial = 0! = 1

8
Veamos unos ejercicios sobre este esquema para aclarar los conceptos vistos.

Ejercicio 1. Se lanza un dado 20 veces, ¿cual será la probabilidad de que salga la


cara marcada con el cuatro en 15 ocasiones?.

Solución:

Este problema se ajusta al esquema binomial de probabilidades. Así, un lanzamiento


del dado puede ser visto como un evento de Bernoulli, en donde el éxito es cuando
sale la cara marcada con el cuatro y fracaso en caso contrario.

Luego tenemos 20 eventos de Bernoulli, y queremos la probabilidad de que ocurran 15


éxitos.

La probabilidad de un éxito está dada por la probabilidad de que salga la cara marcada
con el cuatro al lanzar el dado, P(E)= p = 1/6, y q = 5/6.

Utilizando la ley binomial de probabilidades tenemos:

Probabilidad de que salga la cara marcada con el cuatro en 15 ocasiones =

15 ( 2015 )
20! 1 5
 P( X  15)      = 0,000000013
15!(20  15)!  6   6 

Así, podemos apreciar que la probabilidad de que ocurra tal situación es bastante baja,
casi nula de que ocurra.

Ejercicio 2. El siguiente ejercicio, es una adaptación a una inquietud real. Hace un


tiempo, un profesor de la Facultad de Medicina de la Universidad Central, me comentó
que en su Facultad, suelen tomar algunos exámenes con un cierto número (variable)
de preguntas de respuestas verdadero o falso. Y me planteó si se podía determinar de
alguna manera, cuántas preguntas deberían hacerse, de tal manera que, quienes más
estudien, tengan más opciones de aprobar, y viceversa.

Y la respuesta fue afirmativa a tal inquietud; y, se resolvió con base en la ley binomial
de probabilidades.

Así, planteamos lo siguiente: ¿cuál será la probabilidad que tienen de aprobar, en un


examen de 20 preguntas de respuestas verdadero o falso, dos estudiantes que
estudiaron la materia, el uno aproximadamente un 60% de todos los temas, mientras
que la otra persona estuvo de farra la noche anterior, y va a la suerte que le toque.

Se plantea además que para aprobar el examen deben responder correctamente por lo
menos 16 preguntas.

Solución:

Cada una de las respuestas puede ser vista como un evento de Bernoulli, teniendo un
éxito si aciertan la pregunta, o fracaso si responden incorrectamente la pregunta.

9
Luego, como son 20 preguntas, tenemos el equivalente a 20 eventos de Bernoulli,
sabiendo que para aprobar el examen deben tenerse por lo menos 16 éxitos, es decir,
pueden ser 16 o 17 o 18 o 19 o 20 éxitos.

Entonces, probabilidad de aprobar = P(A) = P( X ≥ 16 )

= P(X=16) + P(X=17) + P(X=18) + P(X=19) + P(X=20)

siendo X, la variable aleatoria binomial que representa el número de éxitos obtenidos


(respuestas correctas).

Para el primer estudiante (que estudió alrededor del 60% de la materia), los parámetros
son:

 n= 20 (eventos de Bernoulli)
 p = P(E) = 0.8 (probabilidad de acertar en una pregunta cualquiera). Y se
deduce dicho valor por una regla de tres, tomando en cuenta que sin estudiar
tienen una probabilidad de acertar de por lo menos 0.5.
 q = 0.2 (complemento de p)
 los éxitos (en la fórmula Binomial es el valor k) son 16, 17, 18, 19 y 20.

Entonces, usando la ley binomial de probabilidades, se tiene

 P(A) = P(X=16) + P(X=17) + P(X=18) + P(X=19) + P(X=20)

= 0.2182 + 0.2054 + 0.1369 + 0.0576 + 0.0115 = 0.6296

Este alumno tiene alrededor de un 63% de posibilidades de aprobar el examen.

Veamos ahora el caso del segundo estudiante (que estuvo de farra), los parámetros
son:

 n= 20 (eventos de Bernoulli)
 p = P(E) = 0.5 (probabilidad de acertar en una pregunta cualquiera, por
definición básica de probabilidad)
 q = 0.5 (complemento de p)
 los éxitos (en la fórmula Binomial es el valor k) son 16, 17, 18, 19 y 20.

Usando la ley binomial de probabilidades, se tiene:

 P(A) = P(X=16) + P(X=17) + P(X=18) + P(X=19) + P(X=20)


= 0.0046 + 0.0011 + 0.0002 + 0.0000 + 0.0000 = 0.0059

Las posibilidades de aprobar no llegan ni al 1%.

Si dividimos estas probabilidades (0.6296 / 0.0059 ), la persona que estudió tiene 107
oportunidades más de éxito con el examen, frente a quién no estudió.

10
3.3 Ley Hipergeométrica

Esta ley se basa en el siguiente esquema: se tiene una población N de elementos, la


cual está caracterizada o definida por dos grupos (G1 y G2), y digamos que M
elementos pertenecen al grupo G1 y (N-M) elementos pertenecen al grupo G2.
De esta población, se toma al azar una muestra de n elementos (n≤N), y se plantea
calcular la probabilidad de que esta muestra esté formada por k elementos que
pertenecen al grupo G1, y (n-k) elementos al grupo G2.
Gráficamente, el esquema es:

A este esquema, se le llama el modelo Hipergeométrico de probabilidades.

Sea X, la variable aleatoria discreta que representa el número de elementos k que


pertenecen al grupo 1, la probabilidad de que hayan k elementos está dado por:

M! ( N  M )!
k ( nk )
C C ( N M ) k!( M  k )! (n  k )!( N  M  n  k )! Ley
P( X  k )  M
n
 Hipergeométrica
C N
N! de probabilidades

n!( N  n)!

Siendo la proporción que existe de elementos del Grupo 1, el valor esperado


y la varianza de la variable aleatoria discreta Hipergeométrica X, están dados por:

(
( (
(

Veamos a continuación unos ejercicios:

11
Ejercicio. Se tiene un grupo 20 personas, compuesto por 10 hombres y 10 mujeres.
Se toma al azar un grupo de 2 personas. ¿Cuál será la probabilidad de que el grupo
tomado al azar esté compuesto por 1 hombre y 1 mujer?.

Solución: Este problema se ajusta al esquema Hipergeométrico de probabilidades,


teniendo el grupo de 10 hombres (digamos G1), y el grupo de 10 mujeres (G2). De
estas 20 personas, se toma al azar un grupo de n=2 personas.

De acuerdo a la notación utilizada, tenemos:

 N=20 (población total)


 M=10, (N-M=10)
 n=2 (muestra al azar)
 k=1 (n-k=1)

Utilizando la ley Hipergeométrica de probabilidades, tenemos:

10! (20  10)!


1!(10  1)! (2  1)!(20  10  2  1)!
P( A)  = (10*10)/190 = 0.5263158
20!
2!(20  2)!

Así, existe casi un 53% de opciones que ocurra el evento planteado.

Vamos a resolver este mismo ejercicio, con base en la definición básica de


probabilidades

Para esto debemos definir el espacio muestral (conjunto de posibles resultados), y de


este conjunto, contamos cuantos elementos cumplen la condición (grupos de 2
personas, compuestos por un hombre y una mujer). Veamos el siguiente gráfico para
ayudarnos a establecer el espacio muestral:

El espacio muestral esta formado por todas las combinaciones posibles de dos
personas que pueden darse de entre las 20 totales.

12
Así, del gráfico podemos ver, por ejemplo, que el primer hombre puede combinarse o
hacer grupos de dos, con cada una de las 10 mujeres, y con cada uno de los nueve
hombres restantes.

Luego, posibles grupos de 2 personas formados por un hombre y una mujer, son 100,
ya que son las combinaciones de cada uno de los 10 hombres con cada una de las 10
mujeres (10*10).

Pero también, por ser tomados al azar, pueden formarse grupos de dos hombres o dos
mujeres. Y, podemos ver que el primer hombre se puede combinar con los otros nueve
hombres, teniendo así 9 grupos; luego el segundo hombre se puede combinar con los 8
hombres restantes, teniendo 8 grupos posibles más, y así sucesivamente, hasta llegar
al penúltimo que forma un grupo más con el último.

Así tenemos que los grupos posibles de 2 hombres son: 9+8+7+6+5+4+3+2+1=45. Y


como se tiene igual número de mujeres, tenemos también 45 posibles grupos de 2
mujeres.

Luego el espacio muestral está formado por un conjunto de 190 elementos (grupos
posibles de 2 personas), de los cuales, 100 están compuestos por 1 hombre y una
mujer, 45 están formados por 2 hombres, y 45 están formados por 2 mujeres.

Por definición de probabilidad, tenemos que 100 elementos (de los 190 posibles),
cumplen la condición (grupos de 2 personas formado por un hombre y una mujer).

Por lo tanto P(A) = 100/190 = 0.5263158, obteniendo el mismo resultado que se


obtuvo con la ley Hipergeométrica.

Sin embargo, este ejercicio resulta fácil de resolver por la definición básica de
probabilidad debido solamente a que se toma un grupo de dos personas. Para el caso
en que se tomara, por ejemplo, 7 personas al azar, de las cuales 3 sean hombres, y 4
mujeres, resulta casi imposible resolver por la definición básica de probabilidad, pero
en cambio es muy fácil hacerlo con la ley Hipergeométrica que modela tal situación.

Utilizando la ley Hipergeométrica de probabilidades en el caso de tomar al azar una


muestra de 7 personas, la probabilidad de que el grupo esté formado por 3 hombres y 4
mujeres, está dada por:

10! (20  10)!


3!(10  3)! (7  3)!(20  10  7  3)!
P( A)  = 120*210 / 77520 = 0.325
20!
7!(20  7)!

13
3.4 Ley de Poisson
Existen eventos o esquemas en los cuales se tiene arribos o llegadas de elementos a
un sistema, por ejemplo:
 personas que llegan a un banco para ser atendidos,
 personas que llegan o arriban a un centro comercial,
 carros que llegan a una cierta esquina
 aviones que arriban a un aeropuerto
 llamadas telefónicas que arriban a una central, etc.

Esquemáticamente podemos tener lo siguiente:

Se pueden modelar algunas de estas situaciones, digamos raras, en el sentido que


muchas de ellas no tienen control sobre la forma como arriban los elementos, como es
el caso de los carros que llegan a una determinada esquina.

Así, surge lo que se llama el proceso de Poisson, el cual consiste en lo siguiente:


 Los elementos que arriban al sistema son independientes entre sí.
 Los elementos arriban o llegan al sistema en forma aleatoria, y
 Los tiempos entre arribos de los elementos son también aleatorios.

Luego, un esquema o sistema que cumpla con estas tres condiciones a la vez, se llama
proceso físico de Poisson3.

Por ejemplo, la llegada de aviones a un aeropuerto: el aeropuerto viene a ser el


sistema, los aviones son los elementos que arriban al sistema. Muchos elementos
pueden ser independientes entre sí (si son de compañías aéreas diferentes), sin
embargo, los aviones no llegan en forma aleatoria, debido a que tienen horarios
establecidos, y por lo tanto, este esquema o sistema, no es un proceso de Poisson.

Analicemos ahora el caso de los carros que llegan a una determinada esquina de la
cuidad. La esquina con los semáforos es el sistema, y los carros son los elementos que
arriban a la esquina (sistema), donde son “atendidos” y continúan. Los carros, en
general, llegan o pasan por el lugar en forma aleatoria, son independientes entre sí, y
también, en general, los tiempos entre arribos podemos decir que son aleatorios, y por
lo tanto, puede establecerse que este es un proceso de Poisson.
Pero como se modela una situación como ésta, ya que los elementos pueden estar
arribando al sistema todo el tiempo, es decir de manera continua.

Para modelar este proceso, se establece un cierto intervalo de tiempo para el análisis,
por ejemplo, un minuto, o una hora, etc., y se plantea ¿cuál será la probabilidad de que
al sistema arriben k elementos (en el intervalo de tiempo acordado para el análisis)?

3
Suele decirse que esta ley sirve para modelar eventos raros.

14
Sea X, la variable aleatoria discreta que representa el número de elementos k que
arriban al sistema durante el intervalo de tiempo establecido. Se define la Ley de
probabilidades de Poisson por:

k e  
P( X  k ) 
k!
Donde,
 λ, se denomina el parámetro de Poisson, y representa al número
promedio de elementos que arriban al sistema durante el intervalo de
tiempo acordado.
 e, es el número 2.7182 (base de los logaritmos naturales)
Los valores que puede tomar esta variable aleatoria teóricamente van desde cero hasta
el infinito, es decir, k = 0,1,2,3,.....

Una de las cosas interesantes que podemos notar en estos procesos de Poisson es
que los elementos pueden forman colas si el tiempo de atención en el sistema tarda,
como es el caso típico al ir a un Banco, a un centro comercial, una llamada en espera,
el tráfico vehicular, etc. Así, con este modelo, puede estudiarse lo que suele
denominarse “teoría de colas”.

El valor esperado y la varianza de la variable aleatoria discreta de Poisson son:

 E(X) = λ , V(X) = λ

Ejercicio. Supongamos que por una determinada esquina de la ciudad, pasan en


promedio 7 carros cada dos minutos. ¿Cuál será la probabilidad de que no pase ningún
carro?, ¿cuál será la probabilidad de que pasen 5 carros?, y ¿cuál será la probabilidad
de que pasen 20 carros?

Solución:

Asumiendo que se cumplen las condiciones de un proceso de Poisson, tenemos que el


intervalo de análisis es dos minutos, y el parámetro de Poisson es λ = 7 (siete carros
pasan en promedio cada 2 minutos).

Luego tenemos:
7 0 e 7
 Probabilidad que no pase ningún carro = P( X  0)  = 0.000912
0!
7 5 e 7
 Probabilidad que pasen 5 carros = P( X  5)  = 0.127717
5!
7 20 e 7
 Probabilidad que pasen 20 carros = P ( X  20)  = 0.000030
20!

15
Capítulo 4: Leyes de probabilidad para variables continuas
4.1 Ley Uniforme
Se dijo que el evento de Bernoulli, era el esquema más simple de las leyes discretas.
Dde manera similar puede decirse que la ley uniforme de probabilidad es la más
sencilla de las variables aleatorias continuas.

Esta ley se caracteriza por ser constante en el intervalo [a, b] donde está definida, y
suele llamarse también ley o distribución rectangular. Así, se llama Ley Uniforme
de Probabilidades a la función de densidad:

 1
 (b  a) , si a  x  b
f ( x) 

 0, en el resto

Gráficamente se tiene:

El valor esperado y la varianza de una variable aleatoria uniforme están dados por:

 E(X) = (a + b)/2 V(X) = (b – a)2 / 12

Esta ley sirve para modelar, entre otros, el comportamiento de errores de redondeo. Sin
embargo, lo más notable es que de esta ley surgen los famosos “números aleatorios4”
que se los notan con la letra r.

Así, un número aleatorio r, es una variable aleatoria continua, cuya ley de probabilidad,
es la ley uniforme de probabilidades definida en el intervalo [0, 1].

Los números aleatorios tienen una gran cantidad de aplicaciones, sirviendo como base
para la generación de otras variables aleatorias, o para la selección de muestras, entre
otras cosas.

4
Los números aleatorios tienen un sinnúmero de aplicaciones, sirviendo para generar otras variables aleatorias, o
para aplicaciones en teoría de muestreo.

16
4.2 Ley Normal de probabilidades

De todas las leyes de probabilidad, la ley normal de probabilidades (conocida también


como ley de Gauss o campana de Gauss), es una de las más importantes. Se afirma
esto debido a la enorme cantidad de aplicaciones que surgen de esta ley y las
relaciones que se pueden establecer con muchos otros modelos de probabilidad.

Se llama Ley Normal de Probabilidades a la función de densidad:

( x )2
1 
f ( x)  e 2 2
2 

Válido para todo valor x de los números reales.

Con: E(X) = μ, V(X) = σ2

Es decir que para utilizar esta ley necesitamos de dos parámetros, la media y la
varianza.

Gráficamente, esta ley tiene la forma de una campana:

En una distribución normal, se tiene que al recorrer una desviación estándar hacia la
izquierda y derecha del promedio (esperanza matemática), se tiene aproximadamente
el 68% de toda la información. Entre dos desviaciones estándar queda el 95% de toda
la información, mientras que entre tres desviaciones estándar se tiene el 99% de toda
la población.

17
Recordando la definición de variable estandarizada (Z), y teniendo:

X, una variable aleatoria normal,


μ, su promedio (esperanza matemática), y
σ2, la varianza

(X  )
La variable aleatoria Z , tiene como ley de probabilidad, la llamada ley

normal estandarizada5 o tipificada, con media 0 y varianza 1, cuya función de densidad
está dada por:

z2
1 
f ( z)  e 2

2

Nota: todos los paquetes estadísticos, tienen implementados algoritmos para realizar
cálculo de probabilidades para muchas leyes de probabilidad, inclusive la hoja
electrónica “Excel”, tiene comandos para calcular probabilidades de varias leyes de
probabilidad.

A continuación se desarrollan unas aplicaciones

5
De esta función se encuentran tabulados valores de probabilidad en los libros de estadística.

18

También podría gustarte