Distribución de Probabilidad Conjunta

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 7

Universidad de San Carlos de Guatemala

Centro Universitario de Occidente


División de Ciencias de la Ingeniería
Estadística 1
Sección “B”

DISTRIBUCIÓN DE PROBABILIDAD CONJUNTA

Grupo #1
201232318 José Darío Morales Mérida
201530861 Julio Estuardo Navarro Vásquez
201531001 Emely Mariela Marcos Yat
201830942 Carlos Brandon Antony Lacán Tzul

Quetzaltenango 04 de septiembre de 2019.


INTRODUCCIÓN

El estudio de las secciones anteriores se restringió a espacios muestrales


unidimensionales, no obstante, habrá situaciones en las que se busque registrar
los resultados simultáneos de diversas variables aleatorias. De acuerdo al
estudio de la estadística entre sus objetivos implica conocer de manera
cuantitativa determinada parte de la realidad, por esto se hace necesario
construir un modelo particular del objeto de estudio, las distribuciones de
probabilidad, resultan ser modelos útiles para hacer inferencias y tomar
decisiones de incertidumbre una distribución. Por ello se estará abarcando el
tema de la distribución de probabilidad conjunta.
OBJETIVOS

Objetivo General:
Describir el comportamiento probalistico de dos o más variables
simultáneamente. A partir de las distribuciones conjuntas, como también
calcular parámetros de relación lineal entre las variables involucradas tales
como la varianza de población o el coeficiente de correlación poblacional.

Objetivo especifico
 Comprender el funcionamiento de las distribuciones conjuntas.
 Comprender el concepto de independencia entre variables aleatorias.
DISTRIBUCIÓN DE PROBABILIDAD CONJUNTA
En probabilidad, dados dos eventos aleatorios X y Y, la distribución conjunta
de X y Y es la distribución de probabilidad de la intersección de eventos de X
y Y, esto es, de los eventos X y Y ocurriendo de forma simultánea. En el caso
de solo dos variables aleatorias se denomina una distribución bivariado, pero el
concepto se generaliza a cualquier número de eventos o variables aleatorias.
Si X y Y son dos variables aleatorias discretas, la distribución de probabilidad
para sus ocurrencias simultáneas se representa mediante una función con
valores f(x, y), para cualquier par de valores (x, y) dentro del rango de las
variables aleatorias X y Y. Se acostumbra referirse a esta función como la
distribución de probabilidad conjunta de X y Y. Por consiguiente, en el caso
discreto,
f (x, y) = P (X = x, Y = y);
es decir, los valores f (x, y) dan la probabilidad de que los resultados X y Y
ocurran al mismo tiempo.
La función f(x,y) es una distribución de probabilidad conjunta o función de
masa de probabilidad de las variables aleatorias discretas X y Y, si:
1) f (x, y) ≥ 0 (x, y)
2) ∑𝑥 ∑𝑦 𝑓(𝑥, 𝑦) = 1
3) P (X = x, Y = y) = f (x, y)
Para cualquier región A en el plano xy, P[(X, Y) ∈A] = ∑𝐴 ∑ 𝑓(𝑥, 𝑦).

Distribuciones marginales
Cuando X y Y se consideran por separado.
Las distribuciones marginales sólo de X y sólo de Y son:
𝑔(𝑥) = ∑𝑦 𝑓(𝑥, 𝑦) y ℎ(𝑥) = ∑𝑥 𝑓(𝑥, 𝑦)
Para el caso discreto y,
∞ ∞
𝑔(𝑥) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑦 y ℎ(𝑦) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑥
Para el caso continuo.
Distribución condicional
Sean X y Y dos variables aleatorias, discretas o continuas. La distribución
condicional de la variable aleatoria Y, dado que X = x, es:
𝑓(𝑥,𝑦)
𝑓(𝑥|𝑦) = ; siempre que g(x)˃0.
𝑔(𝑥)

De manera similar, la distribución condicional de la variable aleatoria X, dado


que Y=y es:
𝑓(𝑥,𝑦)
𝑓(𝑥|𝑦) = , siempre que h(y) ˃0.
ℎ(𝑦)

Independencia estadística

Sean X y Y dos variables aleatorias, discretas o continuas, con distribución de


probabilidad conjunta f(x,y) y distribuciones marginales g(x) y h(y),
respectivamente. Se dice que las variables aleatorias X y Y son estadísticamente
independientes si y sólo si:

f (x, y) = g(x)h(y)

para toda (x,y) dentro de sus rangos.

Sean 𝑥1 , 𝑥2 , . . ., 𝑥𝑛 , n variables aleatorias, discretas o continuas, con


distribución de probabilidad conjunta f(𝑥1 , 𝑥2 , . . . , 𝑥𝑛 ) y distribuciones
marginales 𝑓1 (𝑥1 ), 𝑓2 (𝑥2 ) … , 𝑓𝑛 (𝑥𝑛 ), respectivamente. Se dice que las variables
aleatorias 𝑥1 , 𝑥2 , 𝑥𝑛 son recíproca y estadísticamente independientes si y sólo
si:

f (𝑥1 , 𝑥2 , . . ., 𝑥𝑛 ) = 𝑓1 (𝑥1 ), 𝑓2 (𝑥2 ) … , 𝑓𝑛 (𝑥𝑛 )

para toda (𝑥1 , 𝑥2 , . . ., 𝑥𝑛 ) dentro de sus rangos.


CONCLUSIONES

La probabilidad conjunta nos ayuda para hallar la intersección de dos variables


aleatorias es decir cuando ambos sucesos pasan en el mismo tiempo, esto da
como resultado un proceso una función de dos variables f(x,y) en donde esta
función nos indica la probabilidad de que ambos sucesos ocurran en el mismo
tiempo.
La aplicación de la probabilidad conjunta es bastante extensa ya que como suele
suceder los sucesos que ocurren en la vida diaria no son dependienten de una
circunstancia sino de varias en general podemos relacionar variables como: Si
se le va a dar servicio a los neumáticos de un camión de transporte pesado, y X
representa el número de millas que éstos han recorrido y Y el número de
neumáticos que deben ser reemplazados, entonces f (30,000, 5) es la
probabilidad de que los neumáticos hayan recorrido más de 30,000 millas y que
el camión necesite 5 neumáticos nuevos.
BIBLIOGRAFÍA

 Walpole – Myers – Myers, (2012), Probabilidad y Estadística para ingeniería y


ciencias, México, Pearson Educación de México, S.A. de C.V.

También podría gustarte