Informe de Estadistica Imprimrilo
Informe de Estadistica Imprimrilo
Informe de Estadistica Imprimrilo
Conceptos clave:
Distribucin marginal
Dentro de la teora de probabilidades, dadas dos variables aleatorias juntas X&Y,
la distribucin marginal de X es simplemente la ley de probabilidad de X haciendo caso
omiso de la informacin referente a Y. Este tipo de clculo se produce cuando se considera el
estudio de una tabla de contingencia.1
Para las variables aleatorias discretas, la ley de probabilidad marginal Pr(X=x) se escribe
donde
da la distribucin conjunta de X&Y, y
condicional de X conociendo Y.
la distribucin
Referencias[editar]
1.
Bibliografa[editar]
Enlaces externos[editar]
Teora de la probabilidad
1 Definicin de probabilidad
o
1.1 Historia
2 Variables aleatorias
o
3 Teora de la probabilidad
4 Vase tambin
5 Bibliografa
6 Enlaces externos
Definicin de probabilidad[editar]
Historia[editar]
La teora de la probabilidad se desarroll originalmente a partir de ciertos problemas
planteados en el contexto de juegos de azar. Inicialmente, no exista una teora axiomtica
bien definida y las definiciones iniciales de probabilidad se basaron en la idea intuitiva de un
cociente de ocurrencias:
(1)
donde A es un suceso cualquiera y:
es el nmero de veces que se ha repetido una accin u observacin cuyo resultado puede
dar el suceso A o no-A.
es el nmero de veces que observa A en todas las observaciones.
Este tipo de definiciones si bien permitieron desarrollar un gran nmero de propiedades, no
permitan deducir todos los teoremas y resultados importantes que hoy forman parte de la
teora de la probabilidad. De hecho el resultado anterior se puede demostrar rigurosamente
dentro del enfoque axiomtico de la teora de la probabilidad, bajo ciertas condiciones.
La primera axiomatizacin completa se debi a Andrei Kolmogorov (quien us dicho enfoque
por ejemplo para deducir su "ley 0-1 para sucesos cola" y otros resultados relacionados con la
convergencia de sucesiones aleatorias). La definicin axiomtica de la probabilidad se basa
en resultados de la teora de la medida y en formalizaciones de la idea de independencia
probabilstica. En este enfoque se parte de un espacio de medida normalizada
donde
es un conjunto llamado espacio de sucesos (segn el tipo de problema puede ser un
conjunto finito, numerable o no-numerable),
de
y
es una medida normalizada (es decir,
posibles se consideran como subconjuntos S de eventos elementales
). Los sucesos
posibles:
de dicho conjunto:
,
La interpretacin de esta probabilidad es la frecuencia promedio con la que aparece dicho
suceso si se considera una eleccin de muestras aleatorias sobre .
La definicin anterior es complicada de representar matemticamente ya que
debiera ser
infinito. Otra manera de definir la probabilidad es de forma axiomtica esto estableciendo las
relaciones o propiedades que existen entre los conceptos y operaciones que la componen.
Definicin axiomtica[editar]
Artculo principal: Axiomas de probabilidad
Donde se interpreta
Variables aleatorias[editar]
Una variable aleatoria es una funcin medible
Probabilidad discreta[editar]
Este tipo de probabilidad, es aquel que puede tomar slo ciertos valores diferentes que son el
resultado de la cuenta de alguna caracterstica de inters. Ms exactamente, un problema de
probabilidad discreta es un problema definido por un conjunto de variables aleatorias que slo
pueden tomar un conjunto finito o infinito numerable de valores diferentes:
donde:
designa el cardinal o "nmero de elmentos" de un conjunto.
, es el conjunto de todos los posibles valores
que toma la variable aleatoria.
Probabilidad continua[editar]
Un problema de probabilidad continua es uno en el que aparecen variables aleatorias capaces
de tomar valores en algn intervalo de nmeros reales (y por tanto asumir un conjunto no
numerable de valores), por lo que continuando con la notacin anterior:
Para una variable aleatoria discreta esta funcin no es continua sin constante a tramos
(siendo continua por la derecha pero no por la izquierda). Para una variable aleatoria general
la funcin de distribucin puede descomponerse en una parte continua y una parte discreta:
Donde
tramos.
Teora de la probabilidad[editar]
La teora de la probabilidad moderna incluye temas de las siguientes reas:
Independencia probabilstica
Probabilidad condicionada
Funciones caractersticas
Procesos estocsticos
Vase tambin[editar]
Distribucin de probabilidad
Estadstica
Distribucin de probabilidad
1.1 Propiedades
, su funcin de distribucin,
, es
y se escribe,
Propiedades[editar]
Como consecuencia casi inmediata de la definicin, la funcin de distribucin:
Adems, cumple
y su unin es el suceso
tal que
, los
y finalmente
La distribucin de Bernoulli, que toma valores "1", con probabilidad p, o "0", con
probabilidad q = 1 p.
La distribucin de Rademacher, que toma valores "1" o "-1" con probabilidad 1/2 cada
uno.
La distribucin de Gibbs.
La distribucin de MaxwellBoltzmann.
La distribucin logartmica.
La distribucin de YuleSimon.
La distribucin zeta, que utiliza la funcin zeta de Riemman para asignar una
probabilidad a cada nmero natural.
La ley de Zipf, que describe la frecuencia de utilizacin de las palabras de una lengua.
Distribucin normal.
Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores
existentes dentro de un intervalo. En el caso de variable continua la distribucin de
probabilidad es la integral de la funcin de densidad, por lo que tenemos entonces que:
La distribucin chi.
La distribucin de Dagum.
La distribucin F no central.
La distribucin de Frchet.
La distribucin de Gompertz.
La distribucin de Lvy.
Distribuciones en las que el logaritmo de una variable aleatoria est distribuido
conforme a una distribucin estndar:
La distribucin log-Cauchy.
La distribucin log-gamma.
La distribucin log-Laplace.
La distribucin log-logistic.
La distribucin log-normal.
La distribucin de MittagLeffler.
La distribucin de Nakagami.
La distribucin de Rayleigh.
La distribucin de Rice.
La distribucin T de Hotelling.
La distribucin de Chernoff.
La distribucin hiperblica.
La distribucin SU de Johnson.
La distribucin de Landau.
La distribucin de Laplace.
La distribucin de Linnik.
La distribucin map-Airy.
La distribucin de Wakeby.
Distribuciones mixtas discreta/continua
La distribucin de Wishart.
La distribucin t matricial.
Distribuciones no numricas
La distribucin categrica.
Distribuciones miscelneas
Distribucin de Cantor.
Distribuciones de Pearson.
Variable aleatoria
Formalmente, una variable aleatoria es una ecuacion, que designa eventos (p.e.f.g.f, posibles
de los resultados de tirar uno, dos o tres dados dado dos veces: (1, 49), (1, 41), evitar 2
numeros alreves etc.) a nmeros reales (p.e.f,g,f , su suma o resta o lo que haya
indefinidamente de las 2 partes o ninguna). Una variable aleatoria o variable estocstica es
una variable estadstica.
Los valores posibles de una variable aleatoria pueden ser posibles resultados en un
experimento realizado y los posibles valores y cualitisidades de una o varias cantidades
cocuyo valor actualmente o indiferente mente existente es incierto (p.e., como resultado de
medicin incompleta o imprecisa). Intuitivamente, una variable aleatoria puede tomarse como
una cantidad cuyo valor no es fijo pero puede tomar diferentes valores; una distribucin de
probabilidad se usa para describir la probabilidad de que se den los diferentes valores.
Las variables aleatorias suelen tomar valores reales, pero se pueden considerar valores
aleatorios como valores lgicos, funciones... El trmino elemento aleatorio se utiliza para
englobar todo ese tipo de conceptos relacionados. Un concepto relacionado es el de proceso
estocstico, un conjunto de variables aleatorias ordenadas (habitualmente por orden o
tiempo).
ndice
[ocultar]
2 Ejemplo
4.1 Ejemplo
5 Parmetros de una v.a.
5.1 Esperanza
5.2 Varianza
6 Vase tambin
7 Referencias
8 Bibliografa
9 Enlaces externos
clera, se sabe que una persona cualquiera puede enfermar o no (suceso), pero no se sabe
cul de los dos sucesos va a ocurrir. Solamente se puede decir que existe una probabilidad de
que la persona enferme.
Para trabajar de manera slida con variables aleatorias en general es necesario considerar un
gran nmero de experimentos aleatorios, para su tratamiento estadstico, cuantificar los
resultados de modo que se asigne un nmero real a cada uno de los resultados posibles del
experimento. De este modo se establece una relacin funcional entre elementos del espacio
muestral asociado al experimento y nmeros reales.
Definicin formal[editar]
Una variable aleatoria (v.a.) X es una funcin real definida en el espacio muestral, ,
asociado a un experimento aleatorio.1 2
-medible.
y un espacio medible
-medible donde
es la -lgebra boreliana.
Ejemplo[editar]
Supongamos que se lanzan dos monedas al aire. El espacio muestral, esto es, el conjunto de
resultados elementales posibles asociado al experimento, es
,
donde (c representa "sale cara" y x, "sale cruz").
Podemos asignar entonces a cada suceso elemental del experimento el nmero de caras
obtenidas. De este modo se definira la variable aleatoria X como la funcin
dada por
unaprobabilidad dada
1.
2.
3.
Es montona no decreciente.
La distribucin de probabilidad de una v.a. describe tericamente la forma en que varan los
resultados de un experimento aleatorio. Intuitivamente se tratara de una lista de los
resultados posibles de un experimento con las probabilidades que se esperaran ver
asociadas con cada resultado.
sobre
entonces
ser tambin una variable aleatoria sobre , dado que la composicin
de funciones medibles tambin es medible a no ser que sea una funcin medible de
Lebesgue. El mismo procedimiento que permite ir de un espacio de probabilidad
a
puede ser utilizado para obtener la distribucin de
acumulada de
es
. La funcin de probabilidad
.
Si g no es invertible pero cada y tiene un nmero finito de races, entonces la relacin previa
con la funcin de densidad de probabilidad puede generalizarse como
Ejemplo[editar]
Sea X una variable aleatoria real continua y sea Y = X2.
Si y 0, entonces
por lo tanto
Esperanza[editar]
Artculo principal: Esperanza matemtica
y sus probabilidades
Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los
valores y la funcin de densidad
o
La esperanza tambin se suele simbolizar con
El concepto de esperanza se asocia comnmente en los juegos de azar al de beneficio medio
o beneficio esperado a largo plazo.
Varianza[editar]
Artculo principal: Varianza
respecto a
o bien
Funcin de distribucin
Funcin de Densidad de Probabilidad para varias distribuciones normales. El trazo rojo distingue la
distribucin normal estndar.
Para cada nmero real x, una fda est dada por la siguiente definicin:1
En lenguaje
matemtico
Interpretacin
Una funcin de nombre "F" le asigna a cada valor real x, el
de la probabilidad de que una variable aleatoria X asuma un
es la funcin
que
ndice
[ocultar]
1 Acumulada y Distribuida
2 Ejemplos
3 Notacin
5 Propiedades
6 Vase tambin
o
6.1 Referencias
7 Bibliografa
7.1 Estadstica
Acumulada y Distribuida[editar]
Es convencin usar una F mayscula para una fda, en contraste con la f minscula usada
para una Funcin de Densidad de Probabilidad y/o para una Funcin de Probabilidad.
La funcin distribucin puede obtenerse a partir de la funcin de probabilidad respectiva.
La fda en el caso de una variable aleatoria X discreta, puede establecerse como:
Debe observarse que una definicin del tipo "menor o igual", '' podra sustituirse por
estrictamente "menor" '<'. Esto producira una funcin diferente, pero cualquiera de las
funciones F puede deducirse a partir de la otra f.
Tambin se podra cambiar por una determinada por mayor (>) en lugar de "menor" '<' y
deducir las propiedades de esta nueva funcin.
Slo es preciso ajustar las formulaciones y definiciones a lo pretendido en cada caso.
En pases de lengua inglesa, una convencin es usar una desigualdad de este tipo en lugar
de una desigualdad estricta (<), por ejemplo.
Ejemplos[editar]
Como ejemplo, se supone que X est uniformemente distribuida en el intervalo unitario [0, 1].
En ese caso una fda est dada por:
F(x) = 0, si x < 0;
F(x) = x, si 0 x 1;
F(x) = 1, si x > 1.
Para otro ejemplo, suponiendo que X toma slo los valores 0 y 1, con igual
probabilidad (X sigue una distribucin de Bernoulli con p = 1/2). Entonces una fda
est dada por
F(x) = 0, si x < 0;
F(x) = 1/2, si 0 x < 1;
F(x) = 1, si x 1.
Notacin[editar]
Cuando hay ms de una variable aleatoria y se vuelve necesario explicitar una diferencia entre
las funciones, se representa una fda de la variable aleatoria X por
aleatoria no puede tomar valores. Es por esto que se introduce la siguiente definicin.
Lamentablemente, la distribucin carece, en general, de inversa. Se puede definir,
para
Sea
funcin cuantil de
a la funcin de
en
, denotada por
corresponder:
La inversa de la pda se denomina funcin cuantil.
, que a
hace
La inversa de la pda puede emplearse para trasladar resultados obtenidos para la distribucin
uniforme a otras distribuciones.
es no-decreciente
2.
3.
4.
si y slo si
5.
Si
tiene una distribucin
entonces,
est distribuida como .
Esto se emplea en para la generacin aleatoria de nmeros con el mtodo de muestreo de
transformada inversa.
6.
Si
es una coleccin de variables independentes aleatoriamente distribuidas
definida en el mismo espacio muestral, entonces existen variables aleatorias
tales que
est distribuida como
Ejemplo 1: La mediana es
Ejemplo 2: Sea
Por convencin, podemos decidir que
y
Propiedades[editar]
al 95avo percentil.
Si X es una variable aleatoria discreta, entonces se la obtiene de los valores x1, x2, ... con
probabilidad p1, p2 etc., y una fda de X ser discontinua en los puntos xi y constante entre
ellos.
Si una fda F de X es contnua, entonces X es una variable aleatoria continua; si se dice
de F que es absolutamente continua, entonces existe una funcin Integral de Lebesguef(x) tal
que
para todos los nmeros reales a y b. (La primera de las dos igualdades no sera correcta en
general si no se hubiera dicho que una distribucin es continua.
La continuidad de la distribucin implica que P(X = a) = P(X = b) = 0, de modo que una
diferencia entre "<" y "" deja de ser importante en este contexto.) Una funcin f es igual a
la derivada de F (casi en toda parte), y es llamada Funcin de densidad de probabilidad de la
distribucin de X.
Para cualquier funcin de distribucin
, debe ser:
es contnua a la derecha:
, con
,y
Se cumplen las siguientes propiedades, que permiten tratar con los diferentes tipos de
desigualdades, y que se aplican a funciones de distribucin de variables aleatoriasdiscretas:
es contnua en todos los puntos (en caso de las variables aleatorias discretas era
slo continua a la derecha)
Vase tambin[editar]
Estadstica descriptiva
Distribucin de probabilidad
Referencias[editar]
1.
Volver arriba Monti, K.L. (1995). Folded Empirical Distribution Function Curves
(Mountain Plots). The American Statistician 49: 342345. JSTOR 2684570.
Bibliografa[editar]
Portal Action
Estadstica[editar]
Puede considerarse el artculo sobre Estadstica matemtica para completar algunos tpicos.
Proceso estocstico
El ndice de la bolsa es un ejemplo de proceso estocstico de tipo no estacionario (por eso no se puede
predecir).
1 Ejemplos
2 Definicin matemtica
2.1 Casos especiales
3 Vase tambin
4 Referencias
Ejemplos[editar]
Los siguientes son ejemplos dentro del amplio grupo de las series temporales:
Seales de telecomunicacin.
Seales ssmicas.
El tiempo de espera en cola de cada uno de los usuarios que van llegando a
una ventanilla.
Los procesos estocsticos de orden mayor a uno, como el caso de una serie
de tiempo de orden 2 y una correlacin de cero con las dems observaciones.
Definicin matemtica[editar]
Un proceso estocstico se puede definir equivalentemente de dos formas diferentes:
, con
) o de "tiempo discreto" si
El dominio de esta funcin o sea el campo de variabilidad del suceso elemental, es el espacio
muestral, y su recorrido, o sea el de la variable aleatoria, es el campo de losnmeros reales.
Se llama proceso aleatorio al valor en
donde para todo
Si se observa el suceso
de un elemento
de tiempo:
.
Si
un elemento
, donde
, de
-
se llama la
Casos especiales[editar]
Proceso de Poisson
Distribucin binomial
Binomial redirige aqu. Para otras acepciones, vase binomial (desambiguacin).
Distribucin binomial
Funcin de probabilidad
Parmetros
Dominio
Funcin de
probabilidad(f
p)
Funcin de
distribucin(c
df)
Media
Mediana
Moda
Varianza
Coeficiente de
simetra
Curtosis
Entropa
Funcin
generadora
de
momentos(mg
f)
Uno de
Funcin
caracterstica
1 Ejemplos
2 Experimento binomial
3 Caractersticas analticas
o
3.1 Ejemplo
4 Propiedades
6 Propiedades reproductivas
7 Referencias
8 Enlaces externos
Ejemplos[editar]
Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse por
esta distribucin:
Experimento binomial[editar]
Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno
de los experimentos es independiente de los restantes (la probabilidad del resultado de un
experimento no depende del resultado del resto). El resultado de cada experimento ha de
admitir slo dos categoras (a las que se denomina xito y fracaso). Las probabilidades de
ambas posibilidades han de ser constantes en todos los experimentos (se denotan
como p y q o p y 1-p).
Se designa por X a la variable que mide el nmero de xitos que se han producido en
los n experimentos.
Cuando se dan estas circunstancias, se dice que la variable X sigue una distribucin de
probabilidad binomial, y se denota B(n,p).
Caractersticas analticas[editar]
Su funcin de probabilidad es
donde
siendo
de en
las combinaciones de
en
elementos tomados
Ejemplo[editar]
Supongamos que se lanza un dado (con 6 caras) 50 veces y queremos conocer la
probabilidad de que el nmero 3 salga 20 veces. En este caso tenemos una X ~ B(50,
1/6) y la probabilidad sera P(X=20):
Propiedades[editar]
se exige que
) la distribucin binomial puede aproximarse
mediante la distribucin normal.
Propiedades reproductivas[editar]
Dadas n variables binomiales independientes de parmetros ni (i = 1,..., n)
y , su suma es tambin una variable binomial, de parmetros n1+... + nn,
y , es decir,
Referencias[editar]
1.
Volver arriba
Distribucin de Bernoulli
Bernoulli
Parmetros
Dominio
Funcin de
probabilidad(fp)
Funcin de
distribucin(cdf)
Media
Mediana
N/A
Moda
Varianza
Coeficiente de
simetra
Curtosis
Entropa
Funcin
generadora de
momentos(mgf)
Funcin
caracterstica
una distribucin de probabilidad discreta, que toma valor 1 para la probabilidad de xito ( ) y
valor 0 para la probabilidad de fracaso (
).
Si
es una variable aleatoria que mide el "nmero de xitos", y se realiza un nico
experimento con dos posibles resultados (xito o fracaso), se dice que la variable
aleatoria
se distribuye como una Bernoulli de parmetro .
La frmula ser:
1 Propiedades caractersticas
2 Distribuciones Relacionadas
3 Ejemplo
4 Vase tambin
Propiedades caractersticas[editar]
Esperanza matemtica:
Varianza:
Funcin caracterstica:
Moda:
0 si q > p (hay ms fracasos que xitos)
1 si q < p (hay ms xitos que fracasos)
0 y 1 si q = p (los dos valores, pues hay igual nmero de fracasos que de xitos)
Asimetra (Sesgo):
Curtosis:
Distribuciones Relacionadas[editar]
Si
son variables aleatorias identicamente distribuidas con
la distribucin de Bernoulli con la misma probabilidad de xito en todas, entonces la variable
aleatoria
presenta una Distribucin Binomial de
probabilidad.
Ejemplo[editar]
"Lanzar una moneda, probabilidad de conseguir que salga cruz".
Se trata de un solo experimento, con dos resultados posibles: el xito (p) se considerar sacar
cruz. Valdr 0,5. El fracaso (q) que saliera cara, que vale (1 - p) = 1 - 0,5 = 0,5.
La variable aleatoria X medir "nmero de cruces que salen en un lanzamiento", y slo
existirn dos resultados posibles: 0 (ninguna cruz, es decir, salir cara) y 1 (una cruz).
Por tanto, la v.a. X se distribuir como una Bernoulli, ya que cumple todos los requisitos.
Ejemplo:
"Lanzar un dado y salir un 6".
Cuando lanzamos un dado tenemos 6 posibles resultados:
Se considera fracaso no sacar un 6, por tanto, se considera fracaso sacar cualquier otro
resultado.
La variable aleatoria X medir "nmero de veces que sale un 6", y solo existen dos valores
posibles, 0 (que no salga 6) y 1 (que salga un 6).
Por tanto, la variable aleatoria X se distribuye como una Bernoulli de parmetro
= 1/6
Probabilidad condicionada
Probabilidad condicional es la probabilidad de que ocurra un evento A, sabiendo que
tambin sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee la
probabilidad de A dado B.
No tiene por qu haber una relacin causal o temporal entre A y B. A puede preceder en el
tiempo a B, sucederlo o pueden ocurrir simultneamente. A puede causar B, viceversa o
pueden no tener relacin causal. Las relaciones causales o temporales son nociones que no
pertenecen al mbito de la probabilidad. Pueden desempear un papel o no dependiendo de
la interpretacin que se le d a los eventos.
Un ejemplo clsico es el lanzamiento de una moneda para luego lanzar un dado. Cul es la
probabilidad de obtener una cara (moneda) y luego un 6 (dado)? Pues eso se escribira como
P (Cara | 6).
El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes.
ndice
[ocultar]
1 Definicin
2 Interpretacin
3 Propiedades
4 Independencia de sucesos
5 Exclusividad mutua
7 Problemas de ejemplo
Definicin[editar]
se puede interpretar como, tomando los mundos en los que B se cumple, la fraccin
en los que tambin se cumple A.
Interpretacin[editar]
Tomando los mundos en los que B se cumple,
se puede interpretar como la
fraccin en los que tambin se cumple A. Si el evento B es, por ejemplo, tener la gripe, y
el evento A es tener dolor de cabeza,
cabeza cuando se est enfermo de gripe.
Propiedades[editar]
1.
1.
Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza, entonces la
probabilidad de tener dolor de cabeza dado que tengo gripe es 1.
1.
Independencia de sucesos[editar]
Artculo principal: Independencia (probabilidad)
Exclusividad mutua[editar]
.
entonces
es igual a 0.
(Teorema de Bayes)
Problemas de ejemplo[editar]
---La paradoja del falso positivo--La magnitud del error cometido con esta falacia se entiende mejor en trminos de
probabilidades condicionales.
Supongamos un grupo de personas de las que el 1 % sufre una cierta enfermedad, y el resto
est bien. Escogiendo un individuo al azar:
y
Supongamos que aplicando una prueba a una persona que no tiene la enfermedad, hay una
posibilidad del 1 % de conseguir un falso positivo, esto es:
y
Finalmente, supongamos que aplicando la prueba a una persona que tiene la enfermedad,
hay una posibilidad del 1 % de un falso negativo, esto es:
y
En este ejemplo, debera ser fcil ver la diferencia entre las probabilidades condicionadas P
(positivo | enfermo) (que es del 99 %) y P (enfermo | positivo) (que es del 50 %): la primera es la
probabilidad de que un individuo enfermo d positivo en la prueba; la segunda es la
probabilidad de que un individuo que da positivo en la prueba tenga realmente la enfermedad.
Con los nmeros escogidos aqu, este ltimo resultado probablemente sera considerado
inaceptable: la mitad de la gente que da positivo en realidad est sana.
1 Definicin
2 Ejemplos
3 Propiedades
4 Aplicaciones
5 Vase tambin
6 Referencias
Definicin[editar]
Una sucesin de variables aleatorias intercambiables es una sucesin finita o
infinita X1, X2, X3, ... de variables aleatorias tal que para cualquier permutacin finita de los
ndices 1, 2, 3, ..., (es decir, una permutacin que slo afecta a un nmero finito de ndices),
la distribucin de probabilidad de la sucesin permutada
Ejemplos[editar]
Sea una urna contiene n bolas rojas y m bolas azules. Supngase que las bolas se
extraen sin reemplazo hasta que la urna se vaca. Sea Xi la variable aleatoria que indica si la isima bola era roja. Entonces {Xi}i=1,...n es intercambiable.
Sea
parmetros
,
Las variables aleatorias
cuando
Propiedades[editar]
donde 2 = var(X1).
"Constante" en este caso significa que no depende de los valores de los ndices i y j en tanto
que i j.
Esto puede probarse as:
Aplicaciones[editar]
El extractor de von Neumann es un extractor de aleatoriedad que depende de la
intercambiabilidad: proporciona una manera de construir una sucesin intercambiable de
ceros y unos (con probabilidad 1/2) a partir de otra ms larga en la que la probabilidad es p.
Funciona de la siguiente manera: se parte la sucesin original en pares distintos. Si los dos
elementos del par son iguales, se descarta. Si son distintos, se guarda el primero de ellos.
Distribucin conjunta
En probabilidad, dados dos eventos aleatorios X y Y, la distribucin conjunta de X y Y es
la distribucin de probabilidad de la interseccin de eventos de X y Y, esto es, de los
eventos X e Y ocurriendo de forma simultnea. En el caso de solo dos variables aleatorias se
denomina una distribucin bivariada, pero el concepto se generaliza a cualquier nmero de
eventos o variables aleatorias.
ndice
[ocultar]
1 Caso discreto
2 Caso continuo
3 Vase tambin
4 Enlaces externos
Caso discreto[editar]
Para variables aleatorias discretas, la funcin de probabilidad conjunta est dada por:
Caso continuo[editar]
Para las variables aleatorias continuas la funcin de densidad de probabilidad
conjunta puede ser escrita como fX,Y(x, y) teniendo: