Probabilidad Clases Rev08d
Probabilidad Clases Rev08d
Probabilidad Clases Rev08d
Índice
1. Consideraciones previas 5
1.1. *Antecedentes históricos . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Sobre los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3. Grundbegriffe 8
3.1. Espacio de probabilidad - Axiomas K . . . . . . . . . . . . . . . . 8
3.2. *Relación axiomas K - frecuencia relativa . . . . . . . . . . . . . 10
3.3. *Interludio: álgebra de eventos . . . . . . . . . . . . . . . . . . . 10
3.4. Corolarios, teoremas, propiedades... . . . . . . . . . . . . . . . . . 12
3.5. Espacios discretos . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.5.1. Espacios discretos (finitos o numerables) . . . . . . . . . . 13
3.5.2. Equiprobabilidad - Fórmula de Laplace . . . . . . . . . . 14
3.5.3. Espacios numerables . . . . . . . . . . . . . . . . . . . . . 15
3.6. Introducción a espacios continuos . . . . . . . . . . . . . . . . . . 16
1
6. Variables aleatorias (unidimensionales) 29
6.1. Definición de V.A., distribución . . . . . . . . . . . . . . . . . . . 29
6.2. Función de distribución . . . . . . . . . . . . . . . . . . . . . . . 29
6.3. Clasificación, funciones de probabilidad y de densidad . . . . . . 30
6.3.1. Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.3.2. Continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.4. Intensidad de fallas, Cuantiles . . . . . . . . . . . . . . . . . . . . 32
6.5. V.A. truncadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
7. Simulación 35
7.1. Definiciones y teoremas . . . . . . . . . . . . . . . . . . . . . . . 35
7.2. Números aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . 35
7.3. Simulación de VA discretas . . . . . . . . . . . . . . . . . . . . . 36
7.4. Simulación de VA continuas y mixtas . . . . . . . . . . . . . . . . 38
10.Momentos 46
10.1. Esperanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
10.2. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
10.3. Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
10.4. Recta de regresión . . . . . . . . . . . . . . . . . . . . . . . . . . 49
10.5. Desigualdades, Ley débil de grandes números . . . . . . . . . . . 49
11.Transformaciones de V.A. 51
11.1. Definiciones y aclaraciones previas . . . . . . . . . . . . . . . . . 51
11.2. Teoremas para transformaciones de V.A. . . . . . . . . . . . . . . 51
12.Condicionales 55
12.1. Variables condicionales . . . . . . . . . . . . . . . . . . . . . . . . 55
12.2. Modelos discreto continuos . . . . . . . . . . . . . . . . . . . . . 56
12.3. Momentos y función de regresión . . . . . . . . . . . . . . . . . . 57
13.Esperanza condicional 60
13.1. Presentación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
13.2. Iterpretación geométrica . . . . . . . . . . . . . . . . . . . . . . . 61
13.3. Ejemplos varios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
14.Proceso Bernoulli 64
14.1. Procesos y proceso Bernoulli . . . . . . . . . . . . . . . . . . . . 64
14.2. Distribuciones asociadas . . . . . . . . . . . . . . . . . . . . . . . 65
14.3. Proceso Bernoulli generalizado . . . . . . . . . . . . . . . . . . . 66
14.4. Miscelánea tóxica . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2
15.Proceso de Poisson 71
15.1. Procesos puntuales . . . . . . . . . . . . . . . . . . . . . . . . . . 71
15.2. Proceso puntual de Poisson . . . . . . . . . . . . . . . . . . . . . 72
15.3. Pérdida de memoria . . . . . . . . . . . . . . . . . . . . . . . . . 74
15.4. Más propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3
Burocracia y otras hierbas
Nota aclaratoria
Estas notas se escribieron para uso personal, como ayuda para dar la clase,
y están en continua evolución. Le faltan consistencia en la notación, gráficos,
ejemplos, y una profunda revisión. Se sugiere leerlas con cuidado, si no asistió a
la clase compararlas con las notas tomadas por algún compañero o compañera,
y completarlas con lo dado en el pizarrón.
No tienen intención de reemplazar la clase ni mucho menos un buen libro
(como los que se sugieren en la bibliografı́a), el objetivo es simplemente ahorrarle
al que lo considere conveniente la toma de apuntes; y facilitarle un poco la
cursada a aquellos con problemas para asistir.
Asistencia
Se tomará lista todas las clases solo con fines estadı́sticos, necesitamos
saber cuándo vienen y cuándo dejan de venir, y cómo se relaciona la asis-
tencia con los resultados de los exámenes. No se dejará libre a ningún
alumno. Intentaremos usar la asistencia también para un control temprano
de abandono.
Evaluación
Se toma un parcial de 5 ejercicios, con al menos 3 bien se aprueba. El par-
cial tiene 2 instancias de recuperación. Se agregan las fechas diferidas que
hagan falta para quienes presenten certificado de examen o enfermedad.
Con alta probabilidad se tomará un trabajo práctico. La consigna se dará
en la 5ta o 6ta semana y se entregará pasado el primer parcial. La idea es
que lo hagan antes del parcial, pero que si no llegan no quite tiempo de
estudio. El TP incluye una simulación y gráficos de función histograma y
función de distribución empı́rica. Se dará alguna ayuda para los que les
cueste programar.
Quien aprueba el parcial (y el tp si hubiere) aprueba la cursada y tiene
derecho a rendir coloquio. El coloquio consta de 5 ejercicios, se aprueba
con al menos 3 ejercicios bien y al menos 1 de los últimos 2 ejercicios (los
que corresponden a temas de estadı́stica) bien.
4
1. Consideraciones previas
1.1. *Antecedentes históricos
Armar lı́nea de tiempo central con los probabilistas, en paralelo rigor y teorı́a
de medida, unirlas en Kolmogorov.
Fuentes: Grimmet, Jacovkis, biografı́as de Wikipedia
1550 (pero publicado en 1663) Gerolamo Cardano (Ita) (el de ecuación cúbica),
Liber de ludo aleae (sobre los juegos de azar)
1654 Blaise Pacal (Fra) y Pierre de Fermat (Fra) discuten por carta el problema
de los puntos, luego en 1657 Huygens (Hol) publica De ratiociniis in ludo
aleae (Razonamientos en los juegos de azar). Introducen el concepto de
valor esperado
1713 de Jacob Bernoulli (Sui) (el que descubrió e, muerto en 1705) publican (un
sobrino) Ars conjectandi (Arte de la conjetura). Fruto de leer Huygens y
discutir con Leibniz (Ale) y con su hermano Johann, incluye el Teorema
de Bernoulli: la primera ley de los grandes números
18xx Por los mismos años: Leonhard Euler (Ale), Carl Friedrich Gauss (Ale),
Joseph-Louis de Lagrange (Ita), Adrien-Marie Legendre (Fra), Siméon De-
nis Poisson (Fra)
1919 Richard von Mises (Aus-Hun) introduce el espacio muestral y define la
probabilidad como la frecuencia relativa.
18xx Rigor matemático Durante el s.XIX comienza a formalizarse con rigor
la matemática, comenzando por los trabajos de euclides. Augustin-Louis
Cauchy (Fra), Bernhard Riemann (Ale), Karl Weierstrass (Ale) (no tuvo
tı́tulo universitario)
19xx Teorı́a de medida A principios del s.XX la desarrollan Émile Borel (Fra),
Henri Lebesgue (Fra), Johann Radon (Aus), Maurice René Fréchet (Fra)
1933 Andrey Kolmogorov (Rus), Grundbegriffe der Wahrscheinlichkeitsrech-
nung
5
1.2. Bibliografı́a
La historia es como cosa sagrada, porque ha de ser verdadera, y
donde está la verdad, está Dios, en cuanto a verdad; pero, no
obstante esto, hay algunos que ası́ componen y arrojan libros de sı́
como si fuesen buñuelos
—No hay libro tan malo —dijo el bachiller—, que no tenga algo
bueno.
—No hay duda en eso —replicó don Quijote—, pero muchas veces
acontece que los que tenı́an méritamente granjeada y alcanzada
gran fama por sus escritos, en dándolos a la estampa la perdieron
del todo o la menoscabaron en algo.
Se recomienda intentar seguir las clases con los apuntes, vamos a dar todo
lo necesario para tener una buena base teórica y poder hacer los ejercicios.
Si hace falta, consultar los contenidos con los Borradores de Grynberg o el
Maronna. El Maronna es más conciso, es un libro publicado (menos errores),
pero en algunos temas no presenta todo lo que damos en el curso y en algunas
cosas puntuales usa otra notación. Los borradores son borradores, pero tienen
la ventaja de cubrir todos los temas del curso y casi en el mismo orden y estilo
que seguirán las clases.
Los dos textos mencionados y el Grinstead-Snell son de distribución libre y
gratuita.
Para el curso
Ambos textos son de distribución libre y gratuita.
Grynberg, S. Borradores, Curso 23. Buenos Aires: [digital], 2013
Maronna, R. Probabilidad y Estadı́stica Elementales para Estudiantes de
Ciencia. 1ra ed. La Plata: [digital], 1995
Otros
El de Snell-Grinstead es de distribución libre y gratuita. El de Jacovkis lo
publica Eudeba, es barato. Los de Feller creo que están agotados.
(El clásico t.I): Feller, W. An Introduction to Probability Theory and Its
Applications, Vol. I 2da ed. New York: John Wiley & Sons, 1957.
(El clásico t.II): Feller, W. An Introduction to Probability Theory and
Its Applications, Vol. II 2da ed. New York: John Wiley & Sons, 1971.
(Muy interesante, lleno de simulaciones y gráficos): Grinstead,
C., Snell, J. Grinstead and Snell’s Introduction to Probability. 1ra. ed.
[digital]:[digital] 2006.
(Para profundizar): Grimmet, G., Stirzaker, D. Probability and Random
Processes. 3ra. ed. Gran Bretaña: Oxford University Press, 2001.
(Para formalizar duro): Billingsley, P. Probability and Measure. 3ra.
ed. Estados Unidos: John Wiley & Sons, 1995.
6
(De difusión): Jacovkis, P. Azar, Ciencia y Sociedad. 1ra. ed. Buenos
Aires: Eudeba, 2012
Número e: n ∞
1 X 1
e = lı́m 1+ =
n→∞ n i=0
i!
Fórmula de Stirling:
√ n n
n! ∼ 2πn cuando n → ∞
e
2.2. Integrales
Repasar integrales en R2 y esas cosas (sobre todo los más viejos).
7
3. Grundbegriffe
3.1. Espacio de probabilidad - Axiomas K
Definición 3.1 (Espacio muestral). Llamaremos espacio muestral a un conjun-
to no vacı́o Ω. A sus elementos ω ∈ Ω los llamaremos eventos elementales. Nota:
algunos autores llaman al espacio muestral S (por sample space). Kolmogorov
lo llamó E en sus Grundbegriffe.
(a) Ω ∈ A
(b) A ∈ A ⇒ Ac ∈ A
(c) A1 , A2 ∈ A ⇒ A1 ∪ A2 ∈ A
S∞
(d) A1 , A2 , A3 . . . ∈ A ⇒ i=1 Ai ∈ A
(solo es necesario exigir (d) si Ω tiene infinitos elementos)
Teorema 3.3 (Sobre las σ-álgebra). Ası́ definidas, se demuestra que son cerra-
das por intersecciones (finitas o numerables)
(e) A, B ∈ A ⇒ A ∩ B ∈ A
T∞
(f) A1 , A2 , A3 . . . ∈ A ⇒ i=1 Ai ∈ A
(solo tiene gracia la propiedad (f) si Ω tiene infinitos elementos)
Nota 3.4 (Sobre σ-álgebras). La definición y teorema que le sigue puede pen-
sarlas juntas, una σ-álgebra es una familia de subconjuntos de Ω con buenas
propiedades de cierre (las propiedades indicadas de (a) hasta (f)).
A los subconjuntos de Ω que estén en el σ-álgebra, A ∈ A, los llamaremos
eventos aleatorios o simplemente eventos.
Ejemplo 3.5 (σ-Álgebras - conceptual). Algunos ejemplos sencillos
La σ-álgebra trivial para todo Ω es A = {∅, Ω}
Si agregamos un evento A: A = {∅, A, Ac , Ω}
8
chica posible, una que sirva para distinguir si aprobó, y por último una lo más
grande posible.
Solución: Para resolver primero definimos el espacio muestral Ω = {2, 4, 5}.
El álgebra más pequeña posible siempre es la que tiene a vacı́o y al propio
espacio muestral
A1 = {∅, {2, 4, 5}}
Esa σ-álgebra no nos sirve para responder ninguna pregunta, si queremos saber
si aprobó debemos incluir el subconjunto {4, 5}, y si incluimos ese subconjunto
debemos también incluir su complemento y luego las posibles uniones que apa-
rezcan para satisfacer los requerimientos (a) hasta (c) de la definición (a (d) no
le damos bola porque tenemos Ω finito). Nos queda:
Si por último queremos poder saber la nota exacta que sacó, debemos agregar
el 4 y el 5 sueltos (pero como subconjuntos), y sus complementos y uniones.
Queda (reordenando términos):
A3 = {∅, {2}, {4}, {5}, {4, 5}, {2, 5}, {2, 4}, {2, 4, 5}}
Notar que A3 tiene 8 subconjuntos, y que es la σ-álgebra más grande que po-
demos formar con el Ω dado.
Convención 3.7 (Partes de Ω). En el curso usaremos cuando no se aclare en
el ejercicio la σ-álgebra lo más grande posible. A estará compuesta por todos
los subconjuntos que existan de Ω, con sus uniones e intersecciones (finitas
o numerables) y sus complementos; incluyendo al subconjunto vacı́o ∅ y a Ω
mismo. Usaremos la notación 2Ω y el nombre partes de Omega para referirnos
a esa σ-álgebra. (ver Grimmet [5] power set, subtı́tulo 1.2 ejemplo 8).
Si Ω es un conjunto finito vale que |2Ω | = 2|Ω| .
2. P(Ω) = 1
3. Aditividad: Si los eventos A y B no tienen elementos en común (son dis-
juntos, A ∩ B = ∅), se cumple P(A ∪ B) = P(A) + P(B)
4. Continuidad: Para cada sucesión decreciente de eventos tal que al inter-
sectarlos todos obtenemos el conjunto vacı́o
∞
\
A1 ⊃ A2 ⊃ A3 ⊃ . . . , Ai = ∅
i=1
lı́m P(An ) = 0
n→∞
9
Definición 3.9 (Espacio de probabilidad). Un espacio de probabilidad es una
terna (Ω, A, P) formada por un conjunto no vacı́o Ω llamado espacio muestral,
una σ-álgebra A de subconjuntos de Ω a los que llamamos eventos aleatorios, y
una medida P que satisface los axiomas de Kolmogorov.
Nota 3.10 (Nota histórica). : Kolmogorov publica en sus Grundbegriffe 5 axio-
mas, los primeros 2 definen la sigma-álgebra F sobre el espacio muestral E, y los
3 axiomas siguientes son los que enunciamos 1 a 3. Luego en el segundo capı́tulo
de la publicación extiende la teorı́a a espacios infinitos con el sexto axioma de
continuidad.
Nota 3.11 (Sobre el axioma de continuidad). Si la cantidad de eventos ele-
mentales ω ∈ Ω es finita, el 4to axioma no es necesario (se vuelve redundante,
se puede demostrar a partir de los primeros tres). El axioma de continuidad
es esencial para espacios muestrales infinitos. Su redacción es complicada, pero
veremos algunos teoremas que quizás sean más claros.
Unión: A ∪ B := {ω ∈ Ω : ω ∈ A ∨ ω ∈ B}
Intersección: A ∩ B := {ω ∈ Ω : ω ∈ A ∧ ω ∈ B}
Complemento: Ac = A := {ω ∈ Ω : ω ∈
/ A}
Disjuntos (n): Diremos Ai disjuntos si Ai ∩ Aj = ∅ ∀i 6= j
10
Teorema 3.13 (Propiedades varias). Demostraciones a cargo del lector. Recor-
dar que dos conjuntos son iguales si todo evento del primero está necesariamente
en el segundo y vice versa.
Conmutativa 1: A ∪ B = B ∪ A
Conmutativa 2: A ∩ B = B ∩ A
Asociativa 1: (A ∪ B) ∪ C = A ∪ (B ∪ C)
Asociativa 2: (A ∩ B) ∩ C = A ∩ (B ∩ C)
Distributiva 1: A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
Distributiva 2: A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
Identidad 1: A ∪ ∅ = A
Identidad 2: A ∩ Ω = A
Complemento 1: A ∪ Ac = Ω (unión disjunta)
Complemento 2: A ∩ Ac = ∅
Idempotencia 1: A ∪ A = A
Idempotencia 2: A ∩ A = A
Dominación 1: A ∪ Ω = Ω
Dominación 2: A ∩ ∅ = ∅
Absorción 1: A ∪ (A ∩ B) = A
Absorción 2: A ∩ (A ∪ B) = A
Inters. como diferencia: A ∩ B = A \ (A \ B)
De Morgan 1: (A ∪ B)c = Ac ∩ B c
De Morgan 2: (A ∩ B)c = Ac ∪ B c
Doble complemento: (Ac )c = A
Complemento Omega: Ωc = ∅
Complemento Vacı́o: ∅c = Ω
[n]
Evento en partes: Si {Ai } es una partición, B = ∪i=1 (B ∩ Ai ) (unión
disjunta)
Antisimetrı́a: A ⊂ B ∧ B ⊂ A ⇔ A = B
Unicidad: A ∪ B = Ω ∧ A ∩ B = ∅ ⇔ Ac = B
Nota 3.14 (Diagramas de Venn). Los diagramas de Venn no son una demos-
tración (ver Arquı́medes, El Método, preámbulo dirigido a Eratóstenes). Sin em-
bargo, resultan muy prácticos para recordar y entender los teoremas del álgebra
de eventos, y en el curso van como piña.
Convención 3.15 (Sobre incluido o incluye). Se usa aquı́ y en el pizarrón el
sı́mbolo ⊂ como incluido o igual. e.g. A ⊂ A es verdadero y A ⊃ A es verdadero
también.
11
3.4. Corolarios, teoremas, propiedades...
Teorema 3.16 (Catarata de teoremas). Se demuestra a partir de los axiomas:
1. P(Ac ) = 1 − P(A)
2. P(∅) = 0
Aclaración 1: P(A) = 0 ; A = ∅, pueden existir eventos con probabilidad
0 que no son vacı́o
Aclaración 2: P(A) = 0 ; “A nunca ocurre”, pueden existir eventos con
probabilidad 0 que excepcionalmente ocurren
3. Aditividad: Si los eventos . , An son disjuntos dos a dos (Ai ∩Aj =
SnA1 , A2 , . . P n
∅ si i 6= j) entonces P ( i=1 Ai ) = i=1 P(Ai )
4. Si A ⊂ B entonces P(B) = P(A) + P(B \ A)
5. Unión (2): P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
6. Unión (3...): P(A∪B ∪C) = P(A)+P(B)+P(C)−P(A∩B)−P(B ∩C)−
P(C ∩ A) + P(A ∩ B ∩ C). Generalizar para más eventos, se va sumando
y restando alternativamente según (principio de inclusión-exclusión).
T∞
7. Si A1 ⊃ A2 ⊃ · · · y A = n=1 An , entonces P(A) = lı́mn→∞ P(An )
S∞
8. Si A1 ⊂ A2 ⊂ · · · y A = n=1 An , entonces P(A) = lı́mn→∞ P(An )
9. σ-aditividad. Si los eventos
S∞ A1 , A2P, . . . son disjuntos dos a dos (Ai ∩Aj = ∅
∞
si i 6= j) entonces P ( i=1 Ai ) = i=1 P(Ai ).
Nota 3.17 (Alta nota sobre la σ-aditividad). : El teorema de σ-aditividad es
intercambiable por el axioma 4 de continuidad. Se puede pensar como una ex-
tensión del axioma 2 de aditividad, ahora podemos unir una cantidad infinita
numerable de eventos disjuntos, y su probabilidad será la serie de las probabi-
lidades de cada evento.
Demostración (las que faltan a cargo del alumno, están todas en Grynberg
[1], Espacios de probabilidad )
1. 1 = P(Ω) = P(A ∪ Ac ) = P(A) + P(Ac ) pasar restando y se demuestra
el teorema (notar que la unión de A y Ac es unión disjunta, por eso vale
sumar las probabilidades).
2. El vacı́o es complemento de Ω, aplicar inciso el anterior y listo
3. Alumnos: Por inducción extender el axioma V.
4. (Hacer gráficos de Venn, se entiende mucho mejor para seguir el desarro-
llo.) Como A ⊂ B se cumple
A=A∩B
Además
B =A∪B\A
y la unión es disjunta. Aplicando el axioma de aditividad:
12
5. Podemos expresar la unión de A y B como la unión disjunta:
A ∪ B = A ∪ (B \ (A ∩ B))
lı́m P(Rn ) = 0
n→∞
Demostración.PPara un lado es muy sencilla, basta con probar que que la defini-
ción P(A) := ω∈A p(ω) cumple con los 4 axiomas. Para el otro lado (justificar
el Todos que encabeza el enunciado) no se dará demostración, creo que la da
Grynberg en sus materias de posgrado como un teorema de extensión.
Nota 3.20 (Sobre la función de probabilidad puntual). A la hora de generar un
modelo, construir una función que vaya de la σ-álgebra al [0, 1] y satisfaga los
axiomas no es sencillo. Pero cuando el espacio muestral tiene una cantidad de
elementos finita (o infinita numerable), la tarea se simplifica a asignarle un peso
13
(o masa) a los eventos elementales de Ω mediante la función de probabilidad
puntual p. Simplemente debemos tener cuidado que la suma total cierre a 1.
Luego a cualquier evento A ∈ A se le asigna como probabilidad la suma de las
probabilidades puntuales de sus elementos. Lo podemos interpretar fı́sicamente:
la masa de un cuerpo (evento A) es la suma de la masa de sus átomos (eventos
elementales ω)
Notar la diferencia importante entre la función de probabilidad puntual (p
minúscula) y la medida de probabilidad (P mayúscula): p se aplica a elementos
ω de Ω; P aplica a eventos A de la σ-álgebra A.
Ejemplo 3.21 (Lanzamiento de una moneda). Lanzamos una moneda una vez,
llamamos A: salió cara, E: salió ceca, tenemos Ω = {A, E}, A = {∅, {A}, {E}, Ω}.
Como A y E son complementarios, podemos asignar
p(A) = r p(E) = 1 − r 0≤r≤1
Luego, sumando las probabilidades puntuales
P({A}) = r P({E}) = 1 − r P(∅) = 0 P(Ω) = 1
obtenemos la medida de probabilidad.
Ejemplo 3.22 (Lanzamiento de un dado cargado). Lanzamos un dado una vez,
llamamos ωi : salió el número i. Se define la función de probabilidad puntual
sobre los eventos elementales: p(ωi ) = i/21. Calcular:
(a) Probabilidad de obtener un as
(b) Probabilidad de que el resultado sea par
(c) Probabilidad de que el resultado sea mayor o igual a 5
Solución Nombremos los eventos, A: salió un as, B: el resultado es par, C: el
resultado es mayor o igual a 5. Tendremos
P(A) = P({ω1 }) = p(ω1 ) = 1/21
P(B) = P({ω2 } ∪ {ω4 } ∪ {ω6 }) = 2/21 + 4/21 + 6/21 = 12/21
P(C) = P({ω5 } ∪ {ω6 }) = 5/21 + 6/21 = 11/21
14
Ejemplo 3.24 (Lanzamiento de dos dados equilibrados). Se lanzan dos dados
y se registra el resultado en un vector Ω = {ω : ω = (i, j), i, j = 1 . . . 6} (anoto
primero el dado A y luego el dado B), se asigna a todos los resultados la misma
probabilidad. Calcular
(a) La probabilidad de obtener doble 6
(b) La probabilidad de que ambos dados den el mismo número
(c) La probabilidad de que la suma de los dados sea 7
Ω = {ω : ω = E n−1 A, n ≥ 1} ∪ {E ∞ }
Usamos la notación de potencia para describir que la letra E se repite tantas
veces. Tenemos por consigna P({E n−1 A}) = p(E n−1 A) = (1 − r)n−1 r. Para
escribir menos usaremos q = 1 − r, calculemos para entender un poco el modelo
la probabilidad de sacar cara en el primer lanzamiento:
P({A}) = p(A) = r
15
es decir, con este modelo la probabilidad de ver cara en el primer lanzamiento es
r. Sigamos resolviendo el ejercicio, sea P : la cantidad de lanzamientos fue par,
tenemos P = {EA, EEEA, EEEEEA, . . .}, con nuestra notación de potencias
se escribe de forma compacta:
∞
!
[
2i+1
P(P ) = P E A
i=0
como los eventos son disjuntos, sacamos la unión infinita para afuera como serie
y seguimos...
∞ ∞
X X i r(1 − r)
··· = (1 − r)2i+1 r = r(1 − r) (1 − r)2 =
i=0 i=0
1 − (1 − r)2
16
Ejemplo 3.29. Tomamos un número uniforme, calcular:
(a) La probabilidad de que el número 9 sea la primera cifra decimal del número
17
4. Independencia y probabilidad condicional
4.1. Independencia estocástica
Definición 4.1 (Independencia estocástica). Una familia de eventos {Ai : i ∈
I} se dice independiente si se cumple
!
\ Y
P Ai = P(Ai )
i∈J i∈J
18
Demostración. (tampoco aporta mucho S a fines del curso la demostración, no se
dará en clase) Tomemos C = {Acj (∪i∈I, i6=j Ai )}, i.e. la familia A tomando
complemento en uno solo de ellos. Para demostrar que C es independiente bas-
tará con verificar, de las 2n − n − 1 ecuaciones aquellas donde aparezca el evento
que cambiamos Acj . Notar que
\
(Aj ∪ Acj ) (∩i6=j,i∈K Ai ) = (∩i6=j,i∈K Ai ) ∀K ⊂ I
como esto vale para todo K ⊂ I demostramos que C es una familia independien-
te. Si ahora tomamos como punto de partida a C, complementamos uno de sus
eventos y tenemos una nueva familia independiente, y ası́ complementando de a
uno cuantas veces sea necesario seguiremos obteniendo familias independientes
de eventos.
Ejemplo 4.7 (Independencia y complementos). Sean A, B ∈ A eventos, son
equivalentes:
A, B independientes
A, B c independientes
Ac , B independientes
Ac , B c independientes
Ejercicio: demostrar alguna de las equivalencias.
Teorema 4.8 (Independencia de eventos triviales). Sea A ∈ A un evento tal
que o bien P(A) = 0 o bien P(A) = 1, entonces {A, B} es familia independiente
para todo evento B ∈ A. Ver Grimmet [5] ej. 1.8.7.
19
Teorema 4.10 (Probabilidad condicional es probabilidad). Sea A ∈ A con
P(A) > 0, definimos Q(B) := P(B|A) para todo B ∈ A, vale que Q es una
medida de probabilidad sobre A y (Ω, A, Q) es un espacio de probabilidad.
Demostración. Verificar que Q cumple los 4 axiomas.
Ejemplo 4.11 (Aplicación). El hecho de que la probabilidad condicional sea
una probabilidad nos permite usar todo lo que sabemos de probabilidades. Por
ejemplo, si P(B|A) = 0.7, podemos inmediatamente calcular la probabilidad de
su complemento:
P(B|A) = 0.7 → P(B c |A) = 0.3
Ojo,
P(B|A) = 0.7 → P(B|Ac ) = ni idea
Ejemplo 4.12. Se lanza nuestro dado cargado y se observa que el resultado es
mayor o igual que 4, ¿cuál es la probabilidad de que sea par?
Solución: Sean:
A: el resultado es mayor o igual que 4, A = {4, 5, 6}
B: el resultado es par, B = {2, 4, 6}
calculamos lo pedido
P(B ∩ A) P({4, 6}) (4 + 6)/21 2
P(B|A) = = = =
P(A) P({4, 5, 6}) (4 + 5 + 6)/21 3
Ejemplo 4.13. Se lanza un dado equilibrado y se observa que el resultado es
mayor o igual que 4, ¿cuál es la probabilidad de que sea par?
Solución Sean
A: el resultado es mayor o igual que 4, A = {4, 5, 6}
B: el resultado es par, B = {2, 4, 6}
calculamos lo pedido
P(B ∩ A) P({4, 6}) 2/6 2
P(B|A) = = = =
P(A) P({4, 5, 6}) 3/6 3
NOTA El resultado es el mismo de casualidad... ¿o no?
Teorema 4.14 (Regla del producto). Suponiendo que todos los eventos condi-
cionales tienen probabilidad positiva, tenemos que:
n−1
P(∩ni=1 Ai ) = P(A1 )P(A2 |A1)P(A3 |A1 ∩A2 )P(A4 |A1 ∩A2 ∩A3 ) · · · P(An |∩i=1 Ai )
Ejemplo 4.15 (Uno de bolas). Una urna contiene r bolas rojas y n bolas negras
(con n ≥ 3), se extraen sin reposición 3 bolas, ¿cuál es la probabilidad de que
las 3 sean negras?
Solución Sea Ni : la bola i es negra, aplicando la regla del producto
n n−1 n−2
P(N1 ∩ N2 ∩ N3 ) = · · · = · ·
n+r n−1+r n−2+r
Ejemplo 4.16 (Uno de cartas). Jugando al truco ¿cuál es la probabilidad de
que me repartan primero el as de espadas, luego el 7 de espadas y por último
otra carta de espadas (en ese orden)?
Solución
1 1 8
P(A ∩ B ∩ C) = · · · = · ·
40 39 38
20
Teorema 4.17 (Condicional de condicional). –Lo doy por si acaso, no sé si se
usa– Sea A ∈ A un evento con P(A) > 0, sea Q(X) = P (X|A) para todo evento
X ∈ A. Sea B ∈ A es tal que Q(B) > 0, vale que:
Q(X|B) = P(X|A ∩ B)
21
Demostración. Inmediata, aplicar fórmula de probabilidad total y acomodar los
términos. Ver Grynberg [1], Probabilidad condicional..., subtı́tulo 1.3.
P(D+ |E)P(E)
P(E|D+ ) = =
P(P (D+ |E)P(E) + P(D+ |E c )P(E c )
0.99 · 1/100000
= ' 0.005
0.99 · 1/100000 + 0.02 · 99999/100000
Este ejemplo es habitual en libros de la materia y libros de difusión cientı́fica.
Muestra que algo que uno supondrı́a como muy eficiente (un test con 99 % de
precisión y solo 2 % de falsos positivos) si se aplica al voleo puede llevar a
conclusiones erróneas. Por eso en algunos casos es necesario tener en cuenta
otras evidencias o realizar más pruebas.
22
5. Bonustrack: Análisis combinatorio
5.1. Generalidades
En espacios finitos con equiprobabilidad (Laplace) calcular la probabilidad
de un evento se reduce a saber contar, P(A) = |A|/|Ω| o coloquialmente casos
favorables / casos totales. Este tipo de problemas es muy común en juegos de
azar, pero se aplicó también a áreas de la fı́sica como la “mecánica estadı́stica”.
Aunque no sea estrictamente un tema de teorı́a de probabilidad, veremos algunas
técnicas para logar simplicity and economy of thought [3] a la hora de contar la
cantidad de elementos de un conjunto.
La mayorı́a de este capı́tulo lo encuentra con más detalle y más ejemplos en
[1], Espacios de Probabilidad, Elementos de Análisis Combinatorio capı́tulos 3
y 4. También en [3] capı́tulos II.5 y IV.2 hay muchı́simos teoremas y ejemplos
de mecánica estadı́stica (esta clase de problemas la llama occupancy problem)
que exceden el alcance del curso.
Teorema 5.1 (Regla del producto). Sean A1 , A2 , . . . An conjuntos finitos, el
producto cartesiano (cuyos elementos son vectores) de ellos tiene cardinal el
producto de cardinales:
n(n − 1) · · · 2 · 1 = n!
23
Ejemplo 5.5. ¿Cuántas palabras se pueden formar con las letras a, a, a, a, b,
b, b? Respuesta: De los 7 lugares para poner letras debo elegir 4 de ellos donde
colocar las letras a, una vez hecho eso el resto
de los lugares lo lleno con b. La
cantidad de palabras que puedo formar es 74 = 35
Ejemplo 5.6. En un pequeño paı́s viven 100 personas y deben elegir 11 dipu-
tados, ¿de cuántas formas disintas pueden hacerlo? Respuesta: Debemos elegir
una subpoblación de 11 de los 100 sin importar en qué orden los elijo, se puede
hacer de 100
11 = 141629804643600 formas distintas.
24
es escribiendo un vector: ω = (x1 , x2 . . . xr ), donde xi representa el número de
urna en la que se ubica la bola i. Como cada bola puede estar en cualquiera de
las n urnas, las configuraciones posibles son |Ω| = nr . La probabilidad de cada
evento elemental será P ({ω}) = 1/nr .
25
Podemos imaginar que en este modelo aparecen fuerzas de interacción entre
partı́culas cercanas, cuando llega una nueva bola a un sistema no le da lo mismo
elegir una urna vacı́a que una ya ocupada.
El ejemplo práctico para este modelo es el que nos dan los fı́sicos: partı́culas
de fotones, nuclei, y átomos que contienen una cantidad par de de partı́culas
elementales. Cualquier otro ejemplo que aparezca en la guı́a o evaluaciones será
forzado (para bajarnos del ascensor a la B-E hay que ponerse de acuerdo, para
meter gatos en cajas a la B-E no alcanza con que sea de noche), y debe in-
dicar el enunciado claramente que las cosas se distribuyen con un modelo de
indistinguibles y con todas las configuraciones distintas equiprobables.
5.2.6. Comparación
La siguiente tabla resume los modelos que usamos en el curso, se puede
extender también a Fermi-Dirac.
5.2.7. Aplicaciones
Ejemplo 5.11 (Cantidad de bolas en una urna especificada). (Ver [1] Espacios
de Probabilidad... cap. 4). Sea Ua,k : hay exactamente k bolas en la urna a (con
0 ≤ k ≤ r). Se tiene para los distintos modelos (se explicó en clase de dónde
salen las fórmulas):
k r−k
r 1 1
PM B (Ua,k ) = 1−
k n n
r−k+n−2
n−2
PBE (Ua,k ) = r+n−1
n−1
k l r−k−l
r! 1 1 2
PM B (Ua,k ∩ Ub,l ) = 1−
k!l!(r − k − l)! n n n
26
k l m r−k−l−m
r! 1 1 1 3
PM B (Ua,k ∩Ub,l ∩Uc,m ) = 1−
k!l!m!(r − k − l − m)! n n n n
r−k−l+n−3
n−3
PBE (Ua,k ∩ Ub,l ) = r+n−1
n−1
r−k−l−m+n−4
n−4
PBE (Ua,k ∩ Ub,l ∩ Uc,m ) = r+n−1
n−1
λk
PM B (Ua,k ) → e−λ
k!
k
1 1
PBE (Ua,k ) → 1−
1+λ 1+λ
Ejemplo 5.12 (Problema de los cumpleaños). Si queremos saber la probabi-
lidad, en el modelo de M-B, de “C: ninguna urna tiene más de una bola”, lo
calculamos:
(n)r n 1
P(C) = r =
n (n − r)! nr
Si las r bolas son personas y las urnas la fecha de nacimiento, elegida al azar
entre n = 365 (o n = 366) opciones, podemos calcular la probabilidad de que
en un grupo de r personas no haya dos que cumplan el mismo dı́a como:
(365)r 365 1
P(Cr ) = r
=
365 (365 − r)! 365r
Esta probabilidad ya es P(Cr ) < 0.5 para r = 23, del orden de 0.03 para r =
50 y de 0.01 para r = 70. Moraleja: No le apueste a un docente malintencionado
que en un curso no hay dos personas con el mismo cumpleaños porque pierde
seguro.
El modelo es simplemente una aproximación, la hipótesis de elección al azar
no se cumple ya que la cantidad de dı́as en el año no es un número fijo, y la distri-
bución de nacimientos no es del todo uniforme (ver http://www.nytimes.com/
2006/12/19/business/20leonhardt-table.html?_r=2 y http://www.vizwiz.
com/2012/05/how-common-is-your-birthday-find-out.html), estadı́sticas en
estados unidos muestran que se intenta que la gente no nazca en festividades
como navidad y año nuevo, y que hay mayor proporción de concepciones en los
meses más frı́os.
Ejemplo 5.13 (Celdas vacı́as). Si queremos saber la probabilidad de “Vm :
exactamente m celdas quedan vacı́as” en el modelo de Maxwell-Boltzmann lo
calculamos (ver [3] sección IV.2 fórmulas 2.4 y 2.11):
n−m r
n X v n−m m+v
PM B (Vm ) = (−1) 1−
m v=0 v n
27
si λ = ne−r/n , se puede aproximar cuando n y r son grandes y con una relación
r/n ni muy grande ni muy chica:
λm
P(Vm ) = e−λ
m!
28
6. Variables aleatorias (unidimensionales)
6.1. Definición de V.A., distribución
Definición 6.1 (Variable aleatoria). Sea (Ω, A, P) un espacio de probabilidad.
Una variable aleatoria (V.A.) sobre Ω es una función X : Ω → R tal que para
todo x ∈ R se cumple:
{X ≤ x} := {ω ∈ Ω : X(ω) ≤ x} ∈ A
µ(S) := P(X ∈ S) ∀S ∈ Rd
FX (x) := P(X ≤ x)
29
FX (x) tiene las siguientes propiedades esenciales:
(a) es no decreciente, FX (a) ≤ FX (b)
(b) es continua por derecha, ∀a ∈ R FX (a+ ) = lı́mx↓a FX (x) = FX (a)
(c) va de 0 a 1, lı́mx→−∞ FX (x) = 0, lı́mx→+∞ FX (x) = 1
Definición 6.7 (Función de supervivencia). Sea X una V.A. con función de
distribución FX (x). Se define su función de supervivencia (survival function)
30
i.e. toda la probabilidad se concentra en los átomos. A la función pX : R → [0, 1]
definida por
pX (x) := P(X = x)
la llamaremos función de probabilidad puntal (fpp) de X, o función de proaba-
bilidad de masa (fpm) o probability mass funcion (pmf ).
6.3.2. Continuas
Definición 6.15 (V.A. Continua). Sea X una V.A. en un e.p., diremos que X
es una V.A. continua si y solo si FX (x) es continua en todo R
Definición 6.16 (V.A. Mixta). Sea X una V.A. en un e.p., diremos que X es
una V.A. mixta si y solo si X no es discreta ni continua. Ver ejercicio 2.2 de la
guı́a como ejemplo.
Definición 6.17 (V.A. Absolutamente Continua). Sea X una V.A. en un e.p.,
diremos que X es una V.A. absolutamente continua si y solo si existe f : R → R+
0
medible (integrable) tal que para todo a, b ∈ R tales que −∞ ≤ a < b < +∞
vale que:
Z b
P(a < X ≤ b) = f (x)dx
a
31
Si una variable es absolutamente continua, conocer su función de densidad
de probabilidad fX (x) implica conocer perfectamente su distribución.
1. Sea FX (x) : R → [0, 1] una función con las propiedades esenciales de una
función de distribución (ver 6.6), entonces existe una V.A. X en un tal
que FX es su función de distribución
32
Teorema 6.26 (Sobre la intensidad de fallas). Vale que:
(1) T tiene función de densidad:
Z t
fT (t) = λ(t) exp − λ(s)ds 1{t > 0}
0
Definición 6.27 (a-cuantil). Sea a ∈ (0, 1), X una V.A., definimos un a-cuantil
de X a cualquier número real xa ∈ R tal que:
1. F (xa ) − P(X = xa ) ≤ a
2. a ≤ F (xa )
NOTA: La definición habitual es otra (equivalente), en clase se dará solo la
primera. *Definición equivalente:
1. P(X < xa ) ≤ a
2. a ≤ P (X ≤ xa )
Teorema 6.28 (Existencia). El a-cuantil siempre existe. No necesariamente
es único, puede ser un solo punto o un segmento. Veremos un método para
encontrar uno de los a-cuantil de forma rápida.
33
6.5. V.A. truncadas
Definición 6.32 (Variable truncada). Sea X una V.A., sea B ⊂ R un me-
dible tal que P(X ∈ B) > 0. Llamaremos “X truncada a B”, “X dado B”,
“X condicionada a B”, etc., a la V.A. X condicionada a tomar valores en B,
formalmente definiremos X|X ∈ B como la V.A. que tiene la siguiente función
de distribución
P(X ∈ B ∩ X ≤ x)
FX|X∈B = P(X ≤ x|X ∈ B) =
P(X ∈ B)
(c)
fX (x) · 1 {x ∈ B} fX (x) · 1 {x ∈ B}
fX|X∈B (x) = = R
P(X ∈ B) f (t)dt
B X
Teorema 6.34 (F.P.T. para truncadas). Sea X una V.A. discreta (d) o absolu-
tamente continua (c); {Bi ⊂ R, i ≥ 1} medibles disjuntos tal que P(X ∈ Bi ) > 0
y P(X ∈ ∪i≥1 Bi ) = 1 vale que:
(d) X
pX (x) = pX|X∈Bi (x)P(X ∈ Bi )
i≥1
(c) X
fX (x) = fX|X∈Bi (x)P(X ∈ Bi )
i≥1
34
7. Simulación
7.1. Definiciones y teoremas
Definición 7.1 (Inversa generalizada). Sea F una función de distribución, de-
finimos su inversa generalizada:
F −1 (u) := mı́n{x ∈ R : u ≤ F (x)} u ∈ (0, 1)
INTERPRETACIÓN: Graficar. Si u cae en la parte continua de F , F −1 es la
inversa usual. Si u cae en una meseta de F (infinitas inversas usuales), se toma
como inversa el valor más a la izquierda. Si u cae un salto (ninguna inversa
usual), se debe buscar el escalón que queda arriba y tomar el valor de más a la
izquierda.
Teorema 7.2 (Simulación). Sea U una VA U ∼ U(0, 1) (número random), F
una función que cumple las propiedades esenciales de una función de distribución
(definidas en teorema 6.6), entonces X := F −1 (U ) es una VA cuya función de
distribución es F .
Demostración. Notar que son equivalentes: F −1 (u) ≤ x ⇔ u ≤ F (x) (no es
tan sencillo como parece, recordar que F −1 es la inversa generalizada, hay que
analizar los 3 casos por separado).
Luego
P(X ≤ x) = P(F −1 (U ) ≤ x) = P (U ≤ F (x)) = FU (F (x)) = F (x)
Nota 7.3 (Sobre simulación). La importancia de este teorema está en que los
lenguajes de programación permiten generar números seudo-aleatorios a los que
en general se puede aceptar como números random. A partir de ellos, implemen-
tando un algoritmo que calcule inversas generalizadas podemos obtener valores
simulados de la variable aleatoria que queramos estudiar.
Teorema 7.4 (Transformada F). Sea X una VA absolutamente continua con
Fda FX , se define U := FX (X), entonces U es una VA uniforme U ∼ U(0, 1).
Teorema 7.5 (Algoritmo para transformar VA). Sea X una VA absoluta-
mente continua con función de distribución FX , y sea FY una función que
cumple las propiedades esenciales de una función de distribución. Se define
Y := FY−1 (FX (X)), entonces Y es una VA cuya Fda es FY .
35
http://octave.sourceforge.net/octave/function/rand.html
http://docs.scipy.org/doc/numpy/reference/generated/numpy.random.set_state.html
https://en.wikipedia.org/wiki/Mersenne_Twister
https://en.wikipedia.org/wiki/Pseudorandom_number_generator
https://en.wikipedia.org/wiki/Linear_congruential_generator
Algoritmo 7.6 (Generador casero). Una forma casera sencilla de generar núme-
ros pseudo-aleatorios es la siguiente. Se necesitan tres enteros a, b y m. Se arran-
ca en un número entero (llamado semilla) 0 ≤ X0 < m, y a partir de allı́ se
obtienen los siguientes números enteros Xi como función del paso anterior. Si
dividimos Xi /m obtendremos un número Ui ∈ [0, 1).
Xi+1 = (a · Xi + b) mód m Ui+1 = Xi+1 /m
se repite tantas veces como sea necesario. El valor Xi puede ir pisando al anterior
para no consumir memoria. La calidad de los números generados depende de
los enteros elegidos, sugerencia: a = 16807 b = 0 m = 231 − 1
Tanto este generador sencillo como los mejores generadores tienen como
problema la periodicidad, después de una cantidad de simulaciones (grande) los
números comienzan a repetirse en exactamente la misma secuencia.
Tener control sobre los randoms (usar siempre la misma secuencia) puede
ser conveniente a la hora de revisar, depurar y optimizar código, ası́ en dife-
rentes corridas si uno no altera la parte estrictamente de simulación obtendrá
exactamente los mismos resultados.
36
Ejemplo 7.8 (Dado cargado). El siguiente algoritmo sirve para simular cual-
quier variable discreta sobre un espacio finito (y con ciertas limitaciones se puede
adaptar a un numerable). Como ejemplo simularemos el problema visto en el
3.22, basta que el usuario modifique los datos Omega y pp para simular otro
problema.
El algoritmo arma el vector con los lı́mites Lk , luego simula y acumula
los resultados en un vector de frecuencias absolutas. Por último, divide por
la cantidad de simulaciones para obtener la frecuencia relativa, y muestra por
pantalla la diferencia entre la probabilidad y la frecuencia relativa.
Se desarrolló en lenguaje Python, usando listas a modo de vectores. No se
usan paquetes para cálculo numérico, ni búsquedas binarias, ni sintaxis espe-
ciales del lenguaje; se espera que el alumno pueda “traducirlo” fácilmente a
cualquier lenguaje que maneje.
Algoritmo 7.9 (Simulación variables discretas). Versión básica
1 #!/usr/bin/env python
2 # -*- coding: utf-8 -*-
3 """
4 Simulacion de variables aleatorias discretas
5 Version sencilla: sin busqueda binaria, sin modulos numericos
6 """
7 #Imports
8 from __future__ import division
9 import random
10
11 #Numero de simulaciones
12 n_sim = int(1e6)
13
18 #Cardinal de Omega
19 n_Omega = len(Omega)
20
21 #Inicializacion de listas
22 lims = [0] * (n_Omega+1)
23 frec = [0] * n_Omega
24 frel = [0] * n_Omega
25 delta = [0] * n_Omega
26 delta_r = [0] * n_Omega
27 uu = [0] * n_sim
28
37
39 for i in range(n_sim):
40 for j in range(n_Omega):
41 if lims[j] <= uu[i] and uu[i]<lims[j+1]:
42 frec[j] += 1
43
Omega: [1, 2, 3, 4, 5, 6]
Frec.: [48052, 94916, 143122, 190068, 238114, 285728]
Frel.: [0.048052, 0.094916, 0.143122, 0.190068, 0.238114, 0.285728]
|p-f|: [0.000433, 0.000322, 0.000265, 0.000408, 1.9e-05, 1.4e-05]
Notar que con 106 simulaciones obtenemos unas 3 cifras correctas para todas
las probabilidades simuladas.
En el ejemplo vimos simplemente cómo hacer una simulación, y que para n
grande la frecuencia relativa se acercó a la probabilidad, pero no aprendimos
nada nuevo sobre el experimento. Lo más potente del método de simulación es
modelar sistemas complejos y calcular probabilidades que desconocemos.
Algoritmo 7.10 (Espacios equiprobables). Sea X una V.A. discreta que toma
valores en {1 . . . n} de manera equiprobable (ejemplo tı́pico es extracciones con
reposición de un bolillero con n bolillas). Sea U un número random, simulamos:
X := bU · nc + 1
38
8. Funciones para análisis de datos
Definición 8.1 (Función de distribución empı́rica). Sea x = (x1 , x2 . . . xn ) un
vector en Rn . Se define la función de distribución empı́rica asociada al vector x:
n
1X
F dex (t) := 1 {xi ≤ t}
n i=1
39
Ejemplo 8.8 (Análisis de datos). Se ensaya la duración en años de determinado
componente electrónico, obteniéndose los siguientes resultados:
0.688, 0.801, 0.942, 0.383, 0.825, 0.383, 0.150, 0.091
a Hallar y graficar la función de distribución empı́rica. Estimar a partir de ella
la probabilidad de que un componente dure más de 0.7 años.
b Usando valores lı́mite 0.0, 0.5, 0.8, 1.0, hallar y graficar la función histograma.
Estimar a partir de ella la probabilidad de que un componente dure más de
0.7 años.
Resolución: (a) Lo primero que se recomienda hacer es ordenar el vector de
datos de menor a mayor. Tenemos
x(ord.) = (0.091, 0.150, 0.383, 0.383, 0.688, 0.801, 0.825, 0.942)
Luego armamos la función de distribución empı́rica aplicando la fórmula. Se
puede escribir con llaves o como suma de indicadoras:
1 2
F dex (t) = 1 {0.091 ≤ t < 0.150} + 1 {0.150 ≤ t < 0.383} + · · ·
8 8
4 5
· · · + 1 {0.383 ≤ t < 0.688} + 1 {0.688 ≤ t < 0.801} + . . .
8 8
6 7
· · · + 1 {0.801 ≤ t < 0.825} + 1 {0.825 ≤ t < 0.942} + 1 {0.942 ≤ t}
8 8
Notar que es una escalera que cada vez que aparece una muestra pega un
salto de altura 1/n (si hay valores muestrales que aparecen dos veces pega saltos
dobles).
Para estimar la probabilidad pedida:
3
P(X > 0.7) = 1 − FX (0.7) ' 1 − F dex (0.7) = = 0.375
8
Resolución: (b) Ahora debemos contar cuántos valores fj nos caen en cada
intervalo Ij de longitud Lj . También es más fácil hacer el conteo si tenemos el
vector de las xi ordenado.
I1 = [0.0, 0.5), f1 = 4, L1 = 0.5
I2 = [0.5, 0.8), f2 = 1, L2 = 0.3
I3 = [0.8, 1.0), f3 = 3, L3 = 0.2
Con esos datos construimos la función histograma:
4 1 3
histx,a (t) = 1 {0.0 ≤ t < 0.5}+ 1 {0.5 ≤ t < 0.8}+ 1 {0.8 ≤ t < 1.0}
8 · 0.5 8 · 0.3 8 · 0.2
histx,a (t) = 1.0·1 {0.0 ≤ t < 0.5}+0.41667·1 {0.5 ≤ t < 0.8}+1.875·1 {0.8 ≤ t < 1.0}
Para estimar la probabilidad pedida:
Z ∞ Z 1.0
1 3
P(X > 0.7) = fX (t)dt ' histx,a (t)dt = 0.1 · + 0.2 · ' 0.4167
0.7 0.7 2.4 1.6
Notar que las aproximaciones usando la F de y la función hist no tienen
por qué coincidir. Se supone que para una muestra grande deberı́an dar valores
parecidos.
40
41
9. Variables aleatorias n-dimensionales
Todo lo dado en este capı́tulo es un resumen de [1], Vectores aleatorios. Ahı́
hay más ejemplos y gráficos.
42
9.2. Marginales
Las coordenadas Xi de un vector aleatorio X son variables aleatorias 1-
dimensionales, y como tales tendrán su propia distribución. A esas variables
aleatorias, para indicar o destacar que se trata de una coordenada de una varia-
ble n-dimensinal, las llamaremos habitualmente variables aleatorias marginales.
Teorema 9.6 (Marginales, función de distribución). Sea X una V.A. n-dimensional
con función de distribución FX (x), vale que:
(d) X
pXi (t) = pX (x1 , . . . , xi−1 , t, xi+1 , . . . , xn )
x{1...n}\{i}
(c) Z
fXi (t) = fX (x1 , . . . , xi−1 , t, xi+1 , . . . , xn )dx{1...n}\{i}
Rn−1
Ejemplo 9.8 (Caso bidimensional). Sea (X, Y ) una V.A. 2-dimensional dis-
creta (d) o continua (c) con función de probabilidad p(X,Y ) (x, y) o función de
densidad f(X,Y ) (x, y), vale que:
(d) X
pX (s) = p(X,Y ) (s, y)
y
X
pY (t) = p(X,Y ) (x, t)
x
(c) Z
fX (s) = f(X,Y ) (s, y)dy
R
Z
fY (t) = f(X,Y ) (x, t)dx
R
43
9.3. Independencia
Definición 9.9 (Independencia de una cantidad finita de V.A.). Dada una
familia de V.A. (Xi : i ∈ I) con |I| = n < ∞ (I es una colección de ı́ndices finita,
tı́picamente 1 . . . n) definidas sobre un mismo espacio de probabilidad (Ω, A, P ).
Diremos que sus V.A. son conjuntamente independientes sii se verifica para todo
x ∈ Rn : !
\ Y
FX (x) = P {Xi ≤ xi } = FXi (xi )
i∈I i∈I
44
P(X = 1, Y ≤ y) = pFY (y)
P(X = 0, Y ≤ y) = (1 − p)FY (y)
45
10. Momentos
En este capı́tulo simplemente se reordenan las definiciones y se resume [1],
Variables Aleatorias: Momentos. Remitirse a la fuente para muchos ejemplos y
demostraciones de los teoremas.
10.1. Esperanza
Definición 10.1 (Esperanza). Sea X una V.A. unidimensional con distribución
µ, definimos: Z
E[X] := t · µ(dt)
R
Teorema 10.3 (Definición clásica). Sea X una V.A. discreta (d), continua (c)
o mixta (m), vale:
P
(d) E[X] = x∈At(X) x · pX (x)
R
(c) E[X] = R x · fX (x)dx
d
P R
(m) E[X] = x∈At(X) x · P(X = x) + R x · dx FX (x) dx
La definición más frecuente de esperanza en libros de introducción a la proba-
bilidad es esta. Se consideró más elegante dar una definición única.
Teorema 10.4 (Esperanza de funciones de V.A. n-D). Sea X una V.A. discreta
(d), continua (c) o mixta (m); y sea g : Rn → R tal que g(X) también es una
V.A., vale:
P
(d) E[g(X)] = x∈At(X) g(x)pX (x)
R
(c) E[g(X)] = R g(x)fX (x)dx
P R∞ d
(m) E[g(X)] = x∈At(X) g(x)P(X = x) + −∞ g(x) dx FX (x) dx
46
Teorema 10.6 (Propiedades). Vale que (para X o Xi con esperanza finita):
(1) Constantes: E[a] = a ∀a ∈ R
P P
(2) Linealidad: E[ ai Xi ] = ai E[Xi ]. En particular, para la combinación
lineal de dos variables E[aX + bY ] = aE[X] + bE[Y ]
Q Q
(3) Producto independiente: Si Xi son independientes, E[ Xi ] = E[Xi ]
E[X·1{X∈A}]
(4) Truncada: E[X|X ∈ A] = P(X∈A)
Pn
(5) Probabilidades totales: E[X] = i=1 E[X|X ∈ Ai ]P(X ∈ Ai ) si Ai es una
partición de Sop(X)
Pn
(6) Probabilidades totales: E[g(X)] = i=1 E[g(X)|X ∈ Ai ]P(X ∈ Ai ) si Ai
es una partición de Sop(X)
Ejemplo 10.7 (Ejemplos de esperanza). Dar ejemplos de: función indicadora,
Bernoulli, dado común, dado cargado, uniforme, exponencial, Cauchy, ejercicio
2.2.
10.2. Varianza
Definición 10.8 (Varianza). Sea X una V.A. con esperanza finita, definimos
la varianza de X como
var(X) := E (X − E[X])2
llamaremos desvı́o de X a p
σX := var(X)
Nota 10.9 (Sobre el desvı́o). Para aplicaciones fı́sicas o ingenieriles donde X
representa una magnitud fı́sica con su unidad de medida, σX es más fácil de
visualizar porque tiene las mismas unidades que la variable X y su esperanza
E[X], en cambio var(X) está con la unidad al cuadrado. En matemática es más
habitual trabajar con la varianza.
Teorema 10.10 (Fórmula para calcular V). Sea X una V.A. con esperanza y
varianza finita:
var(X) = E[X 2 ] − E2 [X]
Demostración. Basta con desarrollar el cuadrado del binomio y aplicar propie-
dades de lienalidad vistas
var(X) = E[(X − E[X])2 ] = E[X 2 + (E[X])2 − 2XE[X]] = · · ·
· · · = E[X 2 ] + (E[X])2 − 2E[X]E[X] = E[X 2 ] − (E[X])2
47
10.3. Covarianza
Definición 10.13 (Covarianza). Sean X e Y dos V.A. sobre el mismo espacio
de probabilidad con esperanza finita, llamaremos covarianza de X e Y a:
covi,j := cov(Xi , Xj )
Si las esperanzas E[Xi2 ] son finitas, se pueden calcular las coordenadas con
la fórmula habitual covi,j = E[Xi Xj ] − E[Xi ]E[Xj ].
Para la matriz de covarianzas es muy habitual al notación de sigma mayúscu-
la Σ
Ejemplo 10.16 (Bernoulli conjunta). Dar en clase V.A. bernoulli 2-D con
probabilidades puntuales a, b, c, d.
Definición 10.17 (Coeficiente de correlación). Sea (X, Y ) un vector aleatorio
con covarianza, definimos su coeficiente de correlación:
cov(X, Y ) cov(X, Y )
ρX,Y := p =
var(X) · var(Y ) σX · σY
48
(7) Varianza suma: var(X + Y ) = var(X) + var(Y ) + 2cov(X, Y )
(8) Varianza suma: var(aX + bY ) = a2 var(X) + b2 var(Y ) + 2 · a · b · cov(X, Y )
Pn Pn Pn
(9) Varianza suma: var( i=1 Xi ) = i=1 j=1 cov(Xi , Xj )
2
(10) Normales no correlacionadas: X ∼ N (µX , σX ), Y ∼ N (µY , σY2 ), cov(X, Y ) =
0 ⇒ X, Y independientes
(11) Bernoullis no correlacionadas: X ∼ B(p), Y ∼ B(r), cov(X, Y ) = 0 ⇒ X, Y
independientes
(12) Lı́mites para correlación: −1 ≤ ρ ≤ 1
Ejemplo 10.19 (Interpretación). Covarianza (correlación) positiva indica que
cuando X crece Y tiende a hacer lo mismo, y que cuando X decrece Y también
lo hace. Covarianza (correlación) negativa indica lo contrario, cuando X va para
un lado Y va para el otro. Hacer gráficos de muestras (x, y) en clase.
49
Demostración. Inmediata a partir del teorerma anterior. Ver Billingsley [10]
sección 1.5 fórmula 5.31
Demostración. Por linearidad de esperanza y por tener todas las V.A. la misma
esperanza:
P
Sn E [ Xi ] 1X 1
E = = E[Xi ] = nE[X1 ] = E[X1 ]
n n n n
Como además las variables son independientes se anulan las cov y se tiene:
Sn 1 X 1 var[X1 ]
var = 2 var(Xi ) = 2 nvar[X1 ] =
n n n n
50
11. Transformaciones de V.A.
Si X es una V.A. y g una función, en muchas aplicaciones nos intersará saber
cómo se comporta Y = g(X). Trateremos en este capı́tulo de dar teoremas útiles
(métodos) para hallar la distribución de Y a partir de la distribución de X, tanto
en casos 1-dimensionales como n-dimensionales.
{Y ≤ y} = {ω ∈ Ω : Y := g(X) ≤ y} ∈ A ∀y ∈ Rn
g −1 (S) := {x ∈ D : g(x) ∈ S}
P (Y ∈ S) = P(X ∈ g −1 (S))
Demostración. Inmediata, pues el evento Y ∈ S refiere a los mismos ω ∈ Ω que
el evento X ∈ g −1 (S) y por lo tanto tiene asignada la misma probabilidad.
51
Teorema 11.6 (Caso particular - FY (y)). Tomemos como caso particular S† =
{t : t ≤ y}, tendremos P(Y ∈ S† ) = P(Y ≤ y) = FY (y) lo que nos permite
calcular la función de distribución de Y aplicando el teorema:
O, equivalente X
pY (y) = pX (x) x=gi−1 (y)
i
o equivalente:
X fX (x)
fY (y) =
i
|Jg (x)| x=gi−1 (y)
donde (con cierto abuso de notación) la sumatoria recorre las preimágenes que
corresponde, y x = gi−1 (y) nos dice que se deben escribir esas distintas preimáge-
nes x como funciones gi−1 (y). Usando el Jacobiano de la transformación inversa
podemos escribir:
X
fY (y) = fX (x) x=g−1 (y) |Jg−1 (y)|
i i
i
∂(gi−1 )m (y)
∂gm (x)
Jg = Jg−1 =
m,n ∂xn i
m,n ∂yn
52
∆y
Tomando como región S = y ± 2 tendremos, por eventos equivalentes:
∆y ∆y
X X
−1 ∆xi
P Y ∈y± = P X ∈ gi y± = P X ∈ xi ±
2 i
2 i
2
53
(Z1 , Z2 ) = (R cos Θ, R sin Θ), la transformación g(r, t) = (r cos t, r sin t) es
biyectiva en el soporte de (R, Θ) y tiene inversa que no necesitaremos cal-
cular (verla en http://mathworld.wolfram.com/Box-MullerTransformation.html)
Aplicando la regla del jacobiano:
f(R,Θ) (r, t)
f(Z1 ,Z2 ) (z1 , z2 ) =
|Jg(r,t) | g −1 (z1 ,z2 )
cos(t) −r sin(t)
Jg(r,t) = =r
sin(t) r cos(t)
volviendo...
1 2
!
re− 2 r
f(Z1 ,Z2 ) (z1 , z2 ) = 1{r > 0, 0 < t < 2π}
r2π
g −1 (z1 ,z2 )
54
12. Condicionales
En este capı́tulo se reordenan los conceptos de Grynberg [1] Condicionales.
Se intenta minimizar la cantidad de definiciones para aprovechar los teoremas
ya dados en los capı́tulos anteriores. Para ejemplos y demostraciones leer el
borrador mencionado. Se dan todas las definiciones para V.A. en 2 dimensiones,
se podrı́a generalizar sin problema a n-dimensional, teniendo en cuenta que al
condicionar a Xi = xi se reduce la dimensión en 1.
pX,Y (x, y)
pY |X=x (y) = (d)
pX (x)
fX,Y (x, y)
fY |X=x (y) = (c)
fX (x)
Alternativamente, si y ∈ Sop(Y ) podemos definir la variable aleatoria X|Y =
y a partir de su función de probabilidad o densidad:
pX,Y (x, y)
pX|Y =y (x) = (d)
pY (y)
fX,Y (x, y)
fX|Y =y (x) = (c)
fY (y)
Ejercicio 12.2 (Sobre Y |X = x). Demostrar que la definición anterior existe
Ejemplo 12.3 (Ejemplo condicionales). Hacer ejemplo con urna 3 verdes, 2 ro-
jas, 2 azules; extraer 2 sin reposición. Hacer ejemplo uniforme sobre un triángulo
o sobre una región como la del parcial.
Teorema 12.4 (Construcción de la conjunta). Sea Y |X = x discreta (d) o
continua (c), dada la marginal de X podemos reconstruir la conjunta:
pX,Y (x, y) = pY |X=x (y)pX (x) ∀x : pX (x) > 0
fX,Y (x, y) = fY |X=x (y)fX (x) ∀x : fX (x) > 0
para completar, en los puntos donde la condicional no esté definida diremos que
la conjunta es nula.
Demostración. Pasar multiplicando y completar los huecos
Teorema 12.5 (Fórmula de probabilidad total ampliada). Sea Y |X = x dis-
creta (d) o continua (c), dada la marginal de X podemos reconstruir la marginal
de Y : X
pY (y) = pY |X=x (y)pX (x)
x∈Sop(X)
Z
fY (y) = fY |X=x (y)fX (x)dx
Sop(X)
55
Demostración. En la definición de densidad marginal reemplazar la conjunta
por el producto de condicional y marginal, restringir la operación al soporte
para evitar problemas técnicos
Demostración.
X
FX (x) = P(XM ≤ x) = P (XM ≤ x|M = m)P (M = m) = . . .
m∈M
X X
... = P(Xm ≤ x|M = m)P(M = m) = FXm (x)P(M = m)
m∈M m∈M
Si las Xi son mixtas o son algunas discretas y algunas continuas este teorema
no sirve, en tal caso usar la función de distribución.
Ejemplo 12.10 (Ejemplo de mezcla). Resolver mezcla de dos uniformes. Mos-
trar gráfico de funciones de densidad originales y mezcla. Dejar servido para
hacer un bayes.
56
Definición 12.11 (Bayes discreto-continuo o Bayes para mezcla). Sea X = XM
variable mezcla como la definimos, con Xm absolutamente continuas. Definimos:
fXm (x)pM (m) fXm (x)pM (m)
P(M = m|X = x) = pM |X=x (m) := =P
fX (x) m∈M fXm (x)pM (m)
var(Y |X = x) = E[Y 2 |X = x] − E2 [Y |X = x]
57
Teorema 12.15 (Momentos de mezcla). Sea X = XM V.A. mezcla como la
definimos en el capı́tulo, se demuestra fácilmente con un tema que veremos a
continuación: X
E[X] = E[Xm ]pM (m)
m∈M
X X
V [X] = V [Xm ]pM (m) + (E[Xm ] − E[X])2 pM (m)
m∈M m∈M
ψ(x) := var(Y |X = x)
Ejemplo 12.19 (Rata sin memoria en laberinto). Una rata está atrapada en
un laberinto. Inicialmente puede elegir una de tres sendas. Si elige la primera se
perderá en el laberinto y luego de t1 = 12 minutos volverá a su posición inicial;
si elige la segunda volverá a su posición inicial luego de t2 = 14 minutos; si elige
la tercera saldrá del laberinto luego de t3 = 9 minutos. En cada intento, la rata
elige con igual probabilidad cualquiera de las tres sendas. Calcular la esperanza
del tiempo que demora en salir del laberinto.
Resolución Sea T el tiempo total que tarda la rata en escapar, y Xi la
puerta que elige la rata en el intento i de escape. La técnica para resolver este
ejercicio será pensar cómo se distribuye el tiempo T si lo condicionamos al
resultado de la primera elección de la rata X1 .
Este tipo de análisis será útil en problemas que presentan la caracterı́stica
de regeneración, informalmente quiere decir que si pasan determinadas cosas el
problema vuelve a su estado inicial (o vuelve a algún estado). En este caso, cada
vez que se elija la puerta 1 o 2 la rata vuelve a un estado inicial, por viendo a
futuro lo que le falta para escapar no depende de cuánto tiempo lleva perdida,
da lo mismo si recién inicia o si ya hizo 500 malas elecciones.
Volviendo, si elige la puerta número 1, la rata consume t1 y vuelve al labe-
rinto, donde lo que le falta para escapar se distribuye igual que si empezara el
problema de cero. Si elige la puerta número 2 consume t2 y nuevamente lo que
le falta para escapar se distribuye igual que si empezara el problema de cero.
Y si elige la puerta 3 tarda t3 y se escapa. Podemos escribir eso formalmente
como:
(T |X1 = 1) ∼ t1 + T
(T |X1 = 2) ∼ t2 + T
58
(T |X1 = 3) = t3
(si le hace ruido ver T a ambos lados de la relación, recuerde que el sı́mbolo ∼
no significa igual, sino que lo que está a la izquierda tiene la misma distribución
que lo que está a la derecha)
Podemos resolver el ejercicio aplicando FPT para esperanzas:
E[T ] = E[T |X1 = 1]pX1 (1) + E[T |X1 = 2]pX1 (2) + E[T |X1 = 3]pX1 (3)
reemplazando:
E[T ] = E[T + t1 ]pX1 (1) + E[T + t2 ]pX1 (2) + E[t3 ]pX1 (3)
termina:
E[T ] = t1 + t2 + t3 = 12 + 14 + 9 = 35
59
13. Esperanza condicional
13.1. Presentación
Este es probablemente el tema más difı́cil conceptualmente que veremos
en el curso (don’t panic: las cuentas son muy fáciles). Intentaremos dar una
descripción lo más clara posible, para entenderlo bien se deben leer libros que
escapan el alcance del curso (y el conocimiento del que escribe) como [10].
Comencemos describiendo el problema. Tenemos (X, Y ) una variable alea-
toria 2-dimensional sobre un e.p. (Ω, A, P ). En una realización del experimento
yo puedo observar o medir X, y a partir de ello quiero poder (en algún sentido)
aproximar la variable Y desconocida (pero realizada) como una función ϕ(X).
Dar algún ejemplo como caldera donde mido temperatura y quiero inferir
sobre la presión. Hacer esquema conceptual.
Definición 13.1 (V.A. esperanza condicional). Sea (X, Y ) una variable alea-
toria 2-dimensional sobre un e.p. (Ω, A, P ), con E[|Y |] < ∞. Llamaremos es-
peranza condicional de Y dada X, a la que escribiremos E[Y |X], a cualquier
variable aleatoria ϕ(X) (transformada de X con ϕ : R → R medible) tal que
cumpla la siguiente ecuación funcional:
60
Teorema 13.5 (Cálculo de la V.A. esperanza condicional). Se cumplen las
hipótesis para definirla, la función de regresión ϕ(x) = E[Y |X = x] resuelve la
ecuación funcional, vale entonces:
V (Y |X) = ψ(X)
61
p p
||X|| := hX, Xi = E[X 2 ]
p
d(X, Y ) := ||X − Y || = E[(Y − X)2 ]
En palabras, V son todas las variables aleatorias en el espacio de probabilidad
de varianza finita, HX son todas las transformaciones posibles de X tal que
esa transformación sea variable aleatoria de varianza finita, y luego definimos
algunas operaciones (producto interno, módulo, distancia) para las variables
aleatorias.
Teorema 13.11 (Sobre las definiciones anteriores). Vale que:
V es un espacio vectorial (con la suma y producto por escalar usuales).
HX es un subespacio de V
hX, Y i es un producto interno en V
||X|| es una norma en V
d(X, Y ) es una distancia en V
Teorema 13.12 (Predictor). Sean X, Y V.A. sobre un e.p. tales que E[Y 2 ] <
∞, y sea ϕ(X) = E[Y |X] la esperanza condicional de Y dado X. Vale que ϕ(X)
es la proyección ortogonal de Y sobre el subespacio HX .
Demostración. Vamos por partes
1. Primero demostremos que ϕ(X) ∈ HX usando la hipótesis E[Y 2 ] < ∞ y
la desigualdad de Jensen (que no dimos en clase por ser muy técnica)
E[ϕ(X)2 ] = E[E[Y |X]2 ] ≤ E[E[Y 2 |X]] = E[Y 2 ] < ∞
como es función de X y cumple la condición sobre la esperanza del cua-
drado ϕ(X) ∈ HX
2. Ahora probemos a partir de la ecuación funcional que define la esperanza
condicional que se trata de la proyección.
Si ϕ(X) es la p.o. de Y sobre HX , el vector que va de una V.A. a la otra
debe ser perpendicular al subespacio, esto es Y − ϕ(X) ⊥ HX . Partamos
de la ecuación funcional
E[ϕ(X)h(X)] = E[Y h(X)] ∀h
pasamos restando
E[Y h(X)] − E[ϕ(X)h(X)] = 0
por linearidad de esperanza
E[(Y − ϕ(X))h(X)] = 0
lo que es equivalente a escribir, usando el producto interno que definimos
hY − ϕ(X), h(X)i = 0 ∀h
lo que significa que es perpendicular al subespacio
62
Por lo tanto, podemos interpretar a ϕ(X) = E[Y |X] como la función de
X que más se acerca a Y (en el sentido de distancia que definimos) por ser
ϕ(X) la proyección ortogonal de Y . La esperanza condicional es entonces una
aproximación óptima o el mejor predictor.
Teorema 13.13 (Pitágoras II). Ya enunciamos, ahora demostraremos:
abrimos el binomio
63
Figura 1: Teorema de pitágoras
o equivalente:
pXn (0) = 1 − p pXn (1) = p
64
14.2. Distribuciones asociadas
Teorema 14.3 (Distribución binomial). Definamos Yn como la cantidad de
éxitos (1) observados en los primeros n (fijo) ensayos de Bernoulli
n
X
Yn := Xi
i=1
T1 = S1 Tk = Sk − Sk−1 k>1
65
Teorema 14.8 (Suma de geométricas IID). Sean {Ti , i ∈ Z+ } familia de
V.A.I.I.D. con distribución Geo(p), entonces:
k
X
Sk = Ti
i=1
λy e−λ
P (Yn = y) ≈
y!
es decir, podemos aproximar a la distribución Bi(n, p) por una P oi(λ = np)
(donde λ es la media).
Demostración. En la fórmula de la binomial expresar el combinatorio por facto-
riales, reemplazar n! y (n−k)! por la fórmula de Stirling, tomar lı́mite resolviendo
las indeterminaciones 0∞ y listo.
o equivalente:
66
Teorema 14.13 (Filtrar un P.B.G.). INFORMAL: Sea {Xn : n ∈ Z + } un
proceso Bernoulli generalizado a valores {1 . . . r} con probabilidades pi . Cons-
truimos el proceso {Yn : n ∈ Z + } a valores {1 . . . r} \ {j} a partir del proceso
original descartando todas las ocurrencias del resultado j. Vale que el nuevo
proceso es un proceso Bernoulli generalizado con probabilidades
py
P (Yn = y) = 1{y 6= j}
1 − pj
Demostración. Ver [11]. Los autores trabajan con lenguajes regulares y funcio-
nes generadoras (escapan los objetivos del curso y conocimiento del autor).
Ejemplo 14.15 (Aplicación de coleccionista). Para entender la fórmula, resol-
vamos para m = 1
E[Cm ] = 1
Para m = 2, por simplicidad p = (p1 , p2 ) = (a, b)
1 1
E[Cm ] = −1 + +
1−a 1−b
Para m = 3, por simplicidad p = (p1 , p2 , p3 ) = (a, b, c)
1 1 1 1 1 1
E[Cm ] = 1 − − − + + +
1−a 1−b 1−c 1−a−b 1−b−c 1−c−a
Para m genérico y pi = 1/m (resultados equiprobables):
m
q−1 m 1
X
E[Cm ] = m (−1)
q=1
q q
67
vez el resultado b, i.e. Nb = mı́n{n : Xn = b}. Definimos para i = 1, . . . , b − 1
PNb −1
el valor Mi = n=1 1{Xn = i} que cuenta la cantidad de veces que veo el
resultado i hasta ver por primera vez el resultado b. Vale que:
m
pb pb pb
Mi ∼ Ge −1 P (Mi = m) = 1−
pb + pi pb + pi pb + pi
(x − 1)(1 − px) 1
fn '
(r + 1 − rx)q xn+1
1 − px 1
qn ' n+1
(r + 1 − rx)q x
donde x es la menor solución a la ecuación s = 1 − qpr sr+1 , la misma se puede
encontrar de forma recursiva tomando g(s) = 1−qpr sr+1 , x0 = 1, xn+1 = g(xn ).
Demostración. Ver [3]. Trabaja con funciones generadoras (escapan los objetivos
del curso y conocimiento del autor).
Teorema 14.18 (Rachas - Competencia). Del Feller VIII.1: Sea A el evento
“un racha de α éxitos consecutivos ocurre antes que una racha de β fracasos
consecutivos” en un P.B. p, con q = 1 − p, vale que:
1 − qβ
P (A) = pα−1
pα−1 + q β−1 − pα−1 q β−1
68
1 − pα
P (B) = q β−1
pα−1 + q β−1
− pα−1 q β−1
P (A) + P (B) = 1
Demostración. Ver [3]. Esta se entiende fácil, hace algo parecido a lo que hicimos
en el problema de la rata.
Ejemplo 14.19 (Coleccionista con tres premios y vacı́os). Resolveremos el pro-
blema del coleccionista clásico pero agregándole la posibilidad de que vengan
chocolatines vacı́os. Sea {Xi : i ∈ Z+ } un proceso Bernoulli generalizado a va-
lores (0, 1, 2, 3) con probabilidades respectivas (z, a, b, c). El coleccionista quiere
juntar 1 a 3, y los 0 no le interesan, representan el chocolatı́n vacı́o.
Llamaremos N al tiempo de espera a completar la colección, NZ al tiem-
po que falta hasta completar la colección dado que ya acumulé Z ⊂ {1, 2, 3}
(subconjunto de la colección completa).
Condicionemos para empezar N al primer resultado. Si sale vacı́o el problema
vuelve a empezar, si sale 1 a 3 el coleccionista avanza:
N |X1 = 0 ∼ 1 + N
N |X1 = 1 ∼ 1 + N1
N |X1 = 2 ∼ 1 + N2
N |X1 = 3 ∼ 1 + N3
Para analizar N1 de forma similar, condicionemos al resultado i que será el
primero después de obtener el premio 1 (no necesariamente i = 2 pues podrı́an
salir unos vacı́os primero). De nuevo, si ya tenemos el 1 acumulado y nos sale
vacı́o o de nuevo 1 el coleccionista no avanza, si sale 2 o 3 sı́.
N1 |Xi = 0 ∼ 1 + N1
N1 |Xi = 1 ∼ 1 + N1
N1 |Xi = 2 ∼ 1 + N1,2
N1 |Xi = 3 ∼ 1 + N1,3
69
Análogamente
1 c a
E[N2 ] = 1+ +
c+a a c
1 a b
E[N3 ] = 1+ +
a+b b a
Planteamos ahora E[N ] por fórmula de probabilidades totales
1 1 1 1 1 1
E[N ] = 1 − − − + + + si z = 0
1−a 1−b 1−c 1−a−b 1−b−c 1−c−a
70
15. Proceso de Poisson
Seguiremos [1], Procesos de Poisson, 22 de abril de 2013. Se formaliza un
poco más la pérdida de memoria del proceso, y se agrega algún resultado sobre
el PPP mirado desde un t0 hacia atrás.
(a) S0 = 0
(b) S0 < S1 < S2 < · · ·
(c) lı́mn→∞ Sn = +∞
Diremos entonces que Sn es un proceso puntual aleatorio o P.P. sobre la semi-
rrecta positiva.
NOTA 1: Un P.P. es un proceso que (con probabilidad 1): su primer variable
es 0, sus variables están ordenadas y no tienen arribos simultáneos, y no explota
(no puedo ver infinitos arribos en una cantidad finita de tiempo).
NOTA 2: Interpretaremos a los P.P. como el tiempo de arribo o el tiempo
de llegada de una marca o evento (hacer gráfico).
NOTACIÓN: A los procesos puntuales los llamaremos habitualmente con
letras griegas mayúsculas, por ejemplo “Sea Π un proceso puntual de Poisson
de tasa...”
Definición 15.2 (Tiempos de espera). Al proceso {Tn : n ∈ Z+ } definido por:
Tn := Sn − Sn−1
71
Teorema 15.4 (Propiedades de procesos puntuales y de conteo). Con las Sn y
Nt recién definidas vale que:
(1) Nt ≥ n ⇔ Sn ≤ t
(2) Nt = n ⇔ Sn ≤ t < Sn+1
(3) Nt es una V.A. a valores enteros no negativos
(4) N0 = 0 y lı́mt→∞ Nt = ∞
Las condiciones 1 y la 2.a nos dicen que los incrementos son temporalmente
homogéneos (no importa donde nos paremos) e independientes, lo que implica
que si nos paramos en un tiempo arbitrario t y reiniciamos el proceso todo lo
que ocurra de ahı́ en adelante será independiente del pasado y se distribuirá de
la misma forma que el proceso original. Informalmente, diremos que le proceso
de Poisson no tiene memoria. La fiesta de Poisson empieza cuando llego.
72
Teorema 15.6 (Distribuciones asociadas). Sea Π = {Sn : n ∈ Z+ 0 } un PPP de
intensidad λ sobre la semirrecta positiva, y los tiempos de espera {Tn : n ∈ Z+ }
definidos:
Tn := Sn − Sn−1
Vale que:
(I) La densidad conjunta de los primeros n tiempos de arribo S1 , S2 , . . . , Sn
está dada por:
f(S1 ,S2 ,...,Sn ) (s1 , s2 , . . . , sn ) = λn e−λsn 1{0 < s1 < s2 < . . . < sn }
Sn ∼ Γ(n, λ)
(notar dependencia)
(III) Los tiempos de espera Tn son V.A.I.I.D. con distribución exponencial
Tn ∼ Exp(λ)
(notar independencia)
Demostración. Ver [1], Procesos de Poisson, teorema 1.5. No es tan larga y es
interesante. Arma la conjunta de las Gammas S1 . . . Sn a partir del proceso de
conteo tirando de galerazo unas integrales, y luego por jacobiano encuentra la
conjunta de las T1 . . . Tn .
Teorema 15.7 (Definiciones alternativas). Los enunciados (I) y (III) del teore-
ma anterior son caracterı́sticas únicas de los procesos de Poisson y sirven como
definiciones alternativas. Las propiedades sobre el proceso de conteo que usa-
mos como definición se pueden probar a partir de cualquiera de las definiciones
alternativas.
(I) Sea Π = {Sn : n ∈ Z+ 0 } un P.P. tal que la densidad conjunta de los
primeros n tiempos de arribo está dada por
f(S1 ,S2 ,...,Sn ) (s1 , s2 , . . . , sn ) = λn e−λsn 1{0 < s1 < s2 < . . . < sn }
n
X
S0 := 0 Sn := Ti n = 1, 2, . . .
i=1
73
Demostración. Ver [1], Procesos de Poisson, tı́tulo 1.3. Es larga, hay que de-
mostrar que lo que se arma al “apilar” exponenciales independientes de tasa
λ es un proceso puntual, y que cumple las dos condiciones necesarias para ser
PPP.
Teorema 15.8 (Aditividades). Por si alguno no se avivó todavı́a, va de refuerzo:
Pn
1. Sean Ti V.A.I.I.D. exponenciales de tasa λ, y sea Sn = i=1 Ti , entonces
Sn tiene distribución Gamma (o Erlang) de parámetros n y λ, i.e.
Sn ∼ Γ(n, λ)
n
!
X
N ∼ Poi µi
i=1
74
Teorema 15.10 (Pérdida de memoria 2). Con las mismas hipótesis, pero T0
ahora es una V.A. a valores positivos independiente de Π (de todas las Sn )
Definimos:
So∗ := 0 i0 := mı́n{i : Si > To } − 1
Si∗ := Sio +i − T0 i≥i
∗
Π = {Sn∗ : n ∈ Z+
0
de donde
T1∗ ∼ Exp(λ)
Caso 2: T0 V.A. positiva discreta
la distribución de N(T0 ,T0 +t] no nos es conocida pues depende de T0 , ası́ que
condicionamos por FPT:
X
··· = P (N(T0 ,T0 +t] = 0|T0 = t0 )P (T0 = t0 ) = · · ·
t0 ∈A(T0 )
como T0 = t0 reemplazamos:
X
··· = P (N(t0 ,t0 +t] = 0|T0 = t0 )P (T0 = t0 ) = · · ·
t0 ∈A(T0 )
X X
··· = e−λt P (T0 = t0 ) = e−λt P (T0 = t0 ) = e−λt
t0 ∈A(T0 ) t0 ∈A(T0 )
de donde
T1∗ ∼ Exp(λ)
Caso 3: T0 V.A. positiva continua Es lo mismo sólo que en lugar de una
sumatoria debemos resolver una integral y en lugar de P (T0 = t0 ) debe ir
fT0 (t0 )dt0 .
75
Queda al final:
Z Z
··· = e−λt fT0 (t0 )dt0 = e−λt fT0 (t0 )dt0 = e−λt
R R
de donde
T1∗ ∼ Exp(λ)
(−) 1 − e−λt0
E[T1 ]=
λ
NOTA: Notar que si t0 grande, se trata de una V.A. exponencial. El resul-
tado se puede generalizar, para un proceso lo suficientemente viejo (en estado
estacionario), desde un t0 arbitrario se tiene un PPP(λ) tanto hacia adelante
como hacia atrás.
Teorema 15.13 (Poisson hacia atrás y adelante). Sea Π un PPP(λ), t0 ∈ R+
positivo. Definimos:
Demostración. Ver [4], I.4 Waiting time paradoxes, hace una mezcla entre las
exponenciales. O calcular la densidad de W como la suma entre la primera
exponencial desde t0 y el tiempo hacia atrás.
NOTA: Notar que para t0 grande se trata de una Γ(2, λ).
76
15.4. Más propiedades
Hipótesis en general: Sn , Tn y N (t) como se definieron.
Teorema 15.14 (Tiempos de arribo dada cantidad arribada). Sabiendo que
hasta t hubo un solo arribo, T1 se distribuye uniformemente entre 0 y t, i.e.
T1 |N (t) = 1 ∼ U (0, t)
o, equivalente:
s
P (T1 < s|N (t) = 1) = 1{0 < s < t} + 1{t ≤ s}
t
Demostración. Demostrar en clase, deberı́a salir fácil.
Si fijamos ahora la cantidad de arribos en un intervalo (a, d) y nos pregun-
tamos qué pasa en un sector del intervalor (b, c) ⊂ (a, d), obtenemos:
c−b
N (b, c]|N (a, b] = n ∼ Bi n, a≤b<c≤d
d−a
entonces,
n m c−b
P (N (b, c] = m|N (a, b] = n) = p (1 − p)n−m con p =
m d−a
Demostración. Demostrar en clase, deberı́a salir fácil. Tomar a = b = 0 sin
perder generalidad para que el subintervalo quede a la izquierda y el resto a
derecha ya evitar sumatorias.
Generalizando todavı́a más informalmente, podemos decir que si Π es un
proceso puntual de Poisson de intensidad λ sobre R+ . Condicional al evento
N (t) = n, los n arribos ocurridos en [0, t] tienen la misma distribución conjunta
que la de n puntos independientes elegidos al azar en [0, t].
Teorema 15.15 (Coloración). Sea Π un PPP sobre R+ de intensidad λ, y B
un PBG a valores {1 . . . r}. Colorearemos las marcas de r colores distintos de la
siguiente manera, a la marca n que ocurrió a tiempo Sn la pintamos del color
que nos indica la Xn (del PBG). Sean Πi los conjuntos de puntos (o tiempos de
arribo) pintados del color i, vale que Πi es un proceso de Poisson de intensidad
pi λ, y los Πi son procesos independientes.
Demostración. Demostraremos qué pasa con el proceso de conteo para t fijo y
dos colores nada más. Si para un t fijamos la cantidad n de arribos del proceso
original, y deseamos saber cuántos de ellos debemos colorear del primer colo y
cuántos del segundo, basta con ver las primeras n Bernoullis y contar cuántas
son éxito
n!
P (N1 (t) = n1 , N2 (t) = n2 |N (t) = n) = pn1 pn2
n1 !n2 ! 1 2
por lo tanto, teniendo en cuenta n = n1 + n2 la probabilidad no condicional
será:
n1 +n2
(n1 + n2 )! n1 n2 −λt (λt)
P (N1 (t) = n1 , N2 (t) = n2 ) = p p e
n1 !n2 ! 1 2 (n1 + n2)!
77
e−p1 λt (p1 λt)n1 e−p2 λt (p2 λt)n2
··· =
n1 ! n2 !
dos variables Poisson independientes de tasas p1 λ y p2 λ
Se generaliza a r colores fácilmente. Y la propiedad de homogeneidad del
proceso original Π se traslada a los procesos nuevos.
Teorema 15.16 (Competencia o superposición). Sean Πi con i = 1 . . . r pro-
cesos puntuales de Poisson independientes de tasa λi sobre R+ . ElPconjunto
r
Π = ∪ri=1 Πi es un proceso puntual de Poisson sobre R+ de tasa λ = i=1 λi .
Sea Xi la variable que toma el valor k en 1 . . . r si la marca i del proceso Π
vino dada por el proceso Πk , entonces las Xi son un P.B.G. con probabilidades
pi = λi /λ independiente del proceso Π.
NOTA: Los últimos dos teoremas se pueden pensar como recı́procos. Hacer
gráfico esclarecedor.
Teorema 15.17 (Primeros n − 1 arribos dado el tiempo n-ésimo). Sea Π un
PPP(λ), sn > 0, vale que:
(n − 1)!
fS1 ,...Sn−1 |Sn =sn (s1 , . . . sn−1 ) = 1{0 < s1 < · · · < sn−1 < sn }
sn−1
n
Vale que:
1. Si E[Yi ] finita, E[X(t)] = λtE[Y1 ]
2. Si var(Yi ) finita, var(X(t)) = λtE[Y12 ]
78
16. Variable normal y TCL
16.1. La variable normal univariada
Definición 16.1 (Normal y normal estándar). Diremos X ∼ N (µ, σ 2 ) si
(x − µ)2
1
fX (x) = √ exp −
σ 2π 2σ 2
FZ (z) = Φ(z)
Φ(−x) = 1 − Φ(x)
P (X ≤ x) = Φ x−µ
σ
P (a < X ≤ b) = Φ b−µ − Φ a−µ
σ σ
c −c c
P (|X − µ| < c) = Φ σ −Φ σ = 2Φ σ −1
79
NOTA: Como aXi ∼ N (aµi , a2 σ 2 ), vale que
n n n
!
X X X
ai Xi ∼ N ai µi , a2i σi2
i=1 i=1 i=1
Demostración. Ver [3], capı́tulo VII - The normal aproximation to the binomial
distribution
Teorema 16.6 (Teorema central del lı́mite). Sea Xi : i ∈ Z+ una sucesión de
V.A.I.I.D., cada una con media µ y varianza σ 2 (finitas). Sea
Pn
∗ Xi − nµ
S := i=1√
nσ
Vale que:
lı́m P (S ∗ ≤ x) = Φ(x)
n→∞
Xi ∼∼ N (nµ, nσ 2 ) o S ∗ ∼∼
P
Aplicación: Para n grande diremos S :=
N (0, 1). Luego:
P (S ≤ x) ' Φ x−nµ
√
nσ
b−nµ a−nµ
P (a < S ≤ b) ' Φ √
nσ
−Φ √
nσ
S
P( n − µ ≤ a √σn ) ' 2Φ(a) − 1
80
NOTA: No es necesario que las variables sean idénticamente distribuidas,
ni que haya independencia entre todas, hay más generalizaciones del TCL que
no veremos en este curso.
(x1 − µ1 )2
1 −1
fX1 ,X2 (x1 , x2 ) = exp +
2(1 − ρ2 ) σ12
p
2πσ1 σ2 1 − ρ2
(x2 − µ2 )2
2ρ(x1 − µ1 )(x2 − µ2 )
−
σ22 σ1 σ2
donde los parámetros son el vector de medias y la matriz de covarianzas
σ12
µ1 ρσ1 σ2
µ= Σ=
µ2 ρσ1 σ2 σ22
Teorema 16.8 (Marginales y condicionales). Sea (X1 , X2 ) ∼ N (µ, Σ) con:
σ12
µ1 ρσ1 σ2
µ= Σ=
µ2 ρσ1 σ2 σ22
vale que:
X1 ∼ N (µ1 , σ12 )
X2 ∼ N (µ2 , σ22 )
X1 |X2 = x2 ∼ N µ1 + ρσ1 x2σ−µ
2
2
, (1 − ρ 2 2
)σ 1
X2 |X1 = x1 ∼ N µ2 + ρσ2 x1σ−µ
1
1
, (1 − ρ 2 2
)σ 2
81
Referencias
[1] Grynberg, S. Borradores, Curso 23. Buenos Aires: [digital], marzo a junio
de 2013.
[2] Maronna, R. Probabilidad y Estadı́stica Elementales para Estudiantes de
Ciencia. 1ra ed. La Plata: [digital], 1995.
[3] Feller, W. An Introduction to Probability Theory and Its Applications, Vol.
I. 2da ed. New York: John Wiley & Sons, 1957.
[4] Feller, W. An Introduction to Probability Theory and Its Applications, Vol.
II. 2da ed. New York: John Wiley & Sons, 1971.
[5] Grimmet, G., Stirzaker, D. Probability and Random Processes. 3ra. ed. Gran
Bretaña: Oxford University Press, 2001.
[6] DeGroot, M. H. Probability and Statistics. 2nd. ed. EE.UU.: Addison-
Wesley Publishing Company, 1989.
[7] Billingsley, P. Probability and Measure. 3rd. ed. EE.UU.: New York: John
Wiley & Sons, 1995.
[8] [Varios artı́culos: ‘· distribution’]. En Wikipedia, The Free Encyclopedia.
Consultados en Julio 2016.
[11] Flajolet, P.; Gardy, D.; Thimonier, L. Birthday Paradox, coupon collectors,
caching algorithms and self-organizing search. Discrete Applied Mathema-
tics 39 (1992) 207-229
[12] Gentle, J. E. Random Number Generation and Monte Carlo Methods. 2nd.
ed. EE.UU.: Springer, 2005.
82