2024-11-21 soluzioni

Scarica in formato pdf o txt
Scarica in formato pdf o txt
Sei sulla pagina 1di 4

CdL in Ing. Robotica e dell’Automazione, Prob. e Proc. Stoc.

(455AA)
A.A. 2024/25 - Esercitazione 2024-11-21
Problema 1
Un’urna contiene una frazione p ∈ (0, 1) di palline rosse, e le rimanenti blu. Si effettuano estrazioni
con rimpiazzo finché si non osservano, nella sequenza delle palline estratte, due palline di colore
diverso. Si pone T ∈ {2, 3, . . .} il numero di estrazioni effettuate.

1. Al variare del parametro p, determinare la densità discreta di T .


2. Al variare del parametro p, calcolare il valore atteso di T (Suggerimento: ricordare il valore
atteso di una variabile geometrica)

3. Fornire una stima di massima verosimiglianza per p supponendo di aver osservato T = 2. Cosa
cambia se invece si osserva T = 3?

Una soluzione:
1. Calcoliamo la probabilità che T = k al variare di k ∈ {2, 3, 4, . . .}. Posta X1 ∈ {R, B},
possiamo decomporre

P (T = k) = P (T = k|X1 = R)P (X1 = R) + P (T = k|X1 = B)P (X1 = B)

Chiaramente P (X1 = R) = p, P (X1 = B) = (1 − p). Sapendo X1 = R, avremo T = k nel


caso in cui si estraggano (dopo la prima rossa) ulteriori k − 2 palline rosse e infine una blu,
quindi ricordando la probabilità di una specifica sequenza nel caso delle estrazioni con rimpiazzo
abbiamo
P (T = k|X1 = R) = pk−2 (1 − p).

Equivalentemente, abbiamo che, sapendo X1 = R, la variabile T − 2 ha densità geometrica di


parametro 1 − p. Analogamente, P (T = K|X1 = B) = (1 − p)k−2 p, quindi la densità discreta di
T è
P (T = k) = pk−1 (1 − p) + (1 − p)k−1 p per k = 2, 3, . . .

2. Dobbiamo calcolare il valore atteso



X ∞
X
k pk−1 (1 − p) + (1 − p)k−1 p .
 
E [T ] = kP (T = k) =
k=2 k=2

Il suggerimento è di ricordare che per una variabile geometrica di parametro q vale



X
E [Geom(q)] = k(1 − q)k q = (1 − q)/q.
k=0

In effetti spezzando in due serie si trova



X ∞
X
k−1
E [T ] = kp (1 − p) + k(1 − p)k−1 p.
k=2 k=2

e quindi si potrebbe procedere algebricamente nel calcolo. Tuttavia, volendo procedere in modo
più probabilistico, per quanto detto sopra, abbiamo visto che T −2 è, condizionatamente a sapere
X1 = R, una variabile geometrica di parametro 1 − p, mentre condizionatamente a X1 = B lo è
di parametro p. Pertanto abbiamo

E [T ] = E [T − 2] + 2 = E [T − 2|X1 = R] p + E [T − 2|X1 = B] (1 − p) + 2
p2 (1 − p)2
= + +2
1−p p

3. La verosimiglianza è L(p; T = k) = P (T = k|p) = [pk−2 + (1 − p)k−2 ]p(1 − p). Chiaramente


vediamo che l’espressione è nulla per p ∈ {0, 1} e non cambia se scambiamo p con 1 − p, quindi
p = 1/2 è un punto in cui si annulla la derivata. Derivando rispetto a p otteniamo

L′ (p) = (k − 2)(pk−3 − (1 − p)k−3 )p(1 − p) + [pk−2 + (1 − p)k−2 ](1 − 2p)

Per k = 2 otteniamo L′ (p) = 2(1 − 2p) che si annulla solo in p = 1/2, che quindi è la stima di
massima verosimiglianza. Per k = 3, troviamo ancora

L′ (p) = 1 − 2p,

quindi p = 1/2 è ancora la stima di massima verosimiglianza.

Problema 2
Siano X1 , X2 variabili aleatorie continue con densità uniforme sull’intervallo [0, 1] e tra di loro
indipendenti.

1. Calcolare la densità della variabile Y = X1 .
2. Calcolare la densità della variabile Z = max {X1 , X2 } (ossia la più grande tra le due variabili
X1 , X2 ) (Suggerimento: calcolare CDFZ )
3. Mostrare che le due variabili Y , Z hanno la stessa legge, ma non sono indipendenti.

Una soluzione:

1. Possiamo usare la formula di cambio di variabile con g(x) = x invertibile nell’intervallo
−1
(0, 1) (con immagine g(x) ∈ (0, 1)) e inversa g (y) = y e derivata g ′ (x) = 21 x−1/2 . Pertanto
2

g ′ (g −1 (y) = 1/(2(y 2 )1/2 ) = 1/(2y) e troviamo


1
p(Y = y) = p(X = y 2 ) = 2y, per y ∈ (0, 1),
g ′ (g −1 (y))

(poniamo p(Y = y) = 0 per y ∈


/ (0, 1)).
2. Per la variabile Z seguiamo il suggerimento:

CDFZ (t) = P (Z ≤ t) = P (max {X1 , X2 } ≤ t) = P (X1 ≤ t, X2 ≤ t) = P (X1 ≤ t)P (X2 ≤ t)

avendo usato l’indipendenza tra le due variabili X1 , X2 . Per t ∈ (0, 1) (i valori rilevanti essendo
X1 , X2 a valori in (0, 1), quindi pure Z lo sarà), abbiamo P (X1 ≤ t) = P (X2 ≤ t) = t, quindi

CDFZ (t) = t2

Pag. 2
derivando rispetto a t, troviamo la densità
d
p(Z = t) = CDFZ (t) = 2t.
dt

3. Le formule per le densità coincidono, quindi la legge di Y coincide con quella di Z. Però non
sono indipendenti, infatti se lo fossero, dovremmo avere ad esempio che

P (Z ≤ 1/2|Y > 1/4) = P (Z ≤ 1/2)



Però se sappiamo che Y = X1 > 1/4, allora X1 > 1/2 e quindi Z = max {X1 , X2 } ≥ X1 > 1/2,
quindi P (Z ≤ 1/2|Y > 1/4) = 0, ma d’altra parte abbiamo calcolato che P (Z ≤ 1/2) =
CDFZ (1/2) = 1/4.

Problema 3
Si consideri una catena di Markov (Xn )n con probabilità di transizione rappresentate in figura e tale
che X0 = 1.

1 1/6
0 1 2 5

1/2 1/4

1/2
3 4

1. Scrivere la matrice di transizione Q (completare con le probabilità mancanti), classificare gli


stati (transitori/ricorrenti) e determinare tutte le distribuzioni invarianti della catena.
2. Avendo osservato che X4 = 0, calcolare il valore atteso di X2 .
3. Calcolare il limite limn→∞ P (Xn = 0) (spiegare anche perché esiste).

Una soluzione:
1. Scriviamo la matrice ordinando gli stati nell’ordine naturale E = {0, 1, 2, 3, 4, 5}. Troviamo
 
1 0 0 0 0 0
 1/3 1/2 1/6 0 0 0 
 
 0 0 0 1/4 0 3/4 
Q=  
 0 0 0 0 1 0 

 0 0 1/2 0 1/2 0 
0 0 1 0 0 0

Lo stato 1 è transitorio (infatti si raggiunge 0, da cui 1 non è raggiungibile). Gli altri stati sono
ricorrenti. Le classi chiuse irriducibili sono C1 = {0} e C2 = {2, 3, 4, 5} (entrambe regolari per il
criterio). Per la classe C1 la distribuzione invariante è banale µC1 = (1, 0, 0, 0, 0, 0), mentre per
calcolare µC2 impostiamo il bilancio di flusso (negli stati 5, 3, 4):
3 1 1
µ5 = µ2 µ3 = µ2 , µ4 = µ3 .
4 4 2

Pag. 3
Troviamo quindi posto t = µ2
t t 3t
µC2 = (0, 0, t, , , ),
4 2 4
da cui t = 2/5 (avendo imposto che la somma delle componenti sia 1). Tutte le distribuzioni
invarianti sono quindi della forma
 
2α α 1α 3α
µ(α) = (1 − α)µC1 + αµC2 = 1 − α, 0, , , ,
5 10 5 10
al variare di α ∈ [0, 1].
2. Per calcolare il valore atteso
5
X
E [X2 |X4 = 0] = kP (X2 = k|X4 = 0)
k=0

dobbiamo calcolare la densità discreta P (X2 = k|X4 = 0). Tuttavia notiamo subito che, dovendo
essere X4 = 0 abbiamo soltanto due possibilità per X2 : o X2 = 1 oppure X2 = 0, altrimenti se
fosse X2 ∈ C2 certamente non accade che X4 = 0. Quindi il valore atteso si riduce a calcolare

E [X2 |X4 = 0] = P (X2 = 1|X4 = 0)

Usando la formula di Kolmogorov troviamo quindi


P (X2 = 1, X4 = 0)
P (X2 = 1|X4 = 0) =
P (X4 = 0)
Calcoliamo quindi i pesi dei cammini che realizzano i due eventi (ricordiamo che X0 = 1):
1 1 1 1
P (1 → 1 → 1 → 1 → 0) = · · ·
2 2 2 3
1 1 1
P (1 → 1 → 1 → 0 → 0) = · · ·1
2 2 3
da cui P (X2 = 1, X4 = 0) = 81 , mentre per calcolare P (X4 = 0) dobbiamo aggiungere i cammini
1 1
P (1 → 1 → 0 → 0 → 0) = · ·1·1
2 3
1
P (1 → 0 → 0 → 0 → 0) = ·1·1·1
3
5
da cui P (X4 = 0) = 8 e si conclude che
1
E [X2 |X4 = 0] = .
5
3. Il limite esiste perché ogni classe chiusa irriducibile è regolare. Usando la notazione delle
lezioni, basterà impostare delle equazioni dall’identità Q∞ = QQ∞ . In particolare troviamo

Q∞ ∞ ∞ ∞
10 = Q10 Q00 + Q11 Q10 + Q12 Q20

ma Q∞ ∞
00 = 1, mentre Q20 = 0, quindi
1 1 ∞
Q∞
10 = + Q
3 2 10
da cui Q∞
10 = 2/3. Si può anche argomentare nel seguente modo (ricordando la descrizione
dei tempi di permanenza negli stati e le probabilità di salto): siccome la catena parte da 1, e
l’unico modo in cui può raggiungere 0 è saltandoci direttamente, avremo che dopo un tempo di
permanenza geometrico in 1, la catena salterà in 0 con probabilità data da 1/3/(1/3+1/6) = 2/3
per poi restarvi, che è il limite richiesto.

Pag. 4

Potrebbero piacerti anche