next up previous
Next: Variabili aleatorie. Up: Lo spazio di probabilità. Previous: Probabilità condizionale, indipendenza.

Esercizi e complementi

1. Generalizzare il Teorema 1.1.1 a tre e poi a $n$ eventi.
Abbiamo successivamente:

\begin{displaymath}p(A_1 \cup A_2 \cup A_3) = p(A_1) + p(A_2 \cup A_3) - p(A_1 \cap (A_2 \cup A_3))
=\end{displaymath}


\begin{displaymath}= p(A_1) + p(A_2) + p (A_3) - p(A_2 \cap A_3) - p[(A_1 \cap A_2) \cup (A_1 \cap
A_3)] =\end{displaymath}


\begin{displaymath}p(A_1) + p(A_2) + p (A_3) - p(A_2 \cap A_3) - p(A_1 \cap A_2) - p(A_1 \cap A_3)
+ p[(A_1 \cap A_2) \cap (A_1 \cap A_3)] =\end{displaymath}


\begin{displaymath}p(A_1) + p(A_2) + p (A_3) - p(A_2 \cap A_3) - p(A_1 \cap A_2) - p(A_1 \cap A_3)
+ p(A_1 \cap A_2 \cap A_3)\;.\end{displaymath}

Per generalizzare a $n$ eventi $A_i$ poniamo:

\begin{displaymath}p_i = p(A_i) ; \;\; p_{ij} = p(A_i \cap A_j) ; \;\; p_{ijk} = p(A_i \cap A_j \cap
A_k) ; ...\end{displaymath}


\begin{displaymath}S_1 = \sum p_i \; ; \;\; S_2 = \sum p_{ij} \; ; \;\; S_3 = \sum p_{ijk} \; ; ...\end{displaymath}

Si può dimostrare che la probabilità $P_1$ che si verifichi uno almeno degli eventi $A_i$ vale

\begin{displaymath}P_1 = p(A_1 \cup .. \cup A_n) = S_1 - S_2 + S_3 - S_4 +..+(-1)^{n+1}S_n \;.\end{displaymath}

2. Problema dei matches .
Un mazzo di $N$ carte numerate $1, 2, .., N$ viene mescolato e steso in fila su un tavolo. Agli $N!$ ordinamenti possibili delle carte viene assegnata la probabilità $\frac{1}{N!}$. Si chiede il valore della probabilità $P_1$ che almeno una carta sia al posto giusto (carta denotata $p$ al posto $p$-mo).
Soluzione.
Se c'è un match all'i-mo posto, le rimanenti carte possono essere disposte in $(N-1)!$ modi per cui per la corrispondente probabilità si ha $p_i =
\frac{(N-1)!}{N!} = \frac{1}{N}$, similmente per la probabilità di match simultaneo al posto i e al posto (distinto) j si ha $p_{ij} = \frac{(N-2)!}{N!}$. Con le notazioni di sopra si osserva che la somma $S_r$ contiene ${N \choose r}$ addendi tutti uguali a $\frac{(N-r)!}{N!}$; pertanto $S_r = \frac{1}{r!}$ e quindi

\begin{displaymath}P_1 = 1 - \frac{1}{2!} + \frac{1}{3!} - ...+(-1)^{N+1}\frac{1}{N!} \;.\end{displaymath}

3. Esercizio.
Un'urna contiene $n$ palline distinguibili, si estrae con rimpiazzo fino a che il campione ottenuto contenga due elementi uguali; calcolare la probabilità $q_k$ che a questo scopo siano necessarie esattamente $k$ estrazioni.
Soluzione.
Si osservi che $2 \leq k \leq n+1$. Siccome si rimpiazza, con $k$ estrazioni si ottengono $n^k$ campioni distinti; per ottenere un campione come desiderato, la prima pallina si può scegliere in $n$ modi, la seconda in $(n-1)$ modi,.., la $(k-1)$-ma in $(n-k+2)$ modi e la $k$-ma in $(k-1)$ modi. Pertanto:

\begin{displaymath}q_k = \frac{n(n-1)(n-2)..(n-k+2)(k-1)}{n^k} \;.\end{displaymath}

4. Formula di Stirling.
La formula di Stirling asserisce l'esistenza di un $\theta = \theta_n \in (0,1)$ tale che:

\begin{displaymath}n! = n^n\,{\rm e}^{-n}\,\sqrt{2\pi\,n}\;{\rm e}^{\frac{\theta}{12n}}\;.\end{displaymath}

Nella pratica è sufficiente l'approssimazione

\begin{displaymath}n! \simeq n^n\,{\rm e}^{-n}\,\sqrt{2\pi\,n}\;.\end{displaymath}

verifichiamo in parte la formula con i calcoli che seguono:

\begin{displaymath}\int_{k-1}^k \log \,x \, dx < \log \,k < \int_k^{k+1} \log \,x \, dx \;;\end{displaymath}

da cui sommando $k$ da 1 a $n$ si ottiene:

\begin{displaymath}\int_0^n \log \,x \, dx < \log \,n! < \int_1^{n+1} \log \,x \, dx \;;\end{displaymath}


\begin{displaymath}n\,\log\,n - n < \log \,n! < (n+1)\, \log(n+1) - n \;;\end{displaymath}


\begin{displaymath}n^n\,{\rm e}^{-n} < n! < (n+1)^{(n+1)}\,{\rm e}^{-n} \;.\end{displaymath}

5. Esercizio.
Un'urna contiene 42 palline segnate con le lettere dell'alfabeto italiano: due per ogni lettera. Si estraggono a caso 21 palline. Calcolare:
i) la probabilità che nel campione compaia una data lettera.
ii)la probabilità che nel campione compaiano tutte le lettere.
iii) la probabilità che si possa formare la parola ``CASSA".
Soluzione.
i). Ci sono ${42 \choose 21}$ modi di scegliere un campione di 21 lettere, di questi ${40 \choose 21}$ non contengono una data lettera, pertanto la la probabilità richiesta vale

\begin{displaymath}1 - \frac{{40 \choose 21}}{{42 \choose 21}} = \frac{11}{21}\;.\end{displaymath}

ii). Per ogni lettera ci sono due scelte per cui ci sono $2^{21}$ modi di scegliere un campione che contenga le 21 lettere distinte, pertanto la la probabilità richiesta vale

\begin{displaymath}\frac{2^{21}}{{42 \choose 21}} \simeq 2^{-21}\,\sqrt{21 \pi} = 3,87..
10^{-6}\;,\end{displaymath}

dove per l'approssimazione abbiamo usato la formula di Stirling.
iii). Distinguiamo per comodità con C$_1$ e C$_2$ le due lettere ``C" che sono nell'urna, ci sono ${37 \choose 16}$ campioni che contengono le lettere C$_1$ A S S A, pertanto la la probabilità richiesta vale

\begin{displaymath}2 \frac{{37 \choose 16}}{{42 \choose 21}} = 0,0478..\end{displaymath}

6. Esercizio.
In una metropoli scegliendo a caso un ristorante si hanno le seguenti probabilità:
$p(A_b) = 0,2 \;$ dove $A_b =$ ``si mangia bene"
$p(A_n) = 0,4 \;$ dove $A_n =$ ``si mangia normale"
$p(A_c) = 0,4 \;$ dove $A_c =$ ``si mangia male"
Si hanno poi gli eventi
$K =$ ``caro", $E =$ ``equo", $B =$ ``buon mercato",
e le probabilità condizionali

\begin{displaymath}p(K\vert A_b) = 0,7 \;\; p(K\vert A_n) = 0,3 \;\; p(K\vert A_c) = 0,2 \;.\end{displaymath}

Calcolare $p(A_b\vert K)$. Se poi sono date le probabilità condizionali

\begin{displaymath}p(B\vert A_b) = 0,1 \;\; p(B\vert A_n) = 0,3 \;\; p(B\vert A_c) = 0,4 \end{displaymath}

descrivere completamente lo spazio dei campioni.
Soluzione.
Per la formula di Bayes si ha

\begin{displaymath}p(A_b\vert K) =
\frac{p(A_b)\,p(K\vert A_b)}{p(A_b)\,p(K\vert A_b)+p(A_n)\,p(K\vert A_n)+p(A_c)\,p(K\vert A_c)}\;,\end{displaymath}

dove il denominatore della frazione vale $p(K)$. Si ha

\begin{displaymath}p(K) = 0,2 \times 0,7 + 0,4 \times 0,3 + 0,4 \times 0,2 = 0,34 \;,\end{displaymath}


\begin{displaymath}p(A_b\vert K) = \frac{p(A_b \cap K)}{p(K)} = \frac{7}{17} = 0,41..\end{displaymath}

Coi dati ulteriori possiamo calcolare $p(B)$:

\begin{displaymath}p(B) = 0,2 \times 0,1 + 0,4 \times 0,3 + 0,4 \times 0,4 = 0,30 \end{displaymath}

di conseguenza si ha pure che $p(E) = 0,36$. Consideriamo il quadro
  $K$ $E$ $B$ Tot
$A_b$   $x$   0,2
$A_n$   $y$   0,4
$A_c$   $z$   0,4
Tot 0,34 $0,36$ 0,30 1
che possiamo completare coi seguenti calcoli:

\begin{displaymath}p(K \cap A_b) = p(K\vert A_b)\,p(A_b) = 0,7 \times 0,2 = 0,14 \;,\end{displaymath}


\begin{displaymath}p(K \cap A_n) = p(K\vert A_n)\,p(A_n) = 0,3 \times 0,4 = 0,12 \;,\end{displaymath}


\begin{displaymath}p(K \cap A_c) = p(K\vert A_c)\,p(A_c) = 0,2 \times 0,4 = 0,08 \;;\end{displaymath}


\begin{displaymath}p(B \cap A_b) = p(B\vert A_b)\,p(A_b) = 0,1 \times 0,2 = 0,02 \;,\end{displaymath}


\begin{displaymath}p(B \cap A_n) = p(B\vert A_n)\,p(A_n) = 0,3 \times 0,4 = 0,12 \;,\end{displaymath}


\begin{displaymath}p(B \cap A_c) = p(B\vert A_c)\,p(A_c) = 0,4 \times 0,4 = 0,16 \;.\end{displaymath}

Possiamo riscrivere il quadro
  $K$ $E$ $B$ Tot
$A_b$ 0,14 $x$ 0,02 0,2
$A_n$ 0,12 $y$ 0,12 0,4
$A_c$ 0,08 $z$ 0,16 0,4
Tot 0,34 $0,36$ 0,30 1
Otteniamo dunque i dati mancanti:

\begin{displaymath}x = 0,04 \;\;\;y = 0,16 \;\;\; z = 0,16 \;.\end{displaymath}


next up previous
Next: Variabili aleatorie. Up: Lo spazio di probabilità. Previous: Probabilità condizionale, indipendenza.
Stefani Gianna
2000-11-06