next up previous
Next: Esercizi e complementi Up: Lo spazio di probabilità. Previous: Esempi.

Probabilità condizionale, indipendenza.

Un gruppo $\Omega$ di $n$ persone atte al lavoro contiene $d$ disoccupati e $f$ femmine. Si sceglie una persona a caso dal gruppo, sia $D$ l'evento ``disoccupato" e $F$ l'evento ``femmina", allora $p(D) =
d/n; \; p(F) = f/n$. Se consideriamo il sottogruppo delle femmine, scegliendone una a caso, la probabilità che sia disoccupata è $c/f$ dove $c$ è il numero di disoccupati femmine. Possiamo esprimerci così: $c/f$ è la probabilità che si verifichi l'evento $D$ assumendo che si sia verificato l'evento $F$. Useremo la notazione $c/f = p(D\vert F)$ che leggeremo: ``probabilità condizionale di $D$ rispetto a $F$". Osserviamo subito che, poichè $c/f =
\frac{c/n}{f/n}$, vale la formula

\begin{displaymath}p(D\vert F) = \frac{p(D \cap F)}{p(F)}.\end{displaymath}

Si può considerare $\Omega$ come uno spazio con probabilità uniforme ($p(x) = 1/n$ su ogni atomo $x$) definita su tutti i sottoinsiemi. La probabilità condizionale $p(\raisebox{.07cm}{.}\vert F)$ è un'altra probabilità su $\Omega$ che assegna probabilità 0 agli eventi disgiunti da $F$; oppure si può vederla come una probabilità sullo spazio $F$. Come si vede la probabilità condizionale non è un concetto nuovo, tuttavia risulta un modo utile di muoversi per risolvere un problema. Sia $(\Omega, {\cal A}, p)$ uno spazio di probabilità, diamo la formale
Definizione 1.3.1 Siano $A, B \in {\cal A}, \;p(A) >0$. Si chiama probabilità condizionale di $B$ rispetto ad $A$ la quantità

\begin{displaymath}p(B\vert A) = \frac{p(A \cap B)}{p(A)}.\end{displaymath}

Come esempio consideriamo le famiglie che hanno esattamente due bambini, scriviamo $m (f)$ per maschio (femmina) e la prima lettera rappresenta il primogenito. Su $\Omega = \{mm,mf,fm,ff\}$ consideriamo la probabilità uniforme ($p = 1/4$ su ogni atomo). Sapendo che una famiglia ha un maschio (evento $A$), qual' è la probabilità dell'evento $B =$ ``figli entrambi maschi"? Poichè $A = \{mm,mf,fm\}; \; A \cap B = B = \{mm\}$, si ha che la probabilità richiesta $p(B\vert A)$ vale $\frac{1/4}{3/4} = 1/3$. (Si noti che un esame diretto dello spazio dei campioni porta immediatamente a questo risultato).
Consideriamo ora una partizione $\{A_i\}$ di uno spazio di probabilità $\Omega$, per ogni altro evento $K \in \Omega$ vale la
Formula di Bayes

\begin{displaymath}p(A_i\vert K) = \frac{p(A_i)p(K\vert A_i)}{\sum_j p(A_j)p(K\vert A_j)}\end{displaymath}

Dimostrazione. Basta osservare che $p(A_i\vert K) = \frac{p(A_i \cap
K)}{p(K)};\;\; p(A_i \cap K) = p(A_i) p(K\vert A_i); \;\;p(K)
= \sum_j p(K \cap A_j) = \sum_j p(A_j)p(K\vert A_j)$.
Esempio. Supponiamo che in una famiglia la probabilità che ci siano $k$ figli sia $p_k, (\displaystyle \sum_{k=0}^\infty p_k =1)$; supponiamo inoltre che la distribuzione dei sessi sia uniforme. Sapendo che non ci sono femmine (evento $K$), qual'è la probabilità (condizionale) che nella famiglia ci siano esattamente $i$ figli (evento $A_i$)? Abbiamo: $p(A_i) = p_i; \;\; p(K\vert A_i) = 2^{-i}$, per la formula di Bayes la probabilità richiesta è: $p(A_i\vert K) = \frac{p_i 2^{-i}}
{p_0 + p_1 2^{-1} + p_2 2^{-2} +..}\;\; .$
``Filosofia" della formula di Bayes. Se chiamiamo ``cause" gli eventi $A_i$ che compaiono nella formula di Bayes, allora si può interpretare la formula come una regola per calcolare a posteriori la probabilità che $A_i$ sia stato la causa dell'essersi verificato l'evento $K$. Per questo motivo la formula di Bayes viene molto usata in statistica; tuttavia se si usa a questo scopo la formula occorre molta cautela nell'interpretarne i risultati.
La probabilità (condizionale) $p(A\vert K)$ è in generale diversa dalla probabilità (assoluta) $p(A)$, intuitivamente: l'informazione che l'evento $K$ si è verificato cambia la nostra maniera di scommettere sul verificarsi dell'evento $A$. Quando $p(A\vert K)
= p(A)$ è un po' come dire che l'evento $K$ non influenza (è indipendente dal) l'evento $A$; questo caso si ha se e solo se vale l'uguaglianza $p(A \cap K) =p(A) p(K)$ e si vede quindi che se $A$ è indipendente da $K$ allora $K$ è indipendente da $A$. Diamo dunque la fondamentale
Definizione 1.3.2 Due eventi $A, B$ si dicono (stocasticamente) indipendenti se

\begin{displaymath}p(A \cap B) =p(A) p(B) ,\end{displaymath}

Una famiglia di eventi $\{A_i\}$ si dice indipendente se per ogni gruppo di $k$ indici distinti si ha

\begin{displaymath}p(A_{n_1} \cap A_{n_2} \cap .. \cap A_{n_k}) =
p(A_{n_1}) p(A_{n_2}) .. p(A_{n_k}) .\end{displaymath}

Se una moneta viene lanciata ripetutamente, accettiamo di ritenere che l'esito di un lancio non influenza l'esito di un altro lancio (per es. il successivo), ciò si riflette nella (stocastica) indipendenza di alcuni eventi.


next up previous
Next: Esercizi e complementi Up: Lo spazio di probabilità. Previous: Esempi.
Stefani Gianna
2000-11-06