next up previous
Next: Funzioni generatrici Up: Variabili aleatorie. Previous: Momenti, varianza

Esempi

1. Schema di Bernoulli. Siano $X_i, i=1,..,n$ le var.al. di legge $B(1,p)$ relative alle prove successive in uno schema di Bernoulli. Le $X_i$ sono indipendenti. Per ogni $i$ si ha $E[X_i] = 1p + 0(1-p) = p$ e quindi $E[S_n] = np$ dove $S_n
= X_1+..X_n$.
Si noti che abbiamo calcolato la media di $S_n$ senza bisogno di conoscere la sua densità $f_n$. Questa come sappiamo (Teorema 2.1.1) è

\begin{displaymath}f_n(k) = \left\{ \begin{array}{ll}
{n\choose k} p^k (1-p)^{n-...
... \; k = 0, 1,..,n \\
0 & \mbox{altrimenti} \end{array}\right. \end{displaymath}

Si ha poi ${\rm Var}(X_i) = E[X_i^2] - E[X_i]^2 = p - p^2 = p(1-p)$ e di conseguenza

\begin{displaymath}{\rm Var}(S_n) = n p(1-p).\end{displaymath}

La disuguaglianza di Chebyshev ci dice

\begin{displaymath}p\{\vert S_n - np\vert > h \} \leq \frac{n p(1-p)}{h^2};\end{displaymath}

ovvero, considerando la frequenza $\frac{S_n}{n}$ dei successi nelle $n$ prove,

\begin{displaymath}p\{\vert\frac{S_n}{n} - p\vert > \frac{h}{n} \} \leq \frac{n p(1-p)}{h^2}.\end{displaymath}

Se scegliamo $h = n \epsilon$ in questa disuguaglianza si ottiene

\begin{displaymath}p\{\vert\frac{S_n}{n} - p\vert > \epsilon \} \leq \frac{ p(1-p)}{n\epsilon^2};\end{displaymath}

in particolare se il numero $n$ delle prove tende all'infinito, tende a zero la probabilità di una deviazione della frequenza $\frac{S_n}{n}$ dei successi dalla probabilità $p$ di successo in ogni singola prova. Questo è un caso particolare della legge (debole) dei grandi numeri. Questo giustifica il metodo di osservare la frequenza di un risultato per stabilirne la probabilità.
2. Densità di Poisson. Si chiama distribuzione di Poisson di parametro $\lambda,
(\lambda > 0), $ la densità

\begin{displaymath}f(k) = \left\{ \begin{array}{ll}
{\rm e}^{-\lambda}\frac{\la...
...; k = 0, 1, 2,... \\
0 & \mbox{altrimenti} \end{array}\right. \end{displaymath}

La densità di Poisson si può vedere come un'approssimazione di una densità binomiale $B(n,p)$ con $n$ grande e $p$ piccolo. Siano dunque $S_n$ var.al. con densità binomiale $B(n,\lambda/n)$, si ha:

\begin{displaymath}p\{S_n = k\} = {n\choose k}(\frac{\lambda}{n})^k
(1 - \frac{\lambda}{n})^{n-k},\end{displaymath}

se si fa tendere $n$ all'$\infty$ si vede, con facili calcoli, che

\begin{displaymath}p\{S_n = k\} \rightarrow \frac{\lambda^k}{k!} {\rm e}^{-\lambda};\end{displaymath}

inoltre la convergenza è uniforme rispetto a $k$.
La distribuzione di Poisson è detta anche legge degli eventi rari, infatti si presenta come legge di una var.al. $S$ che rappresenta il numero di successi su un numero molto grande di prove ripetute indipendenti, in ciascuna delle quali la probabilità di successo è molto piccola.
Siano $X$ e $Y$ due var.al. indipendenti di Poisson di parametri $\lambda, \mu$ e di densità $f_1, f_2$ resp.; vogliamo trovare la densità $g$ della somma $X+Y$. Si ha, ricordando che $f_2(z) = 0$ se $z$ è negativo,

\begin{displaymath}g(k) = \sum_{i=0}^\infty f_1(i)f_2(k-i) =
\sum_{i=0}^k {\rm ...
...}\frac{\lambda^i}{i!}
{\rm e}^{-\mu}\frac{\mu^{k-i}}{(k-i)!} =\end{displaymath}


\begin{displaymath}= {\rm e}^{-(\lambda + \mu)}\frac{1}{k!}
\sum_{i=0}^k {k\cho...
...k-i} =
{\rm e}^{-(\lambda + \mu)}\frac{(\lambda + \mu)^k}{k!}.\end{displaymath}

Dunque $X+Y$ è di Poisson con parametro $(\lambda + \mu)$.
Sia $X$ una var.al. con densità di Poisson di parametro $\lambda$, si ha

\begin{displaymath}E[X] = \lambda ;\; {\rm Var}(X) = \lambda\end{displaymath}

3. Distribuzione ipergeometrica. Un'urna contiene $n$ palline di cui $r$ rosse ($r \leq n$); se ne estraggono (senza rimpiazzo) $s$ ($s \leq n$); la var.al. $X$ che dà il numero di palline rosse estratte ha la densità ipergeometrica

\begin{displaymath}f(k) = \left\{ \begin{array}{ll}
\frac{{r\choose k} {n-r\cho...
..., 2,..,\min (r,s) \\
0 & \mbox{altrimenti} \end{array}\right. \end{displaymath}

Anche in questo caso per calcolare $E[X]$ non abbiamo bisogno di conoscere la densità. Possiamo ragioniare così: sia $X_i$ la var.al. che vale 1 se nell'i-esima estrazione viene una pallina rossa e 0 altrimenti. Sono state estratte $s$ palline, essendoci simmetria (non ci sono palline privilegiate nel gruppo estratto) ogni pallina ha la stessa probabilità di essere rossa per esempio quella della prima estratta. Al primo colpo la probabilità di successo di $X_1$ vale $r/n$, per cui per ogni $i$ si ha $E[X_i] = (r/n)1 + (1-r/n)0$. Pertanto $E[X] =
\sum E[X_i] = s(r/n)$. Si osservi che essendo $s$ il numero di estrazioni ed avendo ogni estrazione la stessa probabilità $ p = r/n$ di successo, la var.al $X$ si comporta per quanto riguarda il calcolo della media come se fosse binomiale e questo nonostante che le var.al $X_i$ non siano indipendenti.
4. Densità geometrica. Consideriamo sempre prove ripetute con probabilità $p$ di successo. Problema: determinare la probabilità che ci vogliano esattamente $k+1
\; (k=0,1,2,..)$ lanci per ottenere il (primo) successo. Si ha successo esattamente al $(k+1)$-mo lancio se e solo se si è verificata la sequenza $\underbrace{{\rm CCC..C}}_k$T; questa ha probabilità $(1-p)^kp$. Si chiama densità geometrica di parametro $p$ la densità

\begin{displaymath}f(k) = \left\{ \begin{array}{ll}
p (1-p)^k &
\mbox{se} \; k = 0, 1, 2,... \\
0 & \mbox{altrimenti} \end{array}\right. \end{displaymath}

Sia $T$ la var.al. ``numero di lanci necessari per il primo successo", allora $f$ è la densità di $X = (T-1)$. Si ha:

\begin{displaymath}E[X] = \sum_{k=0}^\infty kp(1-p)^k = \frac{1-p}{p},\end{displaymath}


\begin{displaymath}{\rm Var}(X) = E[X^2] - E[X]^2 = \frac{1-p}{p^2}.\end{displaymath}

Mostriamo ora la ``mancanza di memoria" della legge geometrica. Cominciamo ad osservare che

\begin{displaymath}p\{X \geq k\} = \sum_{j=k}^\infty p(1-p)^j = (1-p)^k .\end{displaymath}

Calcoliamo adesso una probabilità condizionale:

\begin{displaymath}p(\{X = k+m\} \vert \{X \geq k\}) = \frac{p(\{X = k+m\} \cap ...
...eq k\})}
{p\{X \geq k\}} = \frac{p\{X = k+m\}}{p\{X \geq k\}} =\end{displaymath}


\begin{displaymath}\frac{p(1-p)^{k+m}}{(1-p)^k} = p(1-p)^m = p\{X = m\}.\end{displaymath}

Applichiamo questi risultati alla var.al. $T$: supponiamo di non aver avuto alcun successo nelle prime $k$ prove: qual'è la probabilità di dover attendere ancora $m$ prove? Risposta: la stessa che si avrebbe ricominciando da capo le prove. Questo spiega l'espressione ``mancanza di memoria".
Se diamo credito a questo modello probabilistico, allora la pratica diffusa di giocare al lotto i numeri ``ritardatari" non è giustificata.
5. Distribuzione binomiale negativa. Si generalizza l'esempio precedente nel seguente modo: consideriamo una sequenza di prove di Bernoulli con probabilità di successo $p$ e di insuccesso $q =
(1-p)$, ci si chiede quanto si deve aspettare per l'$r$-mo successo. Per il numero $\nu$ di prove necessarie sarà $\nu \geq r$ scriviamo $\nu = r+k$. Indicheremo con $f(k;r,p)$ la probabilità che l'$r$-mo successo avvenga alla prova $r+k,
(k=0,1,2,..)$; ovvero la probabilità che esattamente $k$ insuccessi precedano l'$r$-mo successo. Ciò avviene se e solo se tra le prime (r+k-1) prove ci sono $k$ insuccessi e la seguente è un successo; pertanto avremo $f(k;r,p) =
{r+k-1\choose k} p^r q^k = {-r\choose k} p^r (-q)^k$. (Si ricordi che $
(-1)^k{r+k-1\choose k} = {-r\choose k}$). Chiameremo distribuzione binomiale negativa di parametri $r$ e $p$ la densità

\begin{displaymath}f_r(k) = \left\{ \begin{array}{ll}
{-r\choose k} p^r (-q)^k ...
...\; k = 0, 1, 2,.. \\
0 & \mbox{altrimenti} \end{array}\right. \end{displaymath}

Ricordando lo sviluppo in serie binomiale di $(1-q)^{-r}$ si verifica, come deve essere, che ${\displaystyle \sum_{k=0}^\infty} f_r(k) = 1$. Si osservi che per $r = 1$ la densità binomiale negativa si riduce alla densità geometrica.
Non è difficile calcolare la media di una binomiale negativa usando la densità in base alla definizione; ma è più istruttivo procedere nel modo seguente:
sia $X_i$ la var.al. che indica il numero di insuccessi che ci sono tra l'$(i-1)$-mo e l'$i$-mo successo. Qualunque sia $i, \; X_i$ ha densità geometrica $\{pq^k\}$ e media $E[X_i] = q/p$. La var.al. $Y_r = X_1 +..+X_r$ rappresenta il numero di insuccessi che precedo l'$r$-mo successo e quindi ha densità $f_r$. Siccome $E[Y_r] = \sum E[X_i]$, si ottiene $E[Y_r]=r q/p$.
next up previous
Next: Funzioni generatrici Up: Variabili aleatorie. Previous: Momenti, varianza
Stefani Gianna
2000-11-06