next up previous
Next: Momenti, varianza Up: Variabili aleatorie. Previous: Densità di una somma

Speranza matematica

Sia $X$ una var.al.(discreta) che prende valori $x_i$ ed ha densità $f$.
Definizione 2.5.1. Si dice che $X$ ha speranza matematica finita se

\begin{displaymath}\sum_i \vert x_i\vert f(x_i) < + \infty ;\end{displaymath}

in tal caso si chiama speranza matematica (o media o valore atteso) di $X$ il numero

\begin{displaymath}E[X] = \sum_i x_i f(x_i) = \sum_i x_i\; p\{X(\omega)=x_i\};\end{displaymath}

se $ E[X] = 0$ si dice che la var.al. $X$ è centrata.
Supponiamo che le var.al. $X$ e $Y$ aventi media finita prendano i valori $\{x_i\}$ e $\{y_i\}$ e sia $g(x,y) = p\,\{ X = x \,; Y = y \}$ la loro densità congiunta. Mostriamo che anche la var.al. $(X + Y)$ ha media finita. Si ha

\begin{displaymath}\sum_{ij} \vert x_i + y_j\vert g (x_i, y_j) \leq \sum_{ij} \v...
..._i\vert g (x_i, y_j) +
\sum_{ij} \vert y_j\vert g (x_i, y_j) = \end{displaymath}


\begin{displaymath}= \sum_i \vert x_i\vert \sum_j g (x_i, y_j) + \sum_j \vert y_j\vert \sum_i g (x_i, y_j) =\end{displaymath}


\begin{displaymath}= \sum_i \vert x_i\vert f_X (x_i) + \sum_j \vert x_j\vert f_Y (y_j)\end{displaymath}

dove $f_X \,, f_Y$ sono le densità marginali di $X \,, Y$. Con calcoli simili senza il valore assoluto si prova poi la formula fondamentale

\begin{displaymath}E[X+Y] = E[X] + E[Y]\,.\end{displaymath}

Diamo ora un'importante generalizzazione di questo risultato. Sia $X = (X_1,..,X_m)$ un vettore aleatorio di densità $f$ e i cui valori denoteremo con $x^{(1)},x^{(2)},.$; $h : {\bf R}^m \rightarrow
{\bf R}$, ponendo $Z = h(X)$ si definisce una nuova var.al. i cui valori denoteremo con $z_1,z_2,..$:
Teorema 2.5.1. $Z$ ha speranza matematica finita se e solo se

\begin{displaymath}\sum_{i}\vert h(x^{(i)})\vert f(x^{(i)}) < \infty\end{displaymath}

e in questo caso

\begin{displaymath}E[Z] = \sum_{i}h(x^{(i)})f(x^{(i)})\end{displaymath}

Dimostrazione. Se $A_j = h^{-1}(z_j)$ allora $p\{Z = z_j\} =
{\displaystyle \sum_{x^{(i)}\in A_j}} f(x^{(i)})$. Abbiamo allora:

\begin{displaymath}\sum_j\vert z_j\vert p\{Z = z_j\} = \sum_j\vert z_j\vert \sum...
...)}) =
\sum_j \sum_{x^{(i)}\in A_j}\vert z_j\vert f(x^{(i)}) = \end{displaymath}

tenendo conto che se $x^{(i)}\in A_j$ allora $h(x^{(i)}) = z_j$

\begin{displaymath}= \sum_j \sum_{x^{(i)}\in A_j}\vert h(x^{(i)})\vert f(x^{(i)}) =
\sum_i \vert h(x^{(i)})\vert f(x^{(i)}).\end{displaymath}

Dunque se la serie $\sum_i h(x^{(i)})f(x^{(i)})$ converge assolutamente $Z$ ha speranza matematica finita. La formula per $E[Z]$ si dimostra ripetendo gli stessi calcoli senza i valori assoluti; si osservi soltanto che il passaggio

\begin{displaymath}\sum_j \sum_{x^{(i)}\in A_j}h(x^{(i)})f(x^{(i)}) =
\sum_i h(x^{(i)})f(x^{(i)}),\end{displaymath}

che consiste nel sommare riordinando i termini, è lecito appunto perchè sappiamo che la serie è assolutamente convergente.

Dal teorema precedente, specializzando la funzione $h$, si deducono come corollari importanti risultati. Ad esempio
Corollario 2.5.1. Siano $X$ e $Y$ var.al. con media finita. Allora:
i) $(aX + bY)$ ha media finita e $E[aX + bY] = aE[X]+bE[Y];$
ii) $\vert X\vert$ ha media finita e $\vert E[X]\vert \leq E[\vert X\vert];$
se inoltre $X$ e $Y$ sono indipendenti
iii) $XY$ ha media finita e $E[XY] = E[X]E[Y]$
Dimostrazione. Limitiamoci a provare iii). Siano $f_X, f_Y, f$ risp. le densità di $X,Y$ e del vettore $(X, Y)$; per la supposta indipendenza si ha $f(x_i,y_j) = f_X(x_i)f_Y(y_j)$. Applicando il teorema con $h(x,y) =
xy$ si ottiene

\begin{displaymath}\sum_{i,j}\vert x_i\vert\vert y_j\vert f(x_i,y_j) = \sum_{i,j}\vert x_i\vert\vert y_j\vert f_X(x_i)f_Y(y_j) =\end{displaymath}


\begin{displaymath}= \sum_i \vert x_i\vert f_X(x_i) \sum_j \vert y_j\vert f_Y(y_j) = E[\vert X\vert]E[\vert Y\vert] < \infty ;\end{displaymath}

ripetendo gli stessi calcoli senza i valori assoluti si prova che $E[XY] = E[X]E[Y]$.
next up previous
Next: Momenti, varianza Up: Variabili aleatorie. Previous: Densità di una somma
Stefani Gianna
2000-11-06