next up previous
Next: Esempi Up: Variabili aleatorie. Previous: Speranza matematica

Momenti, varianza

Definizione 2.6.1. Sia $X$ una var.al.; diremo che $X$ ha momento di ordine $k$ finito ($k=1,2..$) se $X^k$ ha media finita. In questo caso $E[X^k]$ si chiama momento di ordine $k$ della var.al. $X$. Se $(X-E[X])^k$ ha media finita diremo che $X$ ha momento centrato di ordine $k$ finito e chiameremo $E[(X-E[X])^k]$ momento centrato di ordine $k$ di $X$.

Applicando il Teorema 2.5.1, indicando con $f, \mu$ risp. la densità e la media di $X$ otteniamo:

\begin{displaymath}E[X^k] = \sum_i x_i^kf(x_i);\;\;E[(X-\mu)^k] = \sum_i (x_i-\mu)^kf(x_i).\end{displaymath}

Teorema 2.6.1. i) Se $X$ ha momento finito di ordine $k$, allora ha anche momento finito di ordine $r$ per ogni $r \leq k$.
ii) Se $X$ e $Y$ hanno momento finito di ordine $k$, allora anche $(X + Y)$ ha momento finito di ordine $k$. In particolare se $X$ ha momento finito di ordine $k$, allora ha anche momento centrato finito di ordine $k$.
Dimostrazione . Siano $\{x_i\}$ i valori assunti da $X$, per ogni $i$ si ha $\vert x_i\vert^r \leq 1 + \vert x_i\vert^k$ e di conseguenza

\begin{displaymath}\vert x_i\vert^r f(x_i) \leq f(x_i) + \vert x_i\vert^k f(x_i)\,,\end{displaymath}

pertanto la serie che definisce il momento di ordine $k$ converge assolutamente per il criterio del confronto. Questo prova i). Per quanto riguarda la ii) basta osservare che, per la convessità della funzione $t^k$, si ha la disuguaglianza:

\begin{displaymath}(x + y)^k \leq 2^{k-1} (x^k + y^k) \,.\end{displaymath}

Di particolare importanza è il momento centrato di ordine 2 che viene chiamato varianza:

\begin{displaymath}{\rm Var}(X) = E[(X-E[X])^2] = E[(X-\mu)^2].\end{displaymath}

Per quanto elementare il teorema che segue si rivela estremamente utile in molte circostanze:
Teorema 2.6.2 (disuguaglianza di Chebyshev). Se per la var.al. $X$ esiste il momento $E[X^2]$ (e di conseguenza la varianza) per ogni $c > 0$ si ha:

\begin{displaymath}p\{\vert X\vert > c\} \leq \frac{E[X^2]}{c^2};\end{displaymath}

in particolare, posto $\mu = E[X]$,

\begin{displaymath}p\{\vert X - \mu\vert > c\} \leq \frac{{\rm Var}(X)}{c^2}.\end{displaymath}

Dimostrazione. Applicando la prima disuguaglianza alla var.al. $(X-\mu)$, si deduce la seconda. Si noti ora che

\begin{displaymath}p\{\vert X\vert > c\} = \sum_{\vert x_i\vert>c}f(x_i),\end{displaymath}

si ha poi

\begin{displaymath}\sum_{\vert x_i\vert>c} f(x_i) = \sum_{\vert x_i\vert>c} f(x_...
..._i^2} \leq \sum_i \frac{f(x_i)x_i^2}{c^2}
= \frac{E[X^2]}{c^2}.\end{displaymath}

Fissata la var.al. $X$, di solito media e varianza si denotano risp. con $\mu$ e $\sigma^2$; $\sigma = \sqrt{{\rm Var}(X)}$ si chiama deviazione standard di $X$. Se $X$ e $Y$ hanno varianza finita, è finita anche la quantità $E[(X-\mu_X)(Y-\mu_Y)]$ che si chiama covarianza di $X$ e $Y$ e si indica con ${\rm Cov}(X,Y)$.
Si provano facilmente le seguenti proprietà:
i) ${\rm Var}(X) = E[X^2] - E[X]^2 $;
ii) ${\rm Var}(aX) = a^2{\rm Var}(X), \;{\rm Var}(a+X) = {\rm Var}(X)$ ;
iii) ${\rm Var}(X+Y) = {\rm Var}(X) + {\rm Var}(Y) + 2{\rm Cov}(X,Y)$;
iv) ${\rm Cov}(X,Y) = E[XY] - E[X]E[Y]$.
Se $X$ e $Y$ sono indipendenti, applicando il Corollario 2.5.1 iii) si ha

\begin{displaymath}{\rm Cov}(X,Y) = 0; \; {\rm Var}(X+Y) = {\rm Var}(X) + {\rm Var}(Y)\end{displaymath}

Per quanto visto, la covarianza misura in un certo senso l'indipendenza delle var.al.; tuttavia può capitare che ${\rm Cov}(X,Y) = 0$ senza che $X$ e $Y$ siano indipendenti. Quando ${\rm Cov}(X,Y) = 0$ si dice che le var.al. $X$ e $Y$ non sono correlate. Si definisce pertanto il coefficiente di correlazione $\rho_{X,Y}$ mediante

\begin{displaymath}\rho_{X,Y} = \frac{{\rm Cov}(X,Y)}{\sqrt{{\rm Var}(X){\rm Var}(Y)}} =
\frac{{\rm Cov}(X,Y)}{\sigma_X \sigma_Y}\end{displaymath}

Vogliamo provare che $-1 \leq \rho_{X,Y} \leq 1$. Per questo notiamo che si ha sempre $E[XY]^2 \leq E[X^2]E[Y^2]$ (si vede col segno di un trinomio); basta poi applicare la disuguaglianza alle var.al. $(X-\mu_X), (Y-\mu_Y)$.


next up previous
Next: Esempi Up: Variabili aleatorie. Previous: Speranza matematica
Stefani Gianna
2000-11-06