next up previous
Next: Convergenza in legge e Up: La probabilità nel continuo Previous: Esercizi e complementi

Funzioni caratteristiche

Date la var.al. $U$ e $V$, diremo che $Z = U + iV$ è una var.al. complessa. Diremo che $Z$ ha media finita se e solo se $U$ e $V$ hanno media finita e porremo $E[Z] = E[U] +i E[V]$. Si verifica che $\vert E[Z]\vert \leq E[\vert Z\vert]$.
Sia $X$ una var.al. (reale), si chiama funzione caratteristica di $X$ la funzione a valori complessi $\phi_X$ definita su ${\bf R}$ da:

\begin{displaymath}\phi_X(\theta) = E[{\rm e}^{i\theta X}] .\end{displaymath}

Conviene osservare che

\begin{displaymath}\vert\phi_X(\theta)\vert = \vert E[{\rm e}^{i\theta X}]\vert \leq E[\vert{\rm e}^{i\theta X}\vert] = 1\; ;
\; \phi_X(0) = 1 .\end{displaymath}

Se $X$ ha densità $f$ avremo

\begin{displaymath}\phi_X(\theta) = \int_R {\rm e}^{i\theta x}f(x)\,dx .\end{displaymath}

Vale la pena notare che, a meno di una costante, $\phi_X$ è la trasformata di Fourier della densità $f$.
Valgono i seguenti semplici risultati:
$(i) \;\;\;\;\; X, Y \;\;{\rm indipendenti} \;\; \Rightarrow \;\phi_{X+Y}(\theta) =
\phi_X(\theta)
\phi_Y(\theta);$
$(ii) \;\;\;\; \phi_{-X}(\theta) = \overline{ \phi_X(\theta)}\;\;\; ({\rm il \;
coniugato});$
$(iii) \;\;\;{\rm Se}\;\; Y = aX + b\,,\, {\rm allora}\; \phi_{Y}(\theta) =
\phi_X(a\theta){\rm e}^{i\theta b} . $
Proviamo per esempio (i) (si tenga conto che dall'ipotesi segue anche l'indipendenza delle var.al. ${\rm e}^{i\theta X}, {\rm e}^{i\theta Y}$):

\begin{displaymath}\phi_{X+Y}(\theta) = E[{\rm e}^{i\theta (X+Y)}] = E[{\rm e}^{...
...] E[{\rm e}^{i\theta Y}] =
\phi_{X}(\theta) \phi_{Y}(\theta)\,.\end{displaymath}

Ci domandiamo se una funzione caratteristica $\phi$ sia derivabile. La funzione $\theta \rightarrow {\rm e}^{i\theta X}$ è analitica qualunque valore prenda $X$; se l'operazione di derivazione e quella di prendere la media $E$ (che è una integrazione) si possono scambiare, allora $\phi$ risulta derivabile e le sue derivate si calcolano subito. Vale il seguente

Teorema. Qualunque sia $X \;\;\phi_{X}$ è continua. Se $X$ ha momento di ordine $k$, allora $\phi_{X}$ è $k$ volte derivabile e si ha

\begin{displaymath}\frac{d^k\phi_X}{d\theta^k}(\theta) = E[(iX)^k {\rm e}^{i\theta X}] .\end{displaymath}

Viceversa se $\phi_{X}$ è $k$ volte derivabile e $k$ è pari, allora $X$ ha momento di ordine $k$.
Si noti in particolare che

\begin{displaymath}\frac{d^k\phi_X}{d\theta^k}(0) = (i)^k E[X^k] ,\end{displaymath}

questa formula permette di calcolare i momenti.

E' importante sapere che se $X$ e $Y$ hanno la stessa funzione caratteristica, allora hanno la stessa densità. Non solo questo è vero, ma si ha pure una formula esplicita per la densità di $X$ in termini della sua funzione caratteristica:
Teorema (Formula di inversione). Se $\phi_X$ è sommabile, allora $X$ è a.c. e per la sua densità $f_X$ si ha

\begin{displaymath}f_X(x) = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{+\infty}
{\rm e}^{-i\theta x} \phi_X(\theta)\,d\theta .\end{displaymath}

Diamo ora degli esempi.
1. Densità esponenziale.

\begin{displaymath}\phi(\theta) = \lambda \int_0^{+\infty} {\rm e}^{i\theta x}{\rm e}^{-\lambda
x}\,dx = \frac{\lambda}{\lambda - i\theta} .\end{displaymath}

2. Densità normale.

\begin{displaymath}\phi(\theta) = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{+\infty} {\rm e}^{i\theta
x}{\rm e}^{-\frac{x^2}{2}} dx ;\end{displaymath}


\begin{displaymath}\phi'(\theta) = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{+\infty} i x {\rm e}^{i\theta x}{\rm e}^{-\frac{x^2}{2}} dx .\end{displaymath}

Con una integrazione per parti si trova

\begin{displaymath}\phi'(\theta) = - \theta \phi(\theta)\end{displaymath}

da cui, tenendo conto che $\phi(0) = 1$, si ricava

\begin{displaymath}\phi(\theta) = {\rm e}^{-\frac{\theta^2}{2}}.\end{displaymath}

Se $Y \sim N(\mu,\sigma^2)$ sappiamo che si ha $Y = (\sigma X + \mu )$ con $X \sim N(0,1)$, pertanto applicando la (iii) si ottiene

\begin{displaymath}\phi_Y (\theta) = {\rm e}^{-\frac{\sigma^2 \theta^2}{2}} {\rm e}^{i \theta \mu}.\end{displaymath}

Applichiamo questo risultato e (i) alla somma di var.al. normali.
Per $i = 1,2$ siano $X_i \sim N(\mu_i, \sigma^2_i)$ e indipendenti; avremo

\begin{displaymath}\phi_{X_1+X_2} (\theta) = {\rm e}^{-\frac{- (\sigma_1^2+\sigm...
...heta^2}{2}}
{\rm e}^{i \theta (\mu_1+\mu_2)} = \phi_X (\theta)\end{displaymath}

dove $X \sim N(\mu_1+\mu_2, \sigma_1^2+\sigma_2^2)$. L'uguaglianza delle funzioni caratteristiche ci porta a concludere che la somma $(X_1+X_2)$ è una var.al. $\sim N(\mu_i, \sigma^2_i)$, come avevamo già enunciato.
1. Densità discrete. Le funzioni caratteristiche si definiscono anche per va.al. discrete: se $X$ prende i valori $\{ x_k \}$ con densità $f$ si pone

\begin{displaymath}\phi_X (\theta) = \sum_k f(x_k) {\rm e}^{i \theta x_k } \,.\end{displaymath}

Diamo in particolare tre esempi.
1. $X \sim B(n,p)$:

\begin{displaymath}\phi_X (\theta) = \sum_{k=0}^n {n\choose k} p^k (1-p)^{n-k} {\rm e}^{i \theta k } =
(1 - p + p {\rm e}^{i \theta})^n \,.\end{displaymath}

2. $X$ geometrica:

\begin{displaymath}\phi_X (\theta) = \sum_k p (1-p)^k {\rm e}^{i \theta k } =
\frac{p}{1 - (1-p){\rm e}^{i \theta}}\,.\end{displaymath}

3. $X$ Poisson di parametro $\lambda$:

\begin{displaymath}\phi_X (\theta) = {\rm e}^{- \lambda} \sum_k \frac{\lambda^k}...
...= {\rm e}^{- \lambda} {\rm e}^{ \lambda {\rm e}^{i \theta}}\,. \end{displaymath}


next up previous
Next: Convergenza in legge e Up: La probabilità nel continuo Previous: Esercizi e complementi
Stefani Gianna
2000-11-06