next up previous
Next: Media, momenti e varianza Up: La probabilità nel continuo Previous: Leggi normali

Leggi gamma

Si chiama $\Gamma$ la funzione da ${\bf R}^+$ a ${\bf R}^+$:

\begin{displaymath}\Gamma(\alpha) = \int_0^{+\infty} x^{\alpha-1}{\rm e}^{-x}\,dx \,.\end{displaymath}

Con integrazioni per parti si vede che

\begin{displaymath}\Gamma(\alpha + 1) = \alpha \,\Gamma(\alpha) \,.\end{displaymath}

Se $n$ è un intero positivo allora

\begin{displaymath}\Gamma(n) = (n-1)! \,.\end{displaymath}

Si dice che una var.al. $X$ segue una legge gamma di parametri $\alpha >
0,\; \lambda > 0$ oppure che $X \sim \Gamma(\alpha,\lambda)$ se la sua densità è concentrata su ${\bf R}^+$ e vale

\begin{displaymath}f_X(x) = \frac{\lambda^\alpha}{\Gamma(\alpha)} x^{\alpha-1}{\rm e}^{-\lambda
x}\,.\end{displaymath}

(Non è difficile verificare con un'integrazione che $f_X$ è effettivamente una densità).
Esempio. Sia $X \sim N(0,\sigma^2)$ e quindi di densità $\frac{1}{\sqrt{2\pi}\sigma}{\rm e}^{-\frac{y^2}{2\sigma^2}}$. La densità $g$ di $X^2$ sappiamo calcolarla e vale

\begin{displaymath}g(y) = \frac{1}{\sqrt{2\pi}\sigma}\frac{1}{2 \sqrt{y}}
[{\rm ...
...}{\sqrt{2\pi}\sigma} y^{1/2-1}{\rm e}^{-\frac{y}{2\sigma^2}}\,.\end{displaymath}

Poichè $g$ è una densità, si vede che $X^2$ deve essere una $\Gamma(\frac{1}{2},\frac{1}{2\sigma^2})$; si deduce quindi che per $\alpha = \frac{1}{2}$ e per $\lambda = \frac{1}{2\sigma^2}$ si ha

\begin{displaymath}\frac{\lambda^\alpha}{\Gamma(\alpha)} = \frac{1}{\sqrt{2\pi}\sigma}\,;\end{displaymath}

cioè l'importante uguaglianza

\begin{displaymath}\Gamma(\frac{1}{2}) = \sqrt{\pi}\,.\end{displaymath}

Teorema 4.8.. Siano $X$ e $Y$ due var.al. indipendenti di legge risp. $\Gamma(\alpha, \lambda)\,,\Gamma(\beta, \lambda)$, allora $(X+Y) \sim
\Gamma(\alpha + \beta, \lambda)\,.$
Dimostrazione. Ricordiamo che la formula per la densità della somma di var.al. indipendenti è

\begin{displaymath}g(z) = \int_{-\infty}^{+\infty} f_1(x) f_2(z-x) \,dx .\end{displaymath}

Siccome le $f_i$ sono nulle per valori negativi della variabile, avremo in effetti un integrale esteso all'intervallo $[0,z]$:

\begin{displaymath}g(z) = \frac{\lambda^\alpha}{\Gamma(\alpha)}
\frac{\lambda^\b...
... e}^{-\lambda x}
(z-x)^{\beta-1}{\rm e}^{-\lambda (z-x)}\,dx =\end{displaymath}


\begin{displaymath}= \frac{\lambda^{\alpha+\beta}}{\Gamma(\alpha) \Gamma(\beta)}...
...m e}^{-\lambda z} \int_0^z x^{\alpha-1} (z-x)^{\beta-1}\,dx \,;\end{displaymath}

facendo ora nell'integrale il cambiamento di variabile $x = t z$ si ottiene

\begin{displaymath}g(z) = [\,\frac{\lambda^{\alpha+\beta}}{\Gamma(\alpha) \Gamma...
...^{\beta-1}\,dt\,]\; z^{\alpha+\beta-1}
{\rm e}^{-\lambda z}\,.\end{displaymath}

Dunque $g \sim \Gamma(\alpha + \beta, \lambda)$ e il termine in parentesi quadra vale $\frac{\lambda^{\alpha+\beta}}{\Gamma(\alpha+\beta)}$; si ha quindi l'importante uguaglianza

\begin{displaymath}\int_0^1 t^{\alpha-1} (1-t)^{\beta-1}\,dt =
\frac{\Gamma(\alpha) \Gamma(\beta)}{\Gamma(\alpha+\beta)}\,.\end{displaymath}

Notiamo due casi particolari:
La legge $\Gamma(1,\lambda)$ è la legge esponenziale di densità $f(x) = \lambda{\rm e}^{-\lambda x} $ già considerata.
La legge $\Gamma(\frac{n}{2},\frac{1}{2})$ è detta legge del chi quadro a $n$ gradi di libertà e si denota con $\chi^2(n)$. Nell'esempio precedente abbiamo visto che se $X \sim N(0,1)$ allora $X^2 \sim \Gamma
(\frac{1}{2},\frac{1}{2})$, pertanto se $X_1,..,X_n$ sono var.al. indipendenti $\sim N(0,1)$, avremo che $(X_1^2+..+X_n^2) \sim \chi^2(n)$.
next up previous
Next: Media, momenti e varianza Up: La probabilità nel continuo Previous: Leggi normali
Stefani Gianna
2000-11-06