next up previous
Next: La probabilità nel continuo Up: La legge dei grandi Previous: La legge forte

Esercizi e complementi

1. Dimostrazione della legge debole.
Sia $f$ la densità delle $X_k$. Non è restrittivo supporre $\mu = 0$. Fissato $\delta > 0$, per ogni $n$ definiamo $n$ coppie di var.al.

\begin{displaymath}U_k^{(n)} = X_k, \;\;V_k^{(n)} = 0 \;\; {\rm se} \;\;\vert X_k\vert \leq n \delta \end{displaymath}


\begin{displaymath}U_k^{(n)} =0, \;\;V_k^{(n)} = X_k \;\; {\rm se}\;\; \vert X_k\vert > n \delta .\end{displaymath}

Si ha evidentemente che $ X_k = U_k^{(n)} + V_k^{(n)}$.
Per provare la (*) basterà mostrare che, dato $\epsilon > 0, \delta$ può essere scelto in modo che per $n \rightarrow \infty$

\begin{displaymath}(**) \hspace{1cm} p \{\vert U_1^{(n)}+..+U_n^{(n)}\vert > \fr...
...n)}+..+V_n^{(n)}\vert > \frac{1}{2}\epsilon n \} \rightarrow 0.\end{displaymath}

Sia $a = E[\vert X_k\vert]$, allora (omettendo l'indice $n$ in alto)

\begin{displaymath}E[U_1^2] =
\sum_{\vert x_k\vert \leq n\delta} x_k^2f(x_k)
\leq \delta n \sum_j\vert x_j\vert f(x_j) = a \delta n\,.\end{displaymath}

Le $U_k$ sono var.al. indipendenti e con la stessa distribuzione, si ha quindi

\begin{displaymath}{\rm Var}(U_1+..+U_n) = n {\rm Var}(U_1) \leq n E[U_1^2] \leq a \delta n^2 .\end{displaymath}

Si osservi che per $n \rightarrow \infty, E[U_1] \rightarrow E[X_1] = 0$ per cui per $n$ abbastanza grande:

\begin{displaymath}E[(U_1+..+U_n)^2] = {\rm Var}(U_1+..+U_n) + E[U_1+..+U_n]^2
\leq 2a \delta n^2 .\end{displaymath}

Se ora applichiamo la disuguaglianza di Chebyshev otteniamo:

\begin{displaymath}p \{\vert U_1^{(n)}+..+U_n^{(n)}\vert > \frac{1}{2}\epsilon n \} \leq
\frac{8a \delta}{\epsilon^2};\end{displaymath}

siccome $\delta > 0$ è arbitrario, questa implica la prima delle (**). Per quanto riguarda la seconda delle (**) osserviamo che si ha

\begin{displaymath}\{(V_1+..+V_n) \neq 0 \} \subset \bigcup_k \{V_k \neq 0 \},\end{displaymath}


\begin{displaymath}p \{(V_1+..+V_n) \neq 0 \} \leq \sum_k p \{V_k \neq 0 \} = n p \{V_1 \neq 0 \};\end{displaymath}


\begin{displaymath}p \{V_1 \neq 0 \} = p \{\vert X_1\vert > \delta n \} = \sum_{...
...elta n}\sum_{\vert x_j\vert > \delta n} \vert x_j\vert f(x_j) ;\end{displaymath}

l'ultima somma tende a zero se $n$ tende all'infinito e quindi la dimostrazione è completa.
2. Dimostrazione della disuguaglianza di Kolmogorov.
Poniamo $x = p(C_n).$ Per $j=1,..,n$ definiamo var.al. $Y_j$ nel seguente modo: $Y_j$ vale 1 nei punti in cui la j-ma è la prima delle disuguaglianze (*) ad essere soddisfatta, vale 0 altrimenti. Dunque $Y_j$ vale 1 se

\begin{displaymath}\vert S_j - m_j\vert \geq t \sqrt{{\rm Var}(S_n)}, \hspace{.7...
...r\vert < t \sqrt{{\rm Var}(S_n)} \;\;{\rm per}\;\; r=1,..,j-1 ;\end{displaymath}

$Y_j$ vale 0 in ogni altro caso. Pertanto in ogni punto al più una delle $Y_k$ vale 1 e quindi la somma $Y_1+..+Y_n$ prende solo i valori 0 e 1; vale 1 se e solo se una almeno delle disuguaglianze (*) è soddisfatta; questo significa che $x =
p\{(Y_1+..+Y_n) = 1 \}$. Dalla disuguaglianza $\sum Y_k \leq 1$ moltiplicando per $(S_n - m_n)^2$ e prendendo la media $E$ si ottiene

\begin{displaymath}\sum_{k=1}^n E[Y_k(S_n - m_n)^2] \leq E[(S_n - m_n)^2] =
{\rm Var}(S_n)\,.\end{displaymath}

Stimeremo ora il primo membro di questa disuguaglianza. Ponendo

\begin{displaymath}U_k = (S_n - m_n) - (S_k - m_k) = \sum_{j=k+1}^n (X_j - \mu_j)\end{displaymath}

si ottiene

\begin{displaymath}E[Y_k(S_n - m_n)^2] = E[Y_k(S_k - m_k)^2] + E[Y_k U_k^2] +
2E[Y_k U_k(S_k - m_k)].\end{displaymath}

Notiamo che $U_k$ dipende solo da $X_{k+1},..,X_n$ mentre $Y_k$ e $S_k$ solo da $X_1,..,X_k$; pertanto $U_k$ è indipendente da $Y_k(S_k - m_k)$. Tenendo conto che $E[U_k] = 0$, otteniamo

\begin{displaymath}E[Y_k U_k(S_k - m_k)] = E[Y_k(S_k - m_k)]E[U_k] = 0 .\end{displaymath}

Questo implica che $E[Y_k(S_n - m_n)^2] \geq E[Y_k(S_k - m_k)^2]$. D'altra parte $Y_k \neq 0$ solo se $\vert S_k - m_k\vert \geq t \sqrt{{\rm Var}(S_n)}$ per cui $Y_k(S_k - m_k)^2 \geq t^2 {\rm Var}(S_n) Y_k$. Possiamo quindi concludere che

\begin{displaymath}{\rm Var}(S_n) \geq t^2 {\rm Var}(S_n) E[Y_1 +..+ Y_n] = t^2 {\rm Var}(S_n) x \end{displaymath}

ossia $x \leq t^{-2}.$
next up previous
Next: La probabilità nel continuo Up: La legge dei grandi Previous: La legge forte
Stefani Gianna
2000-11-06