Orario di ricevimento

Su appuntamento, a Santa Marta.

Pagina del corso sul sito UniFi

Materiale didattico

  1. [MP] Giuseppe Modica, Laura Poggiolini Note di Calcolo delle Probabilità. Seconda edizione. Pitagora Editrice.
  2. [Pri] Nicolas Privault Understanding Markov Chains. Springer, collana SUMS
  3. [RPP] Alberto Rotondi, Paolo Pedroni, Antonio Pievatolo. Probabilità, Statistica e Simulazione. Terza edizione. Springer, collana Unitext
  4. Raccolta prove scritte (fino ad A4 a.a. 2019-20)
  5. Esercizi risolti su matrici stocastiche, assegnati negli appelli dell'a.a. 2017-18
  6. Per le parti del corso non coperte dai precedenti volumi, appunti relativi saranno scaricabili da questa pagina (vedi lezione per lezione).
    1. Appunti su metriche, norme e convessi
    2. Tavole statistiche

Prove scritte

Registro delle lezioni

  1. 24 settembre 2019 (3 ore) Note
    Richiami di proabilità elementare: σ-algebre, misure, probabilità. Proprietà elementari. σ-algebra di Borel. Partizione in eventi. Continuità della misura. Probabilità condizionata. Legge delle probabilità totali e formula di Bayes.
    Variabili aleatorie: definizione e condizioni equivalente. Legge di v.a. e sue proprietà. Distribuzione di v.a.
    Integrazione rispetto ad una misura di probabilità. Valore atteso. Lemma di Beppo-Levi. Teorema di convergenza dominata di Lebesgue.
    [MP 43-78]
  2. 26 settembre 2019 (2 ore) Note
    Valore atteso e distribuzione. Formula di Cavalieri. Varianza e scarto quadratico medio. Disuguaglianza di Markov e disuguaglianza di Chebychev.
    V.a. con distribuzione discreta. V.a. con distribuzione a.c.
    Esempi: distribuzione di Bernoull
    Densità di funzioni affini e del quadrato di v.a. con distribuzione a.c.
    [MP 79-82, 85-95]
  3. 1 ottobre 2019 (3 ore) Note Slides
    Distribuzione gaussiana. Legge della gaussiana standard. Distribuzione uniforma su un intervallo.
    V.a. multivariate: distribuzione congiunta e distribuzione marginale. Legge congiunta.
    Covarianza e varianza della somma di v.a.
    Eventi indipendenti. V.a. indipendenti. Indipendenza e scorrelazione. Distribuzione binomiale. Somma di v.a. binomiali indipendenti.
    Convergenza di successioni di v.a.: convergenza in probabilità, convergenza in media quadratica e convergenza quasi certa. Legge debole dei grandi numeri (dim). Legge forte dei grandi numeri (no dim).
    Applicazioni: calcolo approssimato del numero di Nepero
    [MP 95-97, 115, 117-118, 127-135, 139-147, 159-162]
  4. 3 ottobre 2019 (2 ore) Note Slides
    Applicazioni della legge dei grandi numeri: Metodo Montecarlo e funzione di ripartizione empirica. Richiami su convergenza uniforme e convergenza puntuale.
    Applicazioni: calcolo approssimato di π
    [MP 174-176]
  5. 8 ottobre 2019 (3 ore) Note
    Tempi di attesa. Convergenza in legge. Teorema centrale del limite (no dim). Teorema di Berry-Esseen (no dim)
    Spazi metrici, successioni di Cauchy, spazi metrici completi. Palle, aperti e chiusi in spazi metrici. Spazi normati.
    Insiemi convessi. Vettori stocastici a dimensione finita
    [MP 179-184, Appunti]
  6. 10 ottobre 2019 (2 ore) Note
    Proprietà dell'insieme dei vettori stocastici a dimensione finite. Matrici stocastiche ed applicazione associata.
    Vettori e matrici indicizzate su un insieme numerabile. Lo spazio elle-piccolo-1 e la norma infinito. Prodotto righe per colonne per matrici indicizzate su un insieme numerabile. Vettori e matrici stocastiche indicizzati su un insieme numerabile.
    [MP 189-191]
  7. 15 ottobre 2019 (3 ore) Note
    Grafi orientati e matrice di incidenza. Grafi pesati e matrice stocastica associata. Stati accessibili da uno stato. Stati comunicanti.
    Matrici stocastiche irriducibili e matrici stocastiche regolari.
    Stati comunicanti e loro natura transiente o ricorrente. Classi chiuse. Classi chiuse minimali. Individuazione delle classi chiuse minimali tramite la matrice associata.
    [MP 191-195]
  8. 22 ottobre 2019 (3 ore) Note
    Classi chiuse minimali, stati ricorrenti e stati transienti. Mappe iterate in spazi metrici. Loro proprietà. Pozzi e punti fissi. Teorema di Brouwer (no dim) e Teorema di Perron-Frobenius.
    Contrazioni in spazi metrici. Confronto con mappe Lipschitziane. Teorema delle contrazioni. Corollario: se una iterata è una contrazione e pozzo della mappa. Matrici irriducibili e matrici regolari.
    [MP 196-197, 201-203]
  9. 24 ottobre 2019 (2 ore) Note
    Matrici stocastiche regolari e irriducibili a dimensione finita (no dim). Inviluppo convesso delle righe di una matrice stocastica ed applicazone associata (no dim). Caratterizzazione delle matrici regolari. Il caso N=2
    Processi stocastici a stati discreti. Generalità. Processi stocastici a tempo discreto e stati discreti: vettore delle densità e matrice di transizione. Il caso omogeneo.
    [MP 203-207, 213-214, Pri 87-90]
  10. 29 ottobre 2019 (3 ore) Note
    Catene di Markov. Definizione. Caratterizzazione (no dim). Distribuzione congiunta in catene di Markov. Catene di Markov omogenee. Esempi: passeggiate aleatorie. Generazione di catene di Markov omogenee a partire da v.a. i.i.d.. Generazione di catene di Markov omogenee con matrice di transizione assegnata.
    Tempo di primo passaggio.
    [MP 213-218, 220-230]
  11. 31 ottobre 2019 (2 ore) Note
    Numero di passaggi. Valore atteso del numero di passaggi condizionato dallo stato iniziale. Stati ricorrenti e probabilità di infiniti passaggi. Stati transienti e probabilità di infiniti passaggi.
    [MP 230-235]
  12. 5 novembre 2019 (3 ore) Note       Slides con simulazioni
    Svolgimento di esercizi tratti da prove scritte di a.a. precedenti.
    Simulazione di cammini di catene di Markov omogenee con matrice di transizione assegnata (Slides)
    Tempi medi di ritorno. Stati positivamente ricorrenti. Passaggi a limite nell'iterata della matrice di transizione.
    [MP 235-237, 240-243]
  13. 7 novembre 2019 (2 ore) Note
    Tempi dei passaggi successivi e tempi di attesa . Proprietà dei tempi di attesa (no dim). Lemmi preparatori alla dimostrazione del teorema ergodico. Teorema ergodico. Catena di Markov omogenea: comportamenti asintotici e tempi medi di ritorno. Il caso S finito con matrice di transizione irriducibile.
    [MP 251-256]
  14. 12 novembre 2019 (3 ore) Note
    Applicazioni: il metodo MonteCarlo per catene di Markov. Costruzione di una matrice stocastica regolare con punto fisso assegnato. L'algoritmo pagerank. L'algoritmo pagerank. Esercizi su catene di Markov a tempo discreto. Processi stocastici a tempo continuo. Matrici di transizione. Processi omogenei. Processi di Poisson. Spazi probabilizzati completi. Processi stocastici a stati discreti e continui da destra.
    [MP 256-261, 271-280]
  15. 14 novembre 2019 (2 ore) Note
    Processi stocastici continui da destra ed intersezioni su insiemi non numerabili. Continuità delle matrici di transizione. Processi di Markov. Processi di Poisson come catene di Markov e loro matrice di transizione. Equazioni di Chapman-Kolmogorov.
    [MP 280-284]
  16. 19 novembre 2019 (3 ore) Note
    Cenni su serie di potenze reali e matriciali. La matrice esponenziale. Ancora sulla matrice esponenziale. Catene di Markov omogenee: dalle eq. di Chapman-kolomogorov all'esponenziale di Q-matrice. Punti fissi di matrici esponenziale e Q-matrice generatrice. Sulla regolarità delle matrici esponenziali. Comportamento asintotico.
    [MP 284-289, 297-306]
  17. 21 novembre 2019 (2 ore) Note     Slides statistica descrittiva
    Catene di Markov a tempo continuo a due stati.
    Tempi di soggiorno per processi stocastici. Distribuzione dei tempi di soggiorno per catene di Markov omogenee.
    Popolazioni, individui e caratteri. Classificazione dei caratteri. Modalità e classi di modalità. Frequenza assoluta e frequenza relativa. Moda e valori modali. Mediana, media e varianza campionaria. Deviazione standard. Covarianza. Coefficiente di correlazione. Retta di regressione.
    [Pri 187-191, MP 293-295, Note]
  18. 26 novembre 2019 (3 ore) Note
    Campioni statistici. Statistiche. Stimatori consistenti e stimatori corretti. Media e varianza campionaria. La madia campionaria è uno stimatore corretto del valore atteso. Valore atteso della varianza campionaria.
    Il teorema del limite centrale
    Distribuzioni Gamma. Distribuzione di Pearson a n gradi di libertà. La distribuzione t di Student a n gradi di libertà. Distribuzioni pivotali legate ai campioni gaussiani.
    [Note]
  19. 28 novembre 2019 (mattina) (2 ore) Note
    Quantili
    Stimatori di massima verosimiglianza. Esempi.
    Intervalli di confidenza. Campioni esponenziali e campioni gaussiani a varianza nota.
    [ Appunti ]
  20. 28 novembre 2019 (pomeriggio) (2 ore) Note     Slides
    Intervalli di confidenza. Intervalli di confidenza bilaterale e unilaterali per il valore atteso di un campione gaussiano a varianza ignota, per la varianza di un campione gaussiamo.
    Principi generali di un test d'ipotesi. Test d'ipotesi per campioni gaussiani a varianza nota.
    [ Appunti ]
  21. 3 dicembre 2019 (2 ore) Slides
    Ancora sul test d'ipotesi per campioni gaussiani.
    Intervalli di confidenza e test d'ipotesi per il confronto di campioni gaussiani.
    [ Appunti ]
  22. 5 dicembre 2019 (2 ore) Note
    Stimatori di massima verosimiglianza per campioni distribuiti su un insieme finito. Test del chi-quadro per campioni distribuiti su un insieme finito. Test di Kolmogorov-Smirnov.
    [ Appunti ]
  23. 10 dicembre 2019 (3 ore)
    Lezione tenuta dal Prof. Enrico Vicario
  24. 17 dicembre 2019 (1 ora) Note
    Alcuni esercizi di statistica. Uso delle tavole statistiche
    [Tavole statistiche    Alcuni esercizi]