Docente
|
DI GIACOMO LAURA
(programma)
1. Introduzione. Motivazioni. Cenni storici. Perché studiare il calcolo delle probabilità A cosa mira il corso? La nascita del calcolo delle probabilità e la sua evoluzione nel pensiero scientifico e nel senso comune.
2. Esperimenti aleatori e linguaggio per descriverli; nozioni di base di teoria degli insiemi. L’idea di esperimento aleatorio e la sua formalizzazione tramite la teoria degli insiemi. Brevi richiami di teoria degli insiemi. Relazioni e operazioni fra insiemi.
3. Spazi di probabilità finiti. Operazioni su eventi. Funzioni indicatrici. Modellizzazione di esperimenti con un numero finito di esiti possibili. Definizione di evento e operazioni fra eventi. Funzioni indicatrici di un evento e loro algebra.
4. Leggi di De Morgan e principio di inclusione-esclusione. La proprietà distributiva per unione e intersezione. Relazione fra unione o intersezione e complementazione. Algebra di Boole delle operazioni fra insiemi. Calcolo della cardinalità dell’unione di insiemi non disgiunti.
5. Il modello classico del calcolo delle probabilità. Combinatoria. Nel cosiddetto “modello classico” tutti gli eventi elementari sono considerati equiprobabili e la probabilità definita, in accordo con l’intuizione, “numero dei casi favorevoli diviso numero dei casi possibili”. Pertanto il calcolo della probabilità di un evento si riduce a problemi di conteggio.
6. Calcolo combinatorio: disposizioni, combinazioni, con e senza ripetizione. Anagrammi. Lo scopo del calcolo combinatorio `e quello di determinare il numero dei modi in cui possono essere associati, secondo prefissate regole, gli elementi di uno stesso insieme o di più insiemi. Quante sono le targhe di tre simboli formate usando l’insieme {A, B, C, 1, 2}? e se siamo costretti a usare simboli diversi? Quanti anagrammi sono possibili per la parola “PALLA”? e per la parola “PONTE”?
7. Scelte non ordinate e coefficienti binomiali. Quanti sono i modi di scegliere k oggetti fra n senza tenere conto dell’ordine? Come si calcola la probabilità di avere un colore servito nel poker? 1
8. Estrazioni da urne. L’estrazione da un’urna contenente palline di due colori `e uno dei paradigmi di base della probabilità elementare. Le estrazioni senza reinserimento sono descritte dal modello ipergeometrico e quelle con reinserimento dal modello binomiale.
9. Assiomi della probabilità e loro prime conseguenze. Per costruire un modello matematico coerente nel caso di eventi non equiprobabili, assumeremo come assiomi le proprietà che abbiamo dedotto nel caso di eventi elementari equiprobabili.
10. Probabilità condizionata, indipendenza. Se sappiamo che un evento A si è verificato, questo cambia la nostra valutazione della probabilità che si verifichi un altro evento B. Se il verificarsi di A invece non muta la probabilità di B, diremo che A e B sono indipendenti.
11. Formula della probabilità totale. Formula di Bayes. La formula della probabilità totale permette di scrivere la probabilità di un evento tenendo conto esplicitamente di “tutti i casi possibili”. il teorema di Bayes permette di calcolare la probabilità delle cause di eventi osservati.
12. Verifica probabilistica delle identità polinomiali. Lemma di SchwartzZippel.* Dato un polinomio P(x1, . . . , xn) di grado d di cui possiamo esclusivamente conoscere il valore in punti scelti da noi, quanto `e difficile decidere se `e identicamente nullo? Vedremo come un approccio probabilistico riduce la complessità del problema da esponenziale a polinomiale.
13. Indipendenza e correlazione fra eventi. Ulteriore esplorazione della nozione di indipendenza e sue conseguenze. Misura della dipendenza fra eventi.
14. Variabili aleatorie discrete. Funzione di massa e funzione di distribuzione. L’introduzione del concetto di variabile aletoria formalizza l’idea di quantità che può assumere diversi valori con certe probabilità. Definizione di una variabili aleatoria tramite la propria funzione di distribuzione o equivalentemente la propria funzione di massa. Proprietà delle funzioni di distribuzione.
15. Variabili aleatorie su spazi finiti. Variabili di Bernoulli e binomiali. Variabili aleatorie come funzioni su spazi di probabilità (finiti). Variabili di Bernoulli: il lancio di moneta come la più semplice variabile aleatoria non costante. Variabili binomiali: il numero di successi in n lanci.
16. Il valore atteso di una variabile aleatoria; giochi equi. Il valore atteso come generalizzazione della media aritmetica. Calcolo del valore atteso di variabili aleatorie notevoli. Scommesse. Il valore di giochi con pi`u di due esiti possibili.
17. Densità e distribuzioni congiunte; marginali, condizionate. Distribuzioni congiunte come tabelle. Calcolo delle distribuzioni marginali e condizionate a partire dalla distribuzione congiunta. Variabili aleatorie indipendenti e fattorizzazione delle funzioni di distribuzione.
18. Somma di variabili aleatorie. Varianza. Linearità dell’attesa. Funzioni indicatrici e loro utilizzo. Variabili binomiali come somma di variabili di Bernoulli indipendenti. Attesa della somma di variabili aleatorie. Calcolo della varianza di variabili aleatorie note. La varianza di una variabile aleatoria come misura di dispersione. 19. Il metodo probabilistico di Erdos.* Alcuni esempi dell’utilizzo di metodi probabilistici per risolvere problemi di esistenza in combinatoria. Problemi di colorazione di grafi.
20. Attesa condizionata e sue proprietà. Attesa di una variabile aleatoria condizionata a un evento e a un’altra variabile aleatoria. Esempi notevoli. Attese condizionate iterate.
21. Spazi di probabilità numerabili. Spazi di probabilità con un numero infinito, ma contabile, di eventi elementari. Difficoltà tecniche dell’estensione di quanto appreso per spazi finiti e loro risoluzione.
22. Variabili aleatorie geometriche e loro proprietà. Tempo di primo successo in prove ripetute e distribuzione geometrica. Calcolo di attesa e varianza di una variabile geometrica. Generalizzazioni della distribuzione geometrica
23. Variabili aleatorie di Poisson e loro proprietà. Teorema di Poisson. Eventi di piccola probabilità con un numero di prove grande. Legge di Poisson. Approssimazione di variabili binomiali con variabili di Poisson. Proprietà delle distribuzioni di Poisson. Somma di variabili di Poisson indipendenti.
24. Legge dei grandi numeri e disuguaglianza di Chebichev. Legge dei grandi numeri per lanci di moneta. Disuguaglianza di Markov. Disuguaglianza di Chebichev. Legge dei grandi numeri per variabili aleatorie i.i.d. con varianza finita. Stima delle probabilità di deviazione dalla media per somme di variabili aleatorie.
Gli argomenti seguiti da un asterisco * sono complementi teorici non necessari al superamento dell’esame scritto.
come libri di testo si possono utilizzare
- Calcolo delle probabilità di Sheldon M. Ross,
- testo per i concetti di base del calcolo delle probabilità è Carol Ash - The Probability Tutoring Book.
Durante i webinar di quest'anno verranno forniti altri esercizi per esercitazione
|