Studiare
In questa sezione è possibile reperire le informazioni riguardanti l'organizzazione pratica del corso, lo svolgimento delle attività didattiche, le opportunità formative e i contatti utili durante tutto il percorso di studi, fino al conseguimento del titolo finale.
Piano Didattico
Queste informazioni sono destinate esclusivamente agli studenti e alle studentesse già iscritti a questo corso.Se sei un nuovo studente interessato all'immatricolazione, trovi le informazioni sul percorso di studi alla pagina del corso:
Laurea magistrale in Mathematics - Immatricolazione dal 2025/2026Il piano didattico è l'elenco degli insegnamenti e delle altre attività formative che devono essere sostenute nel corso della propria carriera universitaria.
Selezionare il piano didattico in base all'anno accademico di iscrizione.
1° Anno
Insegnamenti | Crediti | TAF | SSD |
---|
Insegnamenti | Crediti | TAF | SSD |
---|
Insegnamenti | Crediti | TAF | SSD |
---|
1 module between the following
1 module between the following
3 modules among the following
Legenda | Tipo Attività Formativa (TAF)
TAF (Tipologia Attività Formativa) Tutti gli insegnamenti e le attività sono classificate in diversi tipi di attività formativa, indicati da una lettera.
Statistical learning - PART I (2020/2021)
Codice insegnamento
4S008279
Docente
Crediti
3
Lingua di erogazione
Inglese
Settore Scientifico Disciplinare (SSD)
MAT/06 - PROBABILITÀ E STATISTICA MATEMATICA
Periodo
I semestre dal 1 ott 2020 al 29 gen 2021.
Obiettivi formativi
Obiettivo del modulo è introdurre gli studenti alla modellazione statistica ed all’analisi esplorativa dei dati. I fondamenti dello Statistical Learning (supervised e unsupervised, deep learning) sono sviluppati con particolare enfasi sugli aspetti teorici e sulle strutture matematiche sottostanti, allo scopo di fornire una derivazione ed analisi rigorosa ed autocontenuta dei principali modelli usati correntemente per le applicazioni.
Programma
Tutte le ore dell'insegnamento saranno disponibili online. Inoltre, una parte delle lezioni/tutte le lezioni (si veda l'orario)
saranno tenute anche in aula.
1. Regressione lineare
Vettori aleatori normali e loro proprietà. Modelli di regressione lineare. Minimi quadrati e
proiezioni. Stimatori di parametri e loro ottimalità (Teorema di Gauss-Markov, con
dimostrazione). Distribuzione degli stimatori. Verifica della significatività dei predittori. Migliore selezione di sottoinsiemi
e la sua formulazione come problema di ottimizzazione a numeri interi misti. Regressione Ridge.
Interpretazione della regressione ridge con la scomposizione al valore singolare (con dimostrazione).
LASSO.
2. Metodi lineari per la classificazione
Classificatore di Bayes e sua ottimalità (con dimostrazione). Regressione lineare dopo la codifica binaria. Analisi lineare discriminante. Iperpiani separatori. L'algoritmo perceptron (con dimostrazione di
terminazione)
3. Selezione e valutazione del modello.
Funzione di perdita; errore di training e previsione. Convalida incrociata. Espressione esplicita di convalida incrociata per regressione lineare (con dimostrazione). Bootstrap e applicazione alla valutazione dei modelli.
4. Clustering.
Clustering basato su centri. Clustering K-center; Clustering K-mediano; K-means clustering.
Algoritmo di Lloyd per K-means. Algoritmo di Ward. Clustering spettrale: graph Laplacian. La
molteplicità dell'autovalore 0 del graph Laplacian è uguale al numero di componenti connesse (con dimostrazione). Algoritmi di clustering spettrale non normalizzati e normalizzati.
Relazione tra clustering spettrale e graph-cut.
5. Introduzione alle reti neurali.
Reti neurali a strato singolo. Teorema di densità di Cybenko (con dimostrazione). Reti neurali multistrato. Addestrare una rete neurale: l'algoritmo di gradient descent.
Autore | Titolo | Casa editrice | Anno | ISBN | Note |
---|---|---|---|---|---|
T. Hastie, R. Tibshirani, J. Friedman. | The elements of statistical learning. Data mining, inference, and prediction. (Edizione 2) | Springer | 2009 |
Modalità d'esame
Esame orale.