Studiare

In questa sezione è possibile reperire le informazioni riguardanti l'organizzazione pratica del corso, lo svolgimento delle attività didattiche, le opportunità formative e i contatti utili durante tutto il percorso di studi, fino al conseguimento del titolo finale.

Queste informazioni sono destinate esclusivamente agli studenti e alle studentesse già iscritti a questo corso.
Se sei un nuovo studente interessato all'immatricolazione, trovi le informazioni sul percorso di studi alla pagina del corso:

Laurea magistrale in Mathematics - Immatricolazione dal 2025/2026

Il piano didattico è l'elenco degli insegnamenti e delle altre attività formative che devono essere sostenute nel corso della propria carriera universitaria.
Selezionare il piano didattico in base all'anno accademico di iscrizione.

CURRICULUM TIPO:

1° Anno 

InsegnamentiCreditiTAFSSD

2° Anno   Attivato nell'A.A. 2021/2022

InsegnamentiCreditiTAFSSD
6
B
MAT/05
Final exam
32
E
-
Attivato nell'A.A. 2021/2022
InsegnamentiCreditiTAFSSD
6
B
MAT/05
Final exam
32
E
-
Insegnamenti Crediti TAF SSD
Tra gli anni: 1°- 2°
1 module between the following
Tra gli anni: 1°- 2°
1 module between the following 
Tra gli anni: 1°- 2°
Tra gli anni: 1°- 2°
Other activities
4
F
-

Legenda | Tipo Attività Formativa (TAF)

TAF (Tipologia Attività Formativa) Tutti gli insegnamenti e le attività sono classificate in diversi tipi di attività formativa, indicati da una lettera.




S Stage e tirocini presso imprese, enti pubblici o privati, ordini professionali

Codice insegnamento

4S008279

Crediti

3

Lingua di erogazione

Inglese en

Settore Scientifico Disciplinare (SSD)

MAT/06 - PROBABILITÀ E STATISTICA MATEMATICA

Periodo

I semestre dal 1 ott 2020 al 29 gen 2021.

Per visualizzare la struttura dell’insegnamento a cui questo modulo appartiene, consultare:  organizzazione dell'insegnamento

Obiettivi formativi

Obiettivo del modulo è introdurre gli studenti alla modellazione statistica ed all’analisi esplorativa dei dati. I fondamenti dello Statistical Learning (supervised e unsupervised, deep learning) sono sviluppati con particolare enfasi sugli aspetti teorici e sulle strutture matematiche sottostanti, allo scopo di fornire una derivazione ed analisi rigorosa ed autocontenuta dei principali modelli usati correntemente per le applicazioni.

Programma

Tutte le ore dell'insegnamento saranno disponibili online. Inoltre, una parte delle lezioni/tutte le lezioni (si veda l'orario)
saranno tenute anche in aula.

1. Regressione lineare
Vettori aleatori normali e loro proprietà. Modelli di regressione lineare. Minimi quadrati e
proiezioni. Stimatori di parametri e loro ottimalità (Teorema di Gauss-Markov, con
dimostrazione). Distribuzione degli stimatori. Verifica della significatività dei predittori. Migliore selezione di sottoinsiemi
e la sua formulazione come problema di ottimizzazione a numeri interi misti. Regressione Ridge.
Interpretazione della regressione ridge con la scomposizione al valore singolare (con dimostrazione).
LASSO.

2. Metodi lineari per la classificazione
Classificatore di Bayes e sua ottimalità (con dimostrazione). Regressione lineare dopo la codifica binaria. Analisi lineare discriminante. Iperpiani separatori. L'algoritmo perceptron (con dimostrazione di
terminazione)

3. Selezione e valutazione del modello.
Funzione di perdita; errore di training e previsione. Convalida incrociata. Espressione esplicita di convalida incrociata per regressione lineare (con dimostrazione). Bootstrap e applicazione alla valutazione dei modelli.

4. Clustering.
Clustering basato su centri. Clustering K-center; Clustering K-mediano; K-means clustering.
Algoritmo di Lloyd per K-means. Algoritmo di Ward. Clustering spettrale: graph Laplacian. La
molteplicità dell'autovalore 0 del graph Laplacian è uguale al numero di componenti connesse (con dimostrazione). Algoritmi di clustering spettrale non normalizzati e normalizzati.
Relazione tra clustering spettrale e graph-cut.

5. Introduzione alle reti neurali.
Reti neurali a strato singolo. Teorema di densità di Cybenko (con dimostrazione). Reti neurali multistrato. Addestrare una rete neurale: l'algoritmo di gradient descent.

Testi di riferimento
Autore Titolo Casa editrice Anno ISBN Note
T. Hastie, R. Tibshirani, J. Friedman. The elements of statistical learning. Data mining, inference, and prediction. (Edizione 2) Springer 2009

Modalità d'esame

Esame orale.

Le/gli studentesse/studenti con disabilità o disturbi specifici di apprendimento (DSA), che intendano richiedere l'adattamento della prova d'esame, devono seguire le indicazioni riportate QUI