Formazione e ricerca

Attività Formative del Corso di Dottorato

In questa pagina sono riportate le attività formative del corso di dottorato per l'anno accademico 2024/2025. Ulteriori attività verranno aggiunte durante l'anno. Ti invitiamo a verificare regolarmente la presenza di aggiornamenti!

Istruzioni per i docenti: gestione delle lezioni

Dynamic modeling and simulation of multibody systems

Crediti: 5

Lingua di erogazione: English

Docente:  Iacopo Tamellin

Advanced techniques for acquisition of biomedical images

Crediti: 2.5

Lingua di erogazione: Inglese

Docente:  Paolo Farace, Federico Boschi

Theranostics: from materials to devices

Crediti: 1

Lingua di erogazione: english

Docente:  Nicola Daldosso, Tommaso Del Rosso

Nanomaterials: synthesis, characterization and applications

Crediti: 1

Lingua di erogazione: English

Docente:  Francesco Enrichi, Tommaso Del Rosso

Brain Computer Interfaces

Crediti: 3

Lingua di erogazione: Inglese

Docente:  Silvia Francesca Storti

Algorithmic motion planning in robotics

Crediti: 1

Lingua di erogazione: Italiano

Docente:  Paolo Fiorini

Data visualization

Crediti: 1

Lingua di erogazione: Inglese

Docente:  Andrea Giachetti

Cyber-Physical Systems in Industry 4.0: Modeling, Networks, and Intelligence

Crediti: 3

Lingua di erogazione: English

Docente:  Enrico Fraccaroli

Modellazione e analisi 3D

Crediti: 1

Lingua di erogazione: Inglese

Docente:  Andrea Giachetti

Explainable AI models: state of the art, promises and challenges

Crediti: 2.5

Lingua di erogazione: Inglese

Docente:  Gloria Menegaz

Foundation of Robotics Autonomy

Crediti: 1

Lingua di erogazione: Italiano

Docente:  Paolo Fiorini

Generative AI

Crediti: 1.5

Lingua di erogazione: English

Docente:  Francesco Setti

Modellazione e verifica di sistemi digitali

Crediti: 1.5

Lingua di erogazione: Italiano

Docente:  Franco Fummi, Nicola Bombieri, Graziano Pravadelli

Soft robotics: from nature to engineering

Crediti: 1.5

Lingua di erogazione: English

Docente:  Francesco Visentin

Techniques and algorithms for biomechanics of movement

Crediti: 2.5

Lingua di erogazione: English

Docente:  Roberto Di Marco

Crediti

2,5

Lingua di erogazione

Inglese

Frequenza alle lezioni

Scelta Libera

Sede

VERONA

Obiettivi di apprendimento

L’Intelligenza Artificiale è diventata uno strumento fondamentale in campi come la biomedicina e le neuroscienze, dalla scoperta di nuovi biomarcatori numerici a supporto della diagnosi. Negli ultimi decenni, ampie collaborazioni multidisciplinari e studi multimodali a lungo termine come, ad esempio, ADNI, ENIGMA e UK Biobank, hanno reso possibile l’accesso a grandi archivi di diversi tipi di dati tra cui immagini e informazioni genetiche. Tale disponibilità designa l’apprendimento profondo come strumento essenziale per rappresentare le complesse relazioni alla base di molti processi biologici. Tuttavia, nonostante gli innegabili vantaggi dei modelli di deep learning, la complessità della loro architettura rende necessario definire metodi che consentano di “aprire il black bo” e ottenere spiegazioni che favoriscano l’interpretabilità. Questo aspetto è fondamentale in particolar modo in ambiti critici quale quello biomedicale, in relazione all’applicazione alla medicina, alla sanità e alle neuroscienze.
Per questo motivo, l’eXplainable Artificial Intelligence (XAI) è fondamentale per spiegare come il modello ha raggiunto un risultato specifico, come in che misura il modello sia affidabile e le spiegazioni robuste e plausibili.
Il corso mira a fornire agli studenti la conoscenza dei modelli spiegabili allo stato dell'arte maggiormente utilizzati sul campo, fornendo sia basi teoriche che strumenti implementativi. In particolare, gli studenti impareranno come gestire l'intelligenza artificiale spiegabile quando applicata per interpretare modelli di deep learning valutati per estrarre informazioni da dati multidimensionali, eterogenei e rumorosi.

Prerequisiti e nozioni di base

Fondamenti di elaborazione di segnali e immagini, fondamenti di machine learning. Python.

Programma

Parte I: Promesse
Intelligenza Artificiale spiegabile da zero
• Un accenno a modelli di spiegabilità post-hoc agnostici (ad esempio importanza delle feature, occlusioni)
• Reti neurali alla luce della spiegabilità (ad esempio metodi di visualizzazione, metodi di attribuzione, metodi basati sul gradiente)
Parte 2: Sfide
• Validazione dei risultati XAI

Bibliografia

Visualizza la bibliografia con Leganto, strumento che il Sistema Bibliotecario mette a disposizione per recuperare i testi in programma d'esame in modo semplice e innovativo.

Modalità didattiche

In presenza.

Modalità di verifica dell'apprendimento

Progetto relativo agli argomenti trattati.

Le/gli studentesse/studenti con disabilità o disturbi specifici di apprendimento (DSA), che intendano richiedere l'adattamento della prova d'esame, devono seguire le indicazioni riportate QUI

Valutazione

Analisi critica dei metodi appresi
Capacità di applicare i metodi appresi a problemi concreti
Qualità dell'esposizione

Criteri di composizione del voto finale

Approvato/Non approvato