Formazione e ricerca
Attività Formative del Corso di Dottorato
In questa pagina sono riportate le attività formative del corso di dottorato per l'anno accademico 2024/2025. Ulteriori attività verranno aggiunte durante l'anno. Ti invitiamo a verificare regolarmente la presenza di aggiornamenti!
Dynamic modeling and simulation of multibody systems
Crediti: 5
Lingua di erogazione: English
Docente: Iacopo Tamellin
Advanced techniques for acquisition of biomedical images
Crediti: 2.5
Lingua di erogazione: Inglese
Docente: Paolo Farace, Federico Boschi
Theranostics: from materials to devices
Crediti: 1
Lingua di erogazione: english
Docente: Nicola Daldosso, Tommaso Del Rosso
Nanomaterials: synthesis, characterization and applications
Crediti: 1
Lingua di erogazione: English
Docente: Francesco Enrichi, Tommaso Del Rosso
Brain Computer Interfaces
Crediti: 3
Lingua di erogazione: Inglese
Docente: Silvia Francesca Storti
Algorithmic motion planning in robotics
Crediti: 1
Lingua di erogazione: Italiano
Docente: Paolo Fiorini
Data visualization
Crediti: 1
Lingua di erogazione: Inglese
Docente: Andrea Giachetti
Cyber-Physical Systems in Industry 4.0: Modeling, Networks, and Intelligence
Crediti: 3
Lingua di erogazione: English
Docente: Enrico Fraccaroli
Modellazione e analisi 3D
Crediti: 1
Lingua di erogazione: Inglese
Docente: Andrea Giachetti
Explainable AI models: state of the art, promises and challenges
Crediti: 2.5
Lingua di erogazione: Inglese
Docente: Gloria Menegaz
Foundation of Robotics Autonomy
Crediti: 1
Lingua di erogazione: Italiano
Docente: Paolo Fiorini
Generative AI
Crediti: 1.5
Lingua di erogazione: English
Docente: Francesco Setti
Modellazione e verifica di sistemi digitali
Crediti: 1.5
Lingua di erogazione: Italiano
Docente: Franco Fummi, Nicola Bombieri, Graziano Pravadelli
Soft robotics: from nature to engineering
Crediti: 1.5
Lingua di erogazione: English
Docente: Francesco Visentin
Techniques and algorithms for biomechanics of movement
Crediti: 2.5
Lingua di erogazione: English
Docente: Roberto Di Marco
Explainable AI models: state of the art, promises and challenges (2024/2025)
Docente
Referente
Crediti
2,5
Lingua di erogazione
Inglese
Frequenza alle lezioni
Scelta Libera
Sede
VERONA
Obiettivi di apprendimento
L’Intelligenza Artificiale è diventata uno strumento fondamentale in campi come la biomedicina e le neuroscienze, dalla scoperta di nuovi biomarcatori numerici a supporto della diagnosi. Negli ultimi decenni, ampie collaborazioni multidisciplinari e studi multimodali a lungo termine come, ad esempio, ADNI, ENIGMA e UK Biobank, hanno reso possibile l’accesso a grandi archivi di diversi tipi di dati tra cui immagini e informazioni genetiche. Tale disponibilità designa l’apprendimento profondo come strumento essenziale per rappresentare le complesse relazioni alla base di molti processi biologici. Tuttavia, nonostante gli innegabili vantaggi dei modelli di deep learning, la complessità della loro architettura rende necessario definire metodi che consentano di “aprire il black bo” e ottenere spiegazioni che favoriscano l’interpretabilità. Questo aspetto è fondamentale in particolar modo in ambiti critici quale quello biomedicale, in relazione all’applicazione alla medicina, alla sanità e alle neuroscienze.
Per questo motivo, l’eXplainable Artificial Intelligence (XAI) è fondamentale per spiegare come il modello ha raggiunto un risultato specifico, come in che misura il modello sia affidabile e le spiegazioni robuste e plausibili.
Il corso mira a fornire agli studenti la conoscenza dei modelli spiegabili allo stato dell'arte maggiormente utilizzati sul campo, fornendo sia basi teoriche che strumenti implementativi. In particolare, gli studenti impareranno come gestire l'intelligenza artificiale spiegabile quando applicata per interpretare modelli di deep learning valutati per estrarre informazioni da dati multidimensionali, eterogenei e rumorosi.
Prerequisiti e nozioni di base
Fondamenti di elaborazione di segnali e immagini, fondamenti di machine learning. Python.
Programma
Parte I: Promesse
Intelligenza Artificiale spiegabile da zero
• Un accenno a modelli di spiegabilità post-hoc agnostici (ad esempio importanza delle feature, occlusioni)
• Reti neurali alla luce della spiegabilità (ad esempio metodi di visualizzazione, metodi di attribuzione, metodi basati sul gradiente)
Parte 2: Sfide
• Validazione dei risultati XAI
Bibliografia
Modalità didattiche
In presenza.
Modalità di verifica dell'apprendimento
Progetto relativo agli argomenti trattati.
Valutazione
Analisi critica dei metodi appresi
Capacità di applicare i metodi appresi a problemi concreti
Qualità dell'esposizione
Criteri di composizione del voto finale
Approvato/Non approvato