Docente
|
GIAGU STEFANO
(programma)
- introduzione alla intelligenza artificiale (AI), machine learning (ML) e deep learning (DL)
- paradigmi di apprendimento: apprendimento supervisionato, non-supervisionato e reinforcement learning
- descrizione di un algoritmo di ML/pattern recognition e definizione intuitiva dei termini/concetti coinvolti
- Representation Learning e Deep-Learning
- Problema della Generalizzazione, teoria di Vapnik, Vapnik-Chervonenkis-dimension e minimizzazione del rischio strutturale
- Richiami fondamentali di algebra lineare e tensoriale
- un esempio guidato di come funziona un algoritmo di inferenza lineare: modello, funzione di costo, ottimizzazione e discesa lungo il gradiente, risultati
- Elementi di teoria della decisione statistica
- Stima della densità di probabilità: tecniche parametriche (ML, stima Bayesiana) e non parametriche (Kernel Density Estimation)
- Classificatori basati su stima delle pdf: classificatori a likelihood proiettiva, classificatori k-NN, iper-ball e PDFFoams
- Approccio alla classificazione tramite funzioni discriminanti: classificatori lineari, regressione logistica, macchine a supporto vettoriale e classificatori non lineari
- Criteri di valutazione delle prestazioni di un classificatore
- Tecniche di Ottimizzazione
- Algoritmi non metrici: alberi di decisioni binarie, ensambles, boosting
- Classificazione non supervisionata: clustering, algoritmo k-means, auto-encoders
- Reti neurali artificiali: introduzione, TLU, funzioni di attivazione, fully connected network, feed forward neural networks
- Connessione NN-teoria statistica: classificazione Bayesiana, interpretazione come funzione di mapping non-lineare
- Connessione NN e meccanica statistica: reti di Hopfield, memorie associative
- Back-propagation
- Regolarizzazione: teoria, L1, L2, dropout
- Deep-NeuralNetworks: diffusione del gradiente e Greedy Layer-wise Training
- Convolutional Neural Networks: esempio AlexNet e VGG-net
- Architecture avanzate (cenni): Inception, ResNet e ResNeXt
- Recurrent-NeuralNetwork: SimpleRNN, LSTM
- Visualizzazione e riduzione dimensionalità di un immagine: PCA, t-SNE e metriche nello spazio latente
- Generative Adeversarial Networks (GAN) e Variational-AutoEncoders (VAEs)
- Esempi di applicazioni di deep-NN in contesti diversi della fisica
- Ambienti per lo sviluppo e applicazione di deep neural network: richiami fondamentali linguaggio python, il framework scikit-learn, il framework Keras/TensorFlow e il framework PyTorch
- Implementazione pratica al computer, training e applicazione di reti neurali profonde: DNN, CNN, RNN, multi-stadio LSTM, VAE e GAN (GAN, WGAN-GP, SAGAN) per la risoluzione di problemi di classificazione, regressione, sentiment-analysis testuale, alarm detection e generazione di immagini/testi
Testo riferimento:
- dispense del docente (verranno rese disponibili durante il corso)
|