Mutua da
|
10589440 CIRCUITI E ALGORITMI PER IL CALCOLO DISTRIBUITO in Ingegneria Elettronica LM-29 NESSUNA CANALIZZAZIONE PANELLA MASSIMO
(programma)
Richiami di circuiti e algoritmi per il trattamento dell’informazione. Generalità sul trattamento dei segnali analogici e digitali, segnali aleatori multi-dimensionali, concetti di teoria della stima, metodo della massima verosimiglianza, stima del minimo errore quadratico medio, metodo della massima probabilità a posteriori, elementi di teoria dell’informazione, metodi di ottimizzazione. Rappresentazione di circuiti digitali mediante grafi e schemi a blocchi, strutture di rete fondamentali per circuiti FIR, IIR e a traliccio. Serie temporali e dinamiche caotiche, circuiti caotici.
Introduzione alle tecnologie di calcolo parallele e distribuite. Architetture di calcolo parallelo GPU e multiprocessore nei sistemi a “grana fine”. Virtualizzazione delle risorse in ambienti di calcolo distribuiti, cloud computing. Architetture di comunicazione (WSN, BAN, PAN). Sensori e attuatori: problemi di low-power e low-energy; energy harvesting e self-powering; affidabilità (fault tolerance, fault detection, self-organization). Smart devices per il calcolo distribuito: data loggers e sistemi embedded; smart sensors su dispositivi mobili (smartphones, Tablet PC, etc.); wearable computers.
Deep Learning e circuiti quantistici. Sistemi adattivi, stima del gradiente, metodi iterativi, apprendimento Hebbiano, reti di Kohonen e auto-organizzanti, reti dinamiche ricorrenti, reti di Hopfield. Apprendimento e regolarizzazione. Soluzione di problemi di ottimizzazione vincolata multi-obiettivo. Deep Learning. Circuiti analogici e digitali per l’implementazione di reti neurali e per il Deep Learning. Introduzione al calcolo quantistico. Quantum gate e quantum gate array. Algoritmi quantistici per l’ottimizzazione e il trattamento dell’informazione (QFFT, Grover, Schor), Quantum Machine Learning, Quantum Neural Networks. Studi di caso: quantizzazione, classificazione, predizione, approssimazione, interpolazione e filtraggio di dati meccatronici, biologici, energetici, economici e ambientali.
Apprendimento su architetture parallele e distribuite. Tecnologie e tecniche di acquisizione dei dati, multiple source data, data pre-processing, circuiti e algoritmi per l’apprendimento scalabile e decentralizzato (consensus learning, ADMM, etc.), Deep Learning distribuito, apprendimento semi-supervisionato distribuito, Machine Learning per l’IoT/IoE, apprendimento multi-agente cooperativo e competitivo, energy efficient distributed learning, distributed pattern recognition.
Applicazioni in laboratorio. Realizzazione di architetture di filtraggio classiche; implementazione di reti neurali e neurofuzzy; ottimizzazione mediante algoritmi evolutivi; architetture per il Deep Learning; utilizzo di nodi di calcolo e reti di sensori distribuiti basati su tecnologia Raspberry/Arduino/Galileo; programmazione su architetture GPU NVIDIA e multicore Intel.
Appunti e dispense forniti dal docente. H.T. Kung, R. Sproull e G. Steele, VLSI Systems and Computations, Springer. J.C. Principe, N.R. Euliano e W.C. Lefebvre, Neural and Adaptive Systems: Fundamental through simulations, J. Wiley & Sons.
|