Inizio della pagina -
Logo DISCO
|
Visita la Versione ad elevata leggibilità
|
Vai al Contenuto della pagina
|
Vai alla Fine dei contenuti
|
Vai al Menu Principale
|
Vai alla Barra di navigazione (sei in)
|
Vai al Menu di navigazione (albero)
|
Vai alla Lista dei comandi
|
Vai alla Lista degli approfondimenti
|
Vai al Menu inferiore
|
Logo Ateneo
   
Per gli Studenti
Apprendimento automatico

Codice ins.

Insegnamento

CFU ins.

Anno

Sem.

SSD ins.

Responsabile insegnamento

F1801Q134

Apprendimento automatico

6

1

2

INF/01

MAURI Giancarlo

Contenuti:
Il corso fornirà una approfondita presentazione della vasta collezione di nuovi metodi e strumenti che si sono resi disponibili negli ultimi anni per lo sviluppo di sistemi autonomi di apprendimento e di supporto alla analisi di dati multivariati. Questi strumenti comprendono le reti neurali, i modelli di Markov nascosti, le reti di credenza, gli alberi di decisione, così come combinazioni sempre più sofisticate di queste architetture. Le applicazioni includono la predizione in condizioni di informazione incompleta, la classificazione, l’analisi di serie temporali, la diagnosi, l'ottimizzazione, l’ identificazione e il controllo di sistemi, l’analisi esplorativa dei dati e molti altri problemi in statistica, machine learninge data mining.

Obiettivi formativi:
Il corso si propone di introdurre gli elementi di base e di fornire i concetti e gli strumenti fondamentali, basati su metodi computazionali, per rappresentare l’apprendimento, la conoscenza e il ragionamento in condizioni di incertezza.
Lo studente sarà in grado di progettare e sviluppare strumenti software basati su tecniche di apprendimento automatico per risolvere semplici problemi di analisi di dati, knowledge discovery e supporto alle decisioni in presenza di informazione incerta o incompleta.
Le capacità acquisite sono alla base dello sviluppo di sistemi evoluti di data mining e knowledge discovery e di applicativi software specifici in sistemi di supporto alle decisioni.

Prerequisiti:
Conoscenze di base su algoritmi e strutture di dati
Elementi di calcolo delle probabilità e statistica

Metodi didattici:
Il corso consisterà di lezioni frontali ed esercitazioni.

Programma esteso

  1. Apprendimento di concetti dalle osservazioni
    • Spaziodelleipotesi
    • Ordinamentodelleipotesi
    • Algoritmo di eliminazionedeicandidati
    • AlgoritmoFind-S
  2. Alberi di decisione
    • Rappresentazione degli alberi di decisione
    • Algoriymo ID3
    • Entropia, guadagno di informazione
    • Overfitting
  3. Teoria computazionale dell’apprendimento
    • Definizioni ed esempi
    • Formalizzazione dello scenario
    • Limiti superiori e inferiori e Dimensione di Vapnik-Chervonenkis
    • Mistake bound, Teorema di Littlestone, halving
  4. Apprendimento statistico
    • Teorema di Bayes
    • Ipotesi MAP, ML, MDL
    • Algoritmo di Gibbs e di maggioranza pesata
    • Classificatore bayesiano ottimo
    • Classificatore bayesiano ingenuo
    • Apprendimento con variabili nascoste: l’algoritmo EM
    • Modelli di Markov nascosti
  5. Reti neurali
    • Introduzione
    • Percettrone, regola di apprendimento e teorema di convergenza
    • Percettrone multistrato e retropropagazione dell'errore
    • Reti Neurali cicliche o ricorsive
      • Reti di Jordan
      • Reti di Elman
      • Reti di Hopfield (concetto di memoria associativa, regola di apprendimento di Hebb).
  6. Macchine a vettori di supporto
    • Introduzione
    • Metodi kernel
  7. Apprendimento per rinforzo
  8. Apprendimento non supervisionato

Testi di riferimento
S. Russel, P. Norvig,Intelligenza artificiale, Vol. 2, Capp. 18-21, Pearson-Prentice Hall
S. Marsland,Machine Learning: An Algorithmic Perspective, CRC Press
T. Mitchell, Machine Learning, McGraw Hill

Modalità di verifica dell'apprendimento:
esame finale

Tipo esame:
Scritto e orale separati

Tipo valutazione:
Voto finale

Course code

Course title 

Credits

Year

Semester

Scientific  sector code

Responsible for teaching

F1801Q134

Machine learning

6

1

2

INF/01

MAURI Giancarlo

Contents:
The course will provide an in-depth discussion of the large collection of new methods and tools that have become available in recent years for developing autonomous learning systems and for aiding in the analysis of complex multivariate data. These tools include neural networks, hidden Markov models, belief networks, decision trees, memory-based methods, as well as increasingly sophisticated combinations of these architectures. Applications include prediction, classification, fault detection, time series analysis, diagnosis, optimization, system identification and control, exploratory data analysis and many other problems in statistics, machine learning and data mining.

Learning  outcomes:
The course aims to introduce the basic elements and provide the basic concepts and tools based on computational methods, to represent the learning, knowledge and reasoning under uncertainty.
The student will be able to design and develo psoftware systems based on machine learning techniques to solve simple problems of data analysis, knowledge discovery and decision suppor tin the presence of uncertain or incomplete information.
Acquired skills are the basi sfor the developmentof advanced data mining and knowledge discovery and application specific software systems in decision support.

Prerequisites:
Basic knowledge of algorithms and data structures.
Elements of probability and statistics

Teaching methods:
The course will consist of lectures and exercise sessions

Textbooks:
S. Russel, P. Norvig, Intelligenza artificiale, Vol. 2, Capp. 18-21, Pearson-Prentice Hall
S. Marsland, Machine Learning: An AlgorithmicPerspective, CRC Press
T. Mitchell, Machine Learning, McGraw Hill
Extended program

  1. Conceptlearning
    • Hypotheses space
    • General-tospecificorderingofhypotheses
    • Version spaces and candidate elimination algorithm
    • Find-S Algorithm
  2. Decision trees
    • Decision tree representation
    • ID3 learning algorithm
    • Entropy, information gain
    • Overfitting
  3. Computational learning theory
    • Definitions and examples
    • Upper and lower bound, Vapnik-Chervonenkis Dimension
    • Mistake bound, Littlestone theorem, halving
  4. Bayesian Learning
    • Introduction
    • Bayestheorem
    • Ipotheses MAP, ML, MDL
    • Gibbs algorithm; weighted majority algorithm
    • Optimal Bayes classifier
    • NaiveBayesclassifier
    • EM algorithm
  5. Neural networks
    • Introduction
    • Perceptron and convergente theorem
    • Multilayerperceptron and error back propagation
  6. Support vector machines
    • Introduction
    • Kernel methods
  7. Reinforcement learning
  8. Unsupervised learning techniques

Assessment methods:
Final exam

Examination:
Written and oral separated

Evaluation Type:
Final grade

Approfondimenti

Google Translate
Translate to English Translate to French Translate to German Translate to Spanish Translate to Chinese Translate to Portuguese Translate to Arabic
Translate to Albanian Translate to Bulgarian Translate to Croatian Translate to Czech Translate to Danish Translate to Dutch Translate to Finnish Translate to Greek Translate to Hindi
Translate to Hungarian Translate to Irish Translate to Japanese Translate to Korean Translate to Norwegian Translate to Polish Translate to Romanian Translate to Russian Translate to Serbian
Translate to Slovenian Translate to Swedish Translate to Thai Translate to Turkish

(C) Copyright 2016 - Dipartimento Informatica Sistemistica e Comunicazione - Viale Sarca, 336
20126 Milano - Edificio U14
redazioneweb@disco.unimib.it - ultimo aggiornamento di questa pagina 24/06/2013