![]() |
Show 150 posts per page |
.dsy:it. (http://www.dsy.it/forum/)
- Sistemi intelligenti (http://www.dsy.it/forum/forumdisplay.php?forumid=267)
-- Corso 2014-2015 (http://www.dsy.it/forum/showthread.php?threadid=43851)
Corso 2014-2015
Ciao a tutti!
Qualcuno è interessato ad avere informazioni riguardo al corso di quest'anno?
Io lo sto seguendo, quindi se c'è qualcuno interessato posso fare il diario del corso e tenervi aggiornati sulle notizie.
Certo, sì.
Grazie.
[Lezione 1]
Argomento: Introduzione al corso. L'intelligenza simbolica. La macchina di Turing e gli algoritmi. Il test di Turing e la stanza cinese di Searle. Altre forme di intelligenza (flock e particle, automi cellulari, ...).
Comunicazioni: Lo scritto è obbligatorio, poi si può fare l'orale oppure un progetto con robocode, kinect, mario kart o altro
Note: le videolezioni su virtualclassroom non sono aggiornate, alcuni argomenti sono stati recentemente inseriti e altri sono trattati in diverso modo, quindi risultano obsolete per le edizioni attuali del corso
Il corso consiste nel trattare i diversi approcci all'intelligenza artificiale e ai diversi tipi di apprendimento automatico.
[lezione 2]
Argomento: Gli insiemi fuzzy. I sistemi fuzzy.
Note: Di rilievo è la differenza tra fuzzyness e probabilità. I sistemi fuzzy saranno combinati con le reti neurali (un argomento trattato a fine corso) per dare vita ai sistemi neuro-fuzzy.
[lezione 3]
Argomento: Esercizi sui sistemi fuzzy
Note: non è necessario scendere nel dettaglio dei conti dell'esempio (velocità angolare etc..).
[lezione 4]
Argomento: Inferenza Statistica. Il teorema di Bayes.
Note: Fondamentale un energico ripasso di statistica, solo le slide non bastano ( a mio parere). I passaggi per ricavare gli stimatori di massima verosimiglianza sono da fare
[lezione 5]
Argomento: Apprendimento statistico. Massima verosimiglianza e risoluzione dei sistemi lineari.
Nota: Non ha fatto l'esempio del braccio meccanico che c'è sulle slide
[lezione 6]
Argomento: Relazione tra stima a massima verosimiglianza e soluzione dei sistemi lineari ai minimi quadrati. Valutazione dell'incertezza sulla stima. Linearizzazione di funzioni (in maniera molto fuzzy). Distribuzione di Poisson (moooolto velocemente). La bontà della stima
Nota: Ha detto che non chiederà il metodo di Gauss-Newton, non ha trattato la tecnica del gradiente e la minimizzazione - undermapping (magari la prossima lezione li fa..?).
Ottimo, molte grazie!
[lezione 7]
Argomenti: Stima a massima posteriori e regolarizzazione. Applicazione al filtraggio. Ruolo delle clique.
Note: Fino alla slide 23 bene. Poi per quanto riguarda il cambiamento degli a-priori, sistemi di vicinato, le clique e i campi di markov ha fatto solo l'idea generale, non è sceso nei particolari delle definizioni e delle proprietà.
[lezione 8]
Argomenti: Apprendimento in un setting non associativo. Caso stazionario e non stazionario. Tecniche greedy ed epsilon-greedy.
Note: tutto quello che c'è da sapere è sulle slide. Non ha fatto le ultime 3 slide.
[lezione 9]
Argomenti L'apprendimento con rinforzo nel caso di setting associativo. I modelli Markoviani. Calcolo della Q Function. La formulazione ricorsiva del calcolo della Q function.
Note: c'è tutto sulle slide. Ha fatto fino alla slide 37, in particolare non ha risolto il sistema a due equazioni e due incognite (giusto capire che simulando il problema, conoscendo l'ambiente, valuto le Q risolvendo il sistema).
All times are GMT. The time now is 15:55. | Show all 12 posts from this thread on one page |
Powered by: vBulletin Version 2.3.1
Copyright © Jelsoft Enterprises Limited 2000 - 2002.