Cours :
- Cours 1 : Introduction
- Cours 2 : Classification bayésienne, Estimation de densité
- Cours3 : Modèles linéaires, descente de gradient, perceptron
- Cours 4 : SVM, noyaux
- Cours 5 : Théorie apprentissage, Ensemble Learning, Multi-classes
- Cours 6 : Réseau de neurones
- Cours7 : Apprentissage non supervisé
- Cours 8: Reinforcement Learning
- Cours 9 : Modèles graphiques
TD :
- TD 1 : Rappel probas et décision bayésienne
- TD2 : Estimation de densité, k-NN
- TD 3 : Descente de gradient, Modèles linéaires
- TD 4 : Perceptron
- TD 5&6 : SVM, Noyaux
- TD 7 : Réseau de neurones
- TD 8 : Non supervisé
- TD 9 : Reinforcement Learning
TME :
- TME1 : énoncé (données imdb, code source : decisiontree.py)
- TME 2 : énoncé (données POI google map et code source)
- TME 3 : énoncé (code source, données USPS)
- TME 4 : énoncé (code source , arftools.py)
- TME 6 : SVM, Noyaux
- TME 7 : Réseau de neurones
- TME 8 : K-means
- TME 9: Reinforcement Learning (test gym)
Annales :
- 2014-2015 : Examen, Rattrapage
- 2015-2016 : Partiel, Examen
- 2016-2017 : Partiel, Exam, Rattrapage
- 2017-2018 : Partiel, Exam, Rattrapage
Bibliographie/liens utiles
Cours on-line :
- Cours de J. Corso, Buffalo University
- Cours de K. Murphy, Brown University
- Cours A. Smola, Canergie Mellon University
- Cours A. Ng, Stanford University
- Cours T. Mitchell, Stanford University
- Cours K. Weinberger, Cornell University
- Cours N. de Freitas, British Columbia University
Livres :
- Element of Statistical Learning, Hastie, Tibshirani and Friedman (la référence)
- Pattern Classification, Duda, Hart and Stork
- Machine Learning, T. Mitchell
- Pattern Recognition, C. Bishop
- Reinforcement Learning, Barto et Sutton
- Deep Learning, Goodfellow, Bengio, et Courteville
Python :
- Tuto MAPSi
- Autre très bon tuto (A. Gramfort, Telecom)
- Python en 10 min
- De matlab à Numpy
- Le tuto officiel