Cours :
- Cours 1 : Introduction, arbres de décision
- Cours 2 : Classification bayésienne, Estimation de densité
- Cours3 : Régression linéraire, logistique, descente de gradient
- Cours 4 : Perceptron
- Cours 5 : SVM, noyaux
- Cours 6 : Ensemble Learning, Multi-classes
- Cours7 : Réseau de neurones
- Cours 8 : Apprentissage non supervisé
- Cours 9 : Théorie de l’apprentissage et Reinforcement Learning (1)
- Cours 10 : Reinforcement Learning (2)
TD :
- TD 1 : Rappel probas et décision bayésienne
- TD2 : Estimation de densité, k-NN
- TD 3 : Descente de gradient
- TD 4 : Perceptron
- TD 5&6 : SVM, Noyaux
- TD 7 : Réseau de neurones
- TD 8 : K-means
TME :
- TME1 : énoncé (données imdb, code source : decisiontree.py)
- TME 2 : énoncé (données POI google map et code source)
- TME 3 : énoncé (code source, données USPS)
- TME 4&5: énoncé (code source , arftools.py)
- TME 6 : SVM, Noyaux
- TME 7 : Réseau de neurones
- TME 8 : K-means
- TME 9 : Reinforcement Learning (1) et (code source)
- TME 10 :
- Projet inpainting
Annales :
- 2014-2015 : Examen, Rattrapage
- 2015-2016 : Partiel, Examen
- 2016-2017 : Partiel, Exam, Rattrapage
Bibliographie/liens utiles
Cours on-line :
- Cours de J. Corso, Buffalo University
- Cours de K. Murphy, Brown University
- Cours A. Smola, Canergie Mellon University
- Cours A. Ng, Stanford University
- Cours T. Mitchell, Stanford University
- Cours K. Weinberger, Cornell University
- Cours N. de Freitas, British Columbia University
Livres :
- Element of Statistical Learning, Hastie, Tibshirani and Friedman (la référence)
- Pattern Classification, Duda, Hart and Stork
- Machine Learning, T. Mitchell
- Pattern Recognition, C. Bishop
Python :
- Tuto MAPSi
- Autre très bon tuto (A. Gramfort, Telecom)
- Python en 10 min
- De matlab à Numpy
- Le tuto officiel