Cours
- Cours 1 : Intro, arbres de décision, sélection de modèles
- Cours 2 : Classification bayésienne, estimation de densité
- Cours 3 : Modèles linéaires, Descente de gradient, Perceptron (complément : blog sur les différentes versions de la descente du gradient)
- Cours 4 : SVM, Noyaux
- Cours 5 : Réseau de neurones
- Cours 6 : Théorie de l’apprentissage, Boosting
- Cours 7 : Non supervisé
- Cours 8 : Processus Gaussien
- Cours 9 : Reinforcement Learning (intro)
- Cours 10 : Apprentissage sur graphes
TDs
- TD 1 : Rappels MAPSI, Entropie
- TD 2 : Estimation de densité, K-NN
- TD 3 : Descente de gradient, Régression linéaire et logistique
- TD 4 : Perceptron et expressivité
- TD 5 : SVM
- TD 6 : Réseau de neurones
- TD 7 : Kernels et Boosting
- TD 8 : Non supervisé
- TD 9 : Reinforcement Learning
- TD 10 : Inférence Variationnelle
TMEs
- TME 1 : Sélection de modèles et arbres de décisions (données imdb)
- TME 2 : Estimation de densité (données et code source)
- TME 3 : Descente de gradient, régression (squelette code source)
- TME 4 : Perceptron et projection (squelette et données)
- TME 5 : SVM
- TME 6 : projet (réseaux de neurones) (squelette de code)
- TME 7 : Boosting et Bagging (code + données)
- TME 8 : Apprentissage de dictionnaire et inpainting (squelette)
- TME 9 : Reinforcement Learning (squelette)
- TME 10 : Processus Gaussien
TPs sur la PPTI
Pour se connecter, en ssh en passant par la passerelle ssh.ufr-info-p6.jussieu.fr, puis ppti-14-502-XX (XX=01 à 16) ou ppti-14-407-XX (ou n’importe quelle autre salle).
Vous pouvez lancer un jupyter lab a distance sur ces machines : il faut pour cela rajouter dans votre .ssh/config (sous linux)
Host ppti
User votre_login
Hostname ssh.ufr-info-p6.jussieu.fr
Host *.ppti
User votre_login
ProxyCommand ssh ppti -W $(basename %h .ppti):%p
Puis faire ssh -L8888:localhost:8888 ppti-14-502-XX.ppti
et lancer jupyter lab
sur la machine distance. En local, vous utilisez l’adresse habituelle de jupyter, http://localhost:8888.
Sur les salles 502 et 407, en plus du /tmp, vous avez également un répertoire /tempory qui est semi-permanent (n’est pas nettoyé à chaque reboot, mais plus rarement) de plus de 300Go, dans lequel vous pouvez travailler quand vous avez besoin de place.
Annales :
- 2014-2015 : Examen, Rattrapage
- 2015-2016 : Partiel, Examen
- 2016-2017 : Partiel, Exam, Rattrapage
- 2017-2018 : Partiel, Exam, Rattrapage
Bibliographie/liens utiles
Cours on-line :
- Cours de J. Corso, Buffalo University
- Cours de K. Murphy, Brown University
- Cours A. Smola, Canergie Mellon University
- Cours A. Ng, Stanford University
- Cours T. Mitchell, Stanford University
- Cours K. Weinberger, Cornell University
- Cours N. de Freitas, British Columbia University
Livres :
- Element of Statistical Learning, Hastie, Tibshirani and Friedman (la référence)
- Pattern Classification, Duda, Hart and Stork
- Machine Learning, T. MitchellPattern Recognition, C. Bishop
- Reinforcement Learning, Barto et Sutton
- Deep Learning, Goodfellow, Bengio, et Courteville
Python
- Tuto MAPSi
- Autre très bon tuto (A. Gramfort, Telecom)
- Python en 10 min
- De matlab à Numpy
- Le tuto officiel