Cours :
- Cours 1 : Introduction
- Cours 2 : Classification bayésienne, estimation de densité
- Cours 3 : Modèles linéaires, Descente de gradient, Perceptron
- Cours 4 : SVM, Noyaux, Notes de cours 2019
- Cours 5 : Réseau de neurones
- Cours 6 : Théorie de l’apprentissage, Ensemble Learning, Multi-classe
- Cours 7 : Non supervisé
- Cours 8 : Processus Gaussien
- Cours 9 : Inférence collective, réseaux de Markov
- Cours 10 (bonus) : Reinforcement Learning
TD :
- TD 1 : Rappels de MAPSI
- TD 2 : Estimation de densité, K-NN
- TD 3 : Descente de gradient, régression linéaire et logistique, Perceptron
- TD 4 : Perceptron et expressivité
- TD 5 et 7 : SVM et noyaux
- TD 6 : réseau de neurones
- TD 7 : noyaux et boosting
- TD 8 : Non supervisé
- TD 10: Apprentissage variationel
TME :
- TME 1 : Sélection de modèles et arbre de décision (données imdb)
- TME 2 : Estimation de densité (données et code source)
- TME 3 : Descente de gradient, régression linéaire et logistique (mltools.py et squelette)
- TME 4 : Perceptron, projection (squelette et données)
- TME 5 : SVM
- TME 6 : Projet (entier) (squelette de code) (script de vérification)
- TME 7 : Boosting (code + données)
- TME 8 : K-means
- TME 9 : Processus gaussiens
TPs sur la PPTI
Pour se connecter, en ssh en passant par la passerelle ssh.ufr-info-p6.jussieu.fr, puis ppti-14-502-XX (XX=01 à 16) ou ppti-14-407-XX (ou n’importe quelle autre salle).
Vous pouvez lancer un jupyter lab a distance sur ces machines : il faut pour cela rajouter dans votre .ssh/config (sous linux)
Host ppti
User votre_login
Hostname ssh.ufr-info-p6.jussieu.fr
Host *.ppti
User votre_login
ProxyCommand ssh ppti -W $(basename %h .ppti):%p
Puis faire ssh -L8888:localhost:8888 ppti-14-502-XX.ppti
et lancer jupyter lab
sur la machine distance. En local, vous utilisez l’adresse habituelle de jupyter, http://localhost:8888.
Sur les salles 502 et 407, en plus du /tmp, vous avez également un répertoire /tempory qui est semi-permanent (n’est pas nettoyé à chaque reboot, mais plus rarement) de plus de 300Go, dans lequel vous pouvez travailler quand vous avez besoin de place.
Annales :
- 2014-2015 : Examen, Rattrapage
- 2015-2016 : Partiel, Examen
- 2016-2017 : Partiel, Exam, Rattrapage
- 2017-2018 : Partiel, Exam, Rattrapage
Bibliographie/liens utiles
Cours on-line :
- Cours de J. Corso, Buffalo University
- Cours de K. Murphy, Brown University
- Cours A. Smola, Canergie Mellon University
- Cours A. Ng, Stanford University
- Cours T. Mitchell, Stanford University
- Cours K. Weinberger, Cornell University
- Cours N. de Freitas, British Columbia University
Livres :
- Element of Statistical Learning, Hastie, Tibshirani and Friedman (la référence)
- Pattern Classification, Duda, Hart and Stork
- Machine Learning, T. Mitchell
- Pattern Recognition, C. Bishop
- Reinforcement Learning, Barto et Sutton
- Deep Learning, Goodfellow, Bengio, et Courteville
Python :
- Tuto MAPSi
- Autre très bon tuto (A. Gramfort, Telecom)
- Python en 10 min
- De matlab à Numpy
- Le tuto officiel