Lien Mattermost : https://channel.isir.upmc.fr/signup_user_complete/?id=5kmq4owj5bg7mfmrqax3easgfc
Cours
- Cours 1 : Intro, arbres de décision, sélection de modèles
- Cours 2 : Classification bayésienne, estimation de densité
- Cours 3 : Modèles linéaires, Descente de gradient, Perceptron (complément : blog sur les différentes versions de la descente du gradient)
- Cours 4 : SVM, Noyaux
- Cours 5 : Réseau de neurones
- Cours 6 : Apprentissage non supervisé
- Cours 7 : Théorie de l’apprentissage, Ensemble Learning, Mesures d’évaluation
- Cours 8 : Processus Gaussien
- Cours 9 : RL
TDs
- TD 1 : Rappels MAPSI, Entropie – (correction)
- TD 2 : Estimation de densité, K-NN
- TD 3 : Descente de gradient, Régression linéaire et logistique
- TD4 : Perceptron et expressivité
- TD 5 (MLL) : SVM
- TD 5 (ML) : Réseaux de neurones
- TD 6 : SVM
- TD 7 : Clustering
- TD8 : Reinforcement learning
TMEs
- TME 1 : Sélection de modèles et arbres de décisions (données imdb)
- TME 2 : Estimation de densité (données et code source)
- TME 3 : Descente de gradient, régression (squelette code source)
- TME 4 : Perceptron et projection (squelette et données)
- TME 5 (MLL) : SVM
- TME 5 (ML) : projet (squelette de code)
- TME 6: Non supervisé
- TME 6 bonus : Apprentissage de dico et Inpainting
- TME 7 : Processus Gaussien
- TME 8 : Reinforcement learning (squelette de code)
TPs sur la PPTI
Pour se connecter, en ssh en passant par la passerelle ssh.ufr-info-p6.jussieu.fr, puis ppti-14-502-XX (XX=01 à 16) ou ppti-14-407-XX (ou n’importe quelle autre salle).
Vous pouvez lancer un jupyter lab a distance sur ces machines : il faut pour cela rajouter dans votre .ssh/config (sous linux)
Host ppti
User votre_login
Hostname ssh.ufr-info-p6.jussieu.fr
Host *.ppti
User votre_login
ProxyCommand ssh ppti -W $(basename %h .ppti):%p
Puis faire ssh -L8888:localhost:8888 ppti-14-502-XX.ppti
et lancer jupyter lab
sur la machine distance. En local, vous utilisez l’adresse habituelle de jupyter, http://localhost:8888.
Sur les salles 502 et 407, en plus du /tmp, vous avez également un répertoire /tempory qui est semi-permanent (n’est pas nettoyé à chaque reboot, mais plus rarement) de plus de 300Go, dans lequel vous pouvez travailler quand vous avez besoin de place.
Annales :
- 2014-2015 : Examen, Rattrapage
- 2015-2016 : Partiel, Examen
- 2016-2017 : Partiel, Exam, Rattrapage
- 2017-2018 : Partiel, Exam, Rattrapage
Bibliographie/liens utiles
Cours on-line :
- Cours de J. Corso, Buffalo University
- Cours de K. Murphy, Brown University
- Cours A. Smola, Canergie Mellon University
- Cours A. Ng, Stanford University
- Cours T. Mitchell, Stanford University
- Cours K. Weinberger, Cornell University
- Cours N. de Freitas, British Columbia University
Livres :
- Element of Statistical Learning, Hastie, Tibshirani and Friedman (la référence)
- Pattern Classification, Duda, Hart and Stork
- Machine Learning, T. Mitchell
- Pattern Recognition, C. Bishop
- Reinforcement Learning, Barto et Sutton
- Deep Learning, Goodfellow, Bengio, et Courteville
- A course in Machine Learning, Hal Daumé III (le plus abordable et simple)
Python
- Tuto MAPSi
- Autre très bon tuto (A. Gramfort, Telecom)
- Python en 10 min
- De matlab à Numpy
- Le tuto officiel