IMPORTANT Votre environnement de travail doit être mis en place en suivant les instructions sur cette page.
Cours 1 :
- Introduction générale
- Introduction à l’apprentissage par renforcement
- Markov Decision Processes
- Dynamic Programming
TP 1
Utiliser « sauvegarder le lien sous… » en faisant un clic-droit sur le lien suivant Carnet « Programmation Dynamique«
Cours 2 :
TP 2 (26/9/2022)
Utiliser « sauvegarder le lien sous… » en faisant un clic-droit sur le lien suivant : Carnet « RL tabulaire: TD(0), SARSA et Q-Learning »
Cours 3
TP 3 (3 octobre 2022)
Utiliser « sauvegarder le lien sous… » en faisant un clic-droit sur le lien suivant :
Cours 4
TP 4 (10 octobre 2022)
Cours 5 :
- Policy search : introduction and definition
- Policy Gradient methods : part 1, part2, part 3
- PG with baseline versus Actor-Critic
- Bias variance trade-off
- Off-policy learning
TD 5 (17 octobre 2022)
Cours 6 :
TD 6 (24 octobre 2022)
Cours 7 :
TD 7 (7 novembre 2022)
Cours 8 :
- Goal-Conditioned RL
- Evolutionary methods versus RL
- Automatic hyper-parameter tuning
- Imitation Learning
- Wrap-Up
TP 8 (28 novembre 2022)
TP 9 (5 décembre 2022)
Variational AutoEncoders (VAE)
TP 10 – Generative Adversarial Networks (12 décembre 2022)
Carnet GAN (aussi : Colab)
TP 11 – Generative Adversarial Imitation Learning (9 janvier 2023)
Carnet GAN (version Colab)
Données expert (fichier pickle)
TP 12 – Flow (16 janvier 2023)
TP 13 – Diffusion Model (23 janvier 2023)
Carnet Diffusion: version normale et version Colab
TP 14 – Neural ODE (30 janvier 2023)