Archives mensuelles : janvier 2019

IAMSI 2018-2019

Ressources IAMSI pour l’année 2018-2019.

Annonces importantes

  • L’examen réparti 1 a lieu le mercredi 20 mars, de 13h45 à 15h45, dans l’amphi 44. Aucun document n’est autorisé durant l’examen.
  • IMPORTANT: pour avoir des informations, pour toute question, pensez à vous inscrire sur le channel IAMSI du mattermost du Master : cliquer ici pour y aller

 

Barème de l’UE

  • la note finale de l’UE est calculée comme suit:
    NoteFinale = 2*(Exam1 + Exam2) + CRTP avec:

    • NoteFinale: note finale sur 100
    • Exam1: note de l’examen réparti 1 (mars) sur 20
    • Exam2: note de l’examen réparti 2 (mai) sur 20
    • CRTP: note de compte-rendus des séances de TP sur 20

 

Annales

Cours 1

Introduction à l’intelligence artificielle

  1. Introduction générale (Introduction)
  2. Très brève histoire de l’intelligence artificielle (transparents)

Jeux: min-max et alpha-beta

Cours 2

Résolution de problèmes

  • Introduction générale à la résolution de problème (transparents)

Systèmes de production – logique des propositions

Cours 3

Systèmes de production – premier ordre

  • Système de production en logique des prédicats – syntaxe CLIPS et exemples (transparents)
  • Algorithmique des système de production en logique des prédicats – algorithme de RETE (transparents)

Cours 4

SAT: Problème de Satisfiabilité – algorithmes et applications

  • Rappels logiques, problèmes SAT, principes des solveurs SAT (DP, DPLL et CDCL), applications, encodages (contraintes de cardinalité et encodage de valeurs), application à la résolution de problème aux CSP et à la planification (transparents)
  • TD4
  • TME4

Cours 5

Raisonnement non monotone

  • Raisonnement non monotone, hypothèse du monde fermé, logique des défauts, circonscription et « Answer Set Programming » (partie 1, partie 2)

Sémantique des ASP

TD-TME

Cours 6

Implémentation des ASP

  • Implémentations des ASP, énumérations, contraintes, domaines, etc. (transparents)

Cours 7

Planification

  • Ethique computationnelle en ASP
  • Principe de la planification, STRIPS

Cours 8

Planification (suite)

  • Planification en ASP
  • Calcul des situations, planification non linéaire

Cours 9

Règles d’association

  • Principes et algorithmes

Cours 10

Apprentissage supervisé et arbres de décision

Ressources partie Apprentissage Symbolique du module ASWS

Ressources partie Apprentissage Symbolique du module ASWS

Cours 1

TD 1

  • TME1: logique et Prolog

Logiciels

  • SWI Prolog (http://www.swi-prolog.org/)
  • logiciel Protégé (http://protege.stanford.edu/)
  • logiciel Orange (http://orange.biolab.si/)

Bibliographie

Cours 2

TD 2

Cours 3

TD3

Cours 4

  • Inversion de la résolution (cours)
  • CBR et analogie (cours)
  • Séquences (cours 1, cours 2) –
  • Humanités numériques: intertextualité, détection d’homologies et de plagiat (cours)

TD4

Cours 5

TD5

  • Algorithmes génétiques (cours)

Cours 6

TD6

Cours 7

TD7

Semaine 12 : exposés du 21/01/2019

Pour le 21/01/2019

Travail à faire par binôme.

Choisir un papier dans la liste ci-dessous. Trouver un autre papier sur une thématique proche et qui ne soit pas dans la liste.

Préparer une présentation de 10 mn par binôme et un rapport de 4 pages max décrivant la problématique étudiée et  le travail réalisé dans ces papiers.

Tout le monde assiste à toute la journée de présentation, dans la mesure du possible.

Modèles génératifs

Almahairi, A., Rajeswar, S., Sordoni, A., Bachman, P. and Courville, A. 2018. Augmented CycleGAN: Learning Many-to-Many Mappings from Unpaired Data. ICML (2018), PMLR 80:195-204.

Dinh, L., Sohm-Dickstein, J. and Bengio, S. 2017. Density Estimation using Real NVP. Iclr (2017).

Grathwohl, W., Chen, R.T.Q., Bettencourt, J., Sutskever, I. and Duvenaud, D. 2019. FFJORD: Free-Form Continuous Dynamics for Scalable Reversible Generative Models. ICLR (2019).

Kingma, D.P. and Dhariwal, P. 2018. Glow : Generative Flow with Invertible 1 ⇥ 1 Convolutions. NIPS (2018).

Pajot A., de Bezenac E., Gallinari P.,  Unsupervised Adversarial Image Reconstruction, ICLR 2019.

Systèmes dynamiques

Chen, T.Q., Rubanova, Y., Bettencourt, J. and Duvenaud, D. 1987. Neural Ordinary Differential Equations. (1987), 1–19. – best paper Nips 2018

Videos

Denton, E. and Birodkar, V. 2017. Unsupervised Learning of Disentangled Representations from Video. NIPS (2017), 4414–4423.

Denton, E. and Fergus, R. 2018. Stochastic Video Generation with a Learned Prior. ICML (2018), 1182–1191.

Lee, A.X., Zhang, R., Ebert, F., Abbeel, P., Finn, C. and Levine, S. 2018. Stochastic Variational Video Prediction. ICLR (2018).

Text generation and generative models

Subramanian, S., Sai, R., Sordoni, A., Trischler, A., Courville, A. and Pal, C. 2018. Towards Text Generation with Adversarially Learned Neural Outlines. Neural Information Processing Systems (NIPS). Nips (2018), 1–13.

Wang, H., Qin, Z. and Wan, T. 2018. Text generation based on generative adversarial nets with latent variables. (2018). ArXiv 1712.00170

Hu, Z., Yang, Z., Liang, X., Salakhutdinov, R. and Xing, E.P. 2017. Toward Controlled Generation of Text. ICML (2017), PMLR 70:1587-1596.

Xu, J., Ren, X., Lin, J. and Sun, X. 2018. DP-GAN: Diversity-Promoting Generative Adversarial Network for Generating Informative and Diversified Text. EMNLP (2018).

Guan, J., Li, R., Yu, S. and Zhang, X. 2018. Generation of Synthetic Electronic Medical Record Text. 1812.02793v1 (2018)

Learning text representations

Peters, M.E., Neumann, M., Iyyer, M., Gardner, M., Clark, C., Lee, K. and Zettlemoyer, L. 2018. Deep contextualized word representations. NAACL (2018), 2227–2237.

Devlin, J., Chang, M.-W., Lee, K. and Toutanova, K. 2018. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. http://arxiv.org/abs/1810.04805 (2018).

Dialogue

Serban, I.V., Sordoni, A., Charlin, L., Pineau, J., Courville, A. and Bengio, Y. 2017. A Hierarchical Latent Variable Encoder-Decoder Model for Generating Dialogues. AAAI (2017), 3295–3301.