M2 Parcours IA²VR – Planification, Apprentissage et Contrôle pour la robotique

Pour résoudre un problème complexe, un système robotisé évoluant dans un environnement constitué d’obstacles doit être capable d’agir et de raisonner à plusieurs niveaux : il doit pouvoir reconnaître les situations rencontrées et planifier une séquence de tâches, construire une trajectoire en tenant compte des obstacles et de ses contraintes de mouvement, et enfin contrôler ses mouvements avec précision pour prévenir des dérives et s’adapter aux nouveaux obstacles.

Cette UE se concentre sur la chaîne de traitements permettant de contrôler un robot à partir d’une tâche définie à haut niveau. Elle aborde, séquentiellement, les différents niveaux allant du symbolique et abstrait au continu :

  • modélisation probabiliste pour la prise de décision dans l’incertain — comment représenter un problème de décision haut niveau et mettre à jour les connaissances du robot sur son environnement à partir d’informations partielles et bruitées ;
  • apprentissage par renforcement pour identifier les modèles du robot et de son environnement — comment apprendre un modèle probabiliste en agissant dans le monde pour résoudre une tâche ;
  • planification de trajectoire dans une carte connue — comment calculer une trajectoire optimale vers un but donné dans un environnement connu et réalisable par un robot en fonction de ses caractéristiques ;
  • suivi d’une trajectoire avec évitement d’obstacle — comment calculer les commandes à envoyer aux moteurs d’un robot mobile pour suivre la trajectoire planifiée tout en évitant des obstacles qui n’étaient pas présents dans la carte.

À l’issue de cette UE, les étudiants seront capables de mettre en œuvre les différentes couches d’un système de prise de décision permettant de contrôler un robot pour résoudre un problème défini à haut-niveau.

Prérequis

  • Connaissances de base en mathématiques (probabilités, matrices).
  • Connaissances de base en algorithmique (tri, parcours de graphe).

Acquis d’apprentissage

  • Modélisation probabiliste de systèmes dynamiques (réseau bayésien dynamique, chaîne de Markov cachée).
  • Prise de décision dans l’incertain (processus décisionnel de Markov) et apprentissage par renforcement.
  • Notion de robot non holonome et d’espace de configuration
  • Planification de chemin à l’aide d’algorithmes déterministes (A*) et stochastiques (RRT, RRT*)
  • Contrôle réactif (Braitenberg, champ de force) et basé modèle (MPC, cinématique inverse) d’un système robotique

Compétences visées

  • Définir et paramétrer un modèle d’apprentissage automatique pour une tâche donnée, modéliser et manipuler un système stochastique.
  • Concevoir un système robotique intégré et son modèle cinématique ou dynamique, planifier la séquence de tâches d’un système robotique, maîtriser un logiciel de simulation robotique.
  • Modéliser et traiter un environnement 2D et 3D, modéliser et analyser géométriquement des objets et des environnements, planifier le mouvement d’un robot.