Systèmes dynamiques multi-agents. Application au vol en formation de drones

Ref: 2EL1130

Description

Nombreuses sont les applications qui font intervenir une formation de plusieurs systèmes autonomes, capables de coopérer dans un environnement précis et de se reconfigurer pour la réussite de la mission. Notamment, le vol en formation (drones, satellites, etc.), la fluidité de la circulation automobile ou le comportement des piétons dans une foule permettent de mettre en avant la notion de système dynamique multi-agents.

Dans le cadre de missions de sauvetage (extinction de feux à large échelle, recherche de victimes suite à des avalanches ou de boîtes noires dans un vaste environnement, etc.), la coordination et la commande d’une flotte de véhicules autonomes deviennent un élément clé de la réussite. Ces missions multi-agents posent des questions de répartition des tâches entre les agents, de planification de trajectoire, et induisent des problématiques de commande en temps réel sous contraintes etc. Les thématiques abordées dans ce cours permettront aux étudiants de comprendre les concepts et les défis liés aux systèmes dynamiques multi-agents à partir d’une application sur une formation de drones.

Des expérimentations dans la volière de CentraleSupélec sur des nano-drones Crazyflie, des mini-drones DJI RoboMaster TT, sur des robots terrestres TurtleBot et DJI RobotMaster S1, ainsi qu'à distance sur la plateforme Robotarium sont prévues dans le cadre de ce cours.

Numéro de trimestre

SG8

Prérequis

Commande des systèmes dynamiques  (ST5)

Syllabus

Ce cours s’appuie sur une collaboration avec ONERA et le laboratoire Heudiasyc.
Le plan proposé est le suivant :
  • Introduction : bref historique, contexte industriel et académique ;
  • Modélisation dynamique des systèmes multi-agents (MAS) ;
  • Outils spécifiques MAS : notions de flotte / essaim et de formation, graphe de communication, consensus ;
  • Modélisation et prise en main de drones et robots terrestres ;
  • Structures de commande de systèmes multi-agents ;
  • Prise en compte des contraintes dans la loi de commande coopérative ;
  • Raffinement des lois de commande et analyse des résultats ;
  • Ouverture vers les systèmes multi-agents dans les missions spatiales.
Une étude de cas tutoré est prévue en fil conducteur tout au long de ce module, permettant de tester à la fois en simulation et sur une flotte de drones et/ou de robots terrestres les concepts étudiés.

Des expérimentations sont prévues dans la volière de CentraleSupélec.
Voir expérimentations en 2022 : https://twitter.com/centralesupelec/status/1535211296240685057

Composition du cours

Ce module est composé de séances type cours intéractif alternées avec des TD et une étude de cas (réalisée en équipe sur un sujet proposé par les étudiants) qui servira de fil conducteur pendant toute la durée du module électif pour concrétiser l’implantation sur des drones et robots mobiles. L’étude de cas suivra la progression du cours, comme un complément permettant l’acquis des compétences d’ordre pratique. Des méthodes de pédagogie active du type Apprentissage par Problèmes (APP) en petits groupes tutorés sont envisagées pendant les études de cas sur l’application à une formation de drones.
Les élèves découvriront les systèmes dynamiques multi-agents par une succession d’exemples, d’exercices de réflexion, de discussions et d’orientation théorique et pratique. Une estimation du volume horaire (30,5h en présentiel) est la suivante : 13,5h type cours interactif, 6h pour les TD, 9h pour l’étude de cas et 2h pour l’évaluation des posters interactifs, avec des expérimentations dans la volière.

Notation

Les modalités d’évaluation ont été conçues afin de respecter l’alignement objectifs – activités – évaluations. Un rapport (contenant une étude bibliographique et une analyse des résultats obtenus pendant l'étude de cas) sera réalisé et noté. Les résultats obtenus seront présentés à l’aide d’un poster interactif devant un jury et avec un regard croisé des autres groupes (évaluation par les pairs). La note finale est calculée à partir de l’évaluation du rapport (50%) et l’évaluation du poster interactif, tant sur sa réalisation que sur sa présentation orale (50%).
Une évaluation par compétences est également envisagée. Les compétences C1, C2, C5, C7 et C8 seront évaluées.

Ressources

Equipe pédagogique : Cristina Stoica, Cristina Vlad, Sorin Olaru

Equipe enseignante (liste provisoire) : Sylvain Bertrand (ONERA), Pedro Castillo (UTC Heudiasyc), Cristina Stoica, Cristina Vlad, Sorin Olaru.

Un financement via le projet MEECOD Moderniser l’Enseignement par l’Expérimentation sur la Coordination de Drones, avec le soutien de l’UPSaclay, projet « Initiatives Pédagogiques – Oser ! » 2018, N°FOR-2018-070, a été obtenu pour l’achat du matériel nécessaire pour ce cours (équipements volière CentraleSupélec, plusieurs drones Crazyflie et robots terrestres TurtleBot, etc.) et la contribution à la création de la volière de CentraleSupélec (salle VI.003, bâtiment Eiffel).

Un financement via le projet DAReTeach – Drone Arenas-based Remote International Teaching de la Fondation FACE – French-American Cultural Exchange in Education and the Arts a permis de compléter la flotte de drones Crazyflie.

Un financement via le projet (Re)CreativeRobot – (Re)Creative Mobile Robotics for Kids de la Fondation International Federation of Automatic Control a permis de compléter la flotte de drones et de robots terrestres DJI.

Résultats de l'apprentissage couverts par le cours

A l’issue de ce module, les élèves seront capables de :
  1. Décrire et reconnaitre le comportement d’un système multi-agents en effectuant une étude bibliographique de travaux précédemment effectués sur le sujet ;
  2. Modéliser un système multi-agents en proposant une représentation d’état du système qui donnera lieu à la mise en place d’un simulateur ;
  3. Analyser et traduire un cahier des charges, ainsi que proposer une structure de loi de commande pour un système multi-agents, en suivant une démarche d’analyse à base d’un modèle de synthèse/simulation ;
  4. Synthétiser une loi de commande pour le système multi-agents et la valider en simulation, en complétant le simulateur ;
  5. Appliquer une loi de commande à un système multi-agents réel (une formation de drones, de véhicules terrestres) en suivant une démarche de prise en main des drones/véhicules autonomes, d’ajustement des algorithmes de commande développés et de validation expérimentale.

Description des compétences acquises à la fin du cours

  • C1.2 – Modeling: using and developing the appropriate models, choosing the right modeling scale and the relevant simplifying assumptions
  • C1.4 – Design: specify, implement and validate all or part of a complex system
  • C2.3 – Identify and independently acquire new knowledge and skills
  • C5.3 – Analyze global and / or local issues internationally and adapt projects or solutions to them
  • C7.1 – Know how to convince basically: Structure your ideas and arguments, be synthetic (assumptions, objectives, expected results, approach and value created)
  • C7.3 – Know how to convince about yourself: Being comfortable and being convinced, showing empathy and managing your emotions
  • C8.1 – Build the collective to work as a team
  • C8.2 – Mobilize and train a collective by showing leadership

Support de cours, bibliographie

Bibliographie
  • MOOC « Drones et Robotique Aérienne » (DroMOOC), www.onera.fr/dromooc, Université Paris-Saclay, 2018.
  • K.K. Oh, M.C. Park, H.S. Ahn, “A survey of multi-agent formation control”, Automatica, vol. 53, pp. 424-440, 2015.
  • J.A. Guerrero, P. Castillo, S. Salazar, R. Lozano, “Mini Rotorcraft Flight Formation Control Using Bounded Inputs”, Journal of Intelligent & Robotic Systems, vol. 65, pp. 175-186, 2012.
  • J. Guerrero, R. Lozano, “Flight Formation Control”, John Wiley & Sons, 2012.
  • I. Prodan, “Commande des systèmes dynamiques Multi-Agents en présence de contraintes”, thèse de doctorat, Supélec, 2012.
  • M.T. Nguyen, “Commande prédictive sous contraintes de sécurité pour des systèmes dynamiques Multi-Agents”, thèse de doctorat, Université Paris-Saclay, 2016.
  • G. Rousseau, C. Stoica Maniu, S. Tebbani, M. Babel, N. Martin, “Quadcopter-performed cinematographic flight plans using minimum jerk trajectories and predictive camera control”, European Control Conference, Limassol, Cyprus, 12-15 June 2018.
  • Y. Rochefort, H. Piet-Lahanier, S. Bertrand, D. Beauvois, D. Dumur, “Model predictive control of cooperative vehicles using systematic search approach”, Control Engineering Practice, vol. 32, pp. 204-217, 2014.
  • N. Michel, S. Bertrand, G. Valmorbida, S. Olaru, D. Dumur. “Design and parameter tuning of a robust model predictive controller for UAVs”, IFAC World Congress, Toulouse, France, 2017.
  • Wilson, S., Glotfelter, P., Wang, L., Mayya, S., Notomista, G., Mote, M., & Egerstedt, M. The Robotarium: Globally Impactful Opportunities, Challenges, and Lessons Learned in Remote-Access, Distributed Control of Multirobot Systems. IEEE Control Systems Magazine, 40(1), 26-44, 2020.
  • C. Stoica Maniu, C. Vlad, T. Chevet, S. Bertrand, A. Venturino, G. Rousseau, S. Olaru, “Control systems engineering made easy: motivating students through experimentation on UAVs”, 21th IFAC World Congress, Demonstrator Late Breaking Results, Berlin, Germany, 12-17 July, 2020.

Exemples de réalisations pratiques
  • https://www.youtube.com/watch?v=hyGJBV1xnJI
  • https://www.youtube.com/watch?v=YQIMGV5vtd4
  • https://www.youtube.com/watch?v=fdrmahUPwaI
  • http://www.asctec.de/en/uav-uas-drones-rpas-roav/asctec-hummingbird/