Thèse de Quentin Possamaï


Sujet :
Deep Learning et automatique pour le contrôle des drones

Résumé :

Dans le contexte du contrôle des drones, cette thèse aborde les contributions fondamentales à la croisée des chemins entre l'intelligence artificielle (IA) / apprentissage automatique (ML) et la théorie du contrôle (CT). Les deux domaines, tout en étant distincts, ont une longue histoire d'interactions entre eux et à mesure que les deux domaines mûrissent, leur chevauchement est de plus en plus évident. CT vise à fournir des approches basées sur des modèles différentiels pour résoudre les problèmes de stabilisation et d'estimation. Ces approches basées sur des modèles sont puissantes car elles sont basées sur une compréhension approfondie du système et peuvent tirer parti des relations physiques établies. Cependant, les modèles non linéaires doivent généralement être simplifiés et ils ont du mal à tenir compte des données bruyantes et des incertitudes non modélisées.

L'apprentissage automatique, quant à lui, vise à apprendre des modèles complexes à partir de (souvent de grandes quantités) de données et peut fournir des modèles basés sur les données pour un large éventail de tâches. Les processus décisionnels de Markov (MDP) et l'apprentissage par renforcement (RL) ont traditionnellement fourni un cadre mathématique pour les applications de contrôle, où les agents sont tenus d'apprendre les politiques d'interactions passées avec un environnement. Ces dernières années, cette méthodologie a été combinée avec des réseaux de neurones profonds, qui jouent le rôle d'approximateurs de fonctions à haute capacité et modélisent la fonction de politique discrète ou continue ou une fonction de la récompense accumulée de l'agent, ou les deux.

 

Le projet de doctorat propose une recherche fondamentale avec des contributions algorithmiques planifiées sur l'intégration des modèles, les connaissances préalables et les apprentissages en contrôle et le cycle d'action de perception:

 

• apprentissage basé sur les données et identification de modèles physiques de contrôle;

• apprentissage de la représentation d'état pour le contrôle (apprentissage des représentations démêlées pour le contrôle avec apprentissage profond structuré);

• contrôle stable utilisant des méthodes hybrides utilisant l'apprentissage automatique et la théorie du contrôle.


Encadrant : Christian Wolf