Thèse de Tamara El Hajjar
Sujet :
Date de début : 04/05/2026
Date de fin (estimée) : 04/05/2029
Encadrant : Sara Bouchenak
Résumé :
L’apprentissage fédéré (AF) est un paradigme prometteur qui s’impose dans le contexte de l’apprentissage automatique respectueux de la vie privée pour les systèmes de calcul en périphérie. Grâce à l’AF, plusieurs propriétaires de données, appelés clients (par exemple, des organisations dans le cadre d’un AF inter-silos), peuvent entraîner collaborativement un modèle sur leurs données privées, sans avoir à transmettre leurs données brutes à des prestataires de services externes. L’AF a été rapidement adopté dans plusieurs applications florissantes telles que la santé numérique, qui génère le plus grand volume de données au monde. L’apprentissage décentralisé (AD) va plus loin en proposant un apprentissage fédéré sans serveur, où les données sont conservées chez les clients et aucun serveur n’est nécessaire. Ainsi, l’AD implique des protocoles distribués et décentralisés pour permettre aux clients de construire un modèle global.
Bien que l’AD constitue un premier pas vers la protection de la vie privée en conservant les données localement chez chaque client, cela reste insuffisant car les paramètres du modèle partagés par l’AD sont vulnérables aux attaques de confidentialité, comme le montrent des travaux récents [8]. De plus, l'apprentissage profond est plus vulnérable aux comportements malveillants de clients susceptibles d'injecter des informations corrompues dans les données et les modèles, ce qui engendre des modèles d'apprentissage profond dysfonctionnels et peu robustes. Des études récentes montrent que la robustesse et la confidentialité en apprentissage profond peuvent être antagonistes ; les traiter indépendamment, comme c'est généralement le cas, peut avoir des effets secondaires négatifs réciproques.
Par conséquent, une nouvelle approche multi-objectifs est nécessaire pour garantir la robustesse des modèles de flux de données et les protéger contre les atteintes à la vie privée. Ce projet relève ce défi et vise à traiter précisément les problèmes soulevés à l'intersection de la confidentialité, de la robustesse et de l'utilité des modèles d'apprentissage profond, grâce à : (i) de nouveaux protocoles d'apprentissage profond ; (ii) une approche multi-objectifs permettant d'arbitrer entre confidentialité, robustesse et utilité, ces objectifs étant antagonistes ; (iii) l'application de ces techniques à l'apprentissage profond dans des systèmes continus périphérie-cloud.