Thèse l'Apprentissage Fédéré Face à la Diversité du Monde Réel Application aux Flottes Hétérogènes de Drones pour la Sécurité Civile. H/F - Doctorat.Gouv.Fr
- CDD
- Doctorat.Gouv.Fr
Les missions du poste
Établissement : Université de Savoie Mont-Blanc École doctorale : Sciences Ingénierie Environnement Laboratoire de recherche : Laboratoire d'Informatique, Systèmes, Traitements de l'Information et de la Connaissance Direction de la thèse : Alexandre BENOIT ORCID 0000000206274948 Début de la thèse : 2026-10-01 Date limite de candidature : 2026-05-31T23:59:59 Les progrès de l'IA actuelle amènent à des performances remarquables dans de nombreux domaines mais s'appuie principalement sur la centralisation de grands corpus de données d'apprentissage. Poussé par les enjeux de sécurité, de confidentialité et de frugalité locale, l'apprentissage fédéré est apparu récemment [McMahan2017] comme une alternative permettant à un ensemble de machines physiquement séparée appelées clients d'apprendre efficacement un modèle commun, de façon collaborative, localement plus frugale et sans divulguer leurs données.Cette approche est particulièrement adaptée aux domaines où la confidentialité est critique - santé, finance, mobilité - et où des réglementations comme le RGPD encadrent strictement la circulation des données personnelles. Malgré son potentiel, l'apprentissage fédéré peine encore à franchir le pas vers un usage réel. L'une des raisons critique, partagée avec les approches IA actuelles, est liée à la diversité des sources de données. Les travaux existants se sont principalement intéressés aux propriétés statistiques des données - en particulier à l'hétérogénéité de leurs distributions entre clients - en négligeant les propriétés physiques et instrumentales des systèmes de mesure qui les produisent. Or, dans un scénario réaliste où chaque client collecte ses propres données avec ses propres capteurs aux caractéristiques spécifiques (résolution, sensibilité, spectre, etc.), les méthodes fédérées de l'état de l'art, tout comme l'apprentissage centralisé, ne sont applicables qu'à condition de prétraiter l'ensemble des données pour les ramener à un format commun - au prix d'une perte d'information, de distorsions, et d'un effacement des spécificités locales pourtant porteuses de valeur.
Ce projet de thèse vise à lever ces verrous pour permettre à l'apprentissage fédéré de tirer pleinement avantage des caractéristiques des données locales et ainsi de faciliter sa pertinence et finalement son adoption dans des conditions réelles. Les méthodes développées seront validées sur des jeux de données ouverts puis expérimentalement sur le cas de flottes de drones pour la recherche de personnes en plaines et montagnes. Ce projet pourra s'inscrire dans le cadre du GIS IA et sécurité civile, en cours de finalisation de montage, dont l'USMB est un des membres fondateurs. La validation expérimentale pourra s'inscrire dans la poursuite de collaborations antérieures avec le SDIS74, un service pionnier pour la recherche et le secours de personnes. Ce cas illustratif à impact sociétal clair illustrera l'intérêt de ce projet. Plus précisément, leur flotte de drones, hétérogène, et permettra de valider les approches proposées et pourra être testé par les équipes du SDIS74 pour les missions d'entrainement au secours.
Le travail expérimental mené au sein de l'USMB pourra s'appuyer sur des équipements mutualisés au sein de l'USMBtech, en particulier des drones LISTIC et potentiellement en lien avec la formation Polytech. L'approche traditionnelle d'IA centralisée consiste à collecter puis centraliser des données afin de les pré-traiter avant de les présenter à un unique modèle pour son entrainement sur une ou plusieurs tâches. Les différences procédurales liées à l'acquisition des données par chaque source sont ainsi fortement atténuées et des distorsions et pertes d'informations sont introduites. La distribution statistique des données est également un problème ouvert classique pouvant entrainer des biais d'apprentissage impactant les décisions pour certaines sources.
L'apprentissage fédéré est une approche plus récente, distribuée, qui s'appuie sur un ensemble de clients qui collectent, traitent localement leurs données et optimisent ensuite collectivement un modèle. Comme pour l'apprentissage centralisé, ce modèle unique s'appuie sur des données prétraitées de façon uniforme entre les clients (à minima leurs dimensions sont homogènes). Ainsi, les travaux actuels sur l'apprentissage fédéré se concentrent principalement sur la gestion de données hétérogènes d'un point de vue statistique (distribution non identique entre clients). Cependant, elle néglige également une dimension cruciale : les différences procédurales dans la manière dont chaque client capture et observe les données.
Ainsi, ces deux approches IA partagent une lacune importante qui limite l'efficacité des modèles d'apprentissage dans de nombreux cas applicatifs réels pour lesquels chaque client collecte avec ses processus propres, ses données (hôpitaux, systèmes autonomes de mobilité, etc.). Par ailleurs, nombreux sont les cas d'usage pour lesquels des contraintes de confidentialité (e.g., RGPD, secteur industriel B2B) empêchent le partage d'informations sur les propriétés physiques des données (e.g., type de capteur, résolution, sensibilité, etc.) ce qui empêche de facto certaines techniques de conditionnement par des connaissances supplémentaires. Ainsi, pour projeter l'IA dans le monde réel, il devient nécessaire de prendre en compte simultanément l'hétérogénéité statistique (les différences de répartitions entre sources) et l'hétérogénéité procédurale (les différences dans les méthodes d'acquisition et sensibilités).
Ce sujet de thèse permettra ainsi de travailler des questions scientifiques fondamentales pour lesquelles les approches centralisées et fédérées actuelles se heurtent encore dans un cadre Big Data : d'une part, comment prendre en compte et exploiter la diversité des caractéristiques des sources de données ? D'autre part, comment optimiser un ensemble de modèles en prenant en compte les aspects globaux et locaux ? L'objectif de ce travail est de développer une méthode d'optimisation, basée sur l'IA fédérée et capable de gérer simultanément les deux types d'hétérogénéité cités ainsi que de permettre une optimisation cohérente de l'architecture globale du modèle. Contrairement aux approches classiques, la méthode d'optimisation devra simultanément optimiser le commun et le spécifique tout en garantissant une cohérence.
La thèse pourra s'appuyer sur un cas applicatif concret à fort enjeu sociétal à travers les opérations de sécurité civile de recherche de personnes disparues. Ces cas imposent d'agir rapidement dans des environnements souvent imprévisibles, où le facteur humain et le facteur temps sont critiques. Dans ce cadre, le recours à des flottes de drones, qu'ils soient terrestres ou aériens, ouvre des perspectives inédites pour la détection et la localisation de personnes. Ces engins sont équipés de capteurs d'imagerie variés - caméras RGB, thermiques, infrarouges - et opèrent dans des conditions de terrain très hétérogènes : plaines, forêts, montagnes, reliefs accidentés. Sur ces enjeux d'assistance aux personnes, les modèles IA doivent pouvoir exploiter pleinement chaque caractéristique propre aux différents capteurs et garantir une certaine robustesse. Notre proposition pourra alors être comparée aux solutions actuelles qui s'appuient sur un unique modèle global dont l'optimisation ne peut tenir pleinement compte des caractéristiques propres à chaque source. Optimiser un modèle IA adapté à chaque méthode d'acquisition propre à plusieurs sources de données peut amener à obtenir autant de modèles différents que l'on a de sources si chacune présent des spécificités locales (e.g., des dimensions de données différentes). L'approche classique est donc de prétraiter les données de chaque source pour optimiser un seul modèle mais en introduisant les problématiques citées auparavant (distorsions, perte d'information, biais, etc.). Des méthodes plus avancées sont proposées dans l'état de l'art pour répondre à ce problème sous différents angles. On peut citer, pour l'IA centralisée, les techniques de transfert dont l'adaptation de domaine étudiés au laboratoire [Benoit2016, Benoit2023] et, pour l'apprentissage fédéré, l'apprentissage partiel [Singhai2021], la personnalisation [Tan2022] et l'apprentissage fédéré avec clustering [Bettinelli2024]. S'appuyant sur cet état de l'art, le travail de thèse s'intéressera à une approche originale basée sur l'apprentissage fédéré partiel consistant à ne partager et agréger qu'une partie des paramètres du modèle tandis que l'autre reste locale pour s'adapter aux spécificités de chaque client. Cette approche permet de mieux gérer l'hétérogénéité entre clients et de renforcer la confidentialité, tout en conservant les bénéfices de l'apprentissage collaboratif. L'organisation du travail prévu est la suivante.
La première phase consistera à formaliser un cadre théorique pour caractériser et étudier les facteurs impactant simultanément l'hétérogénéité statistique et l'hétérogénéité procédurale en apprentissage fédéré. L'hétérogénéité statistique sera modélisée par des mesures de divergences de distributions entre clients, tandis que l'hétérogénéité procédurale sera caractérisée par des métriques décrivant les différences de modalités de capteurs, de résolutions et de conditions d'acquisition. Des jeux de données tels quel RGBTDronePerson et KAIST Multispectral Pedestrian Dataset issus de l'état de l'art pour la détection de personnes en imagerie multi-modale pourront être utilisés pour traiter les problématiques autour de l'hétérogénéité statistique et procédural. Ce cadre constituera le socle théorique à partir duquel seront conçues les solutions algorithmiques. Deux axes de recherche complémentaires sont identifiés :
Un premier axe porte sur la structuration des modèles IA. On pourra par exemple s'appuyer sur une architecture articulée autour de trois sous structures de modèle neuronaux distincts (modules), en analogie avec les approches classiques de traitement du signal et de vision par ordinateur qui favorise d'interprétabilité des modèles :
- Module amont (client-spécifique) : s'adapte aux caractéristiques propres du capteur (type, résolution, dynamique radiométrique) et des conditions d'acquisition locales, sans que ces propriétés ne soient jamais partagées entre clients.
- Module intermédiaire (partagé et fédéré) : un backbone commun appris de manière collaborative via l'apprentissage fédéré. Ce module produit des représentations abstraites et généralisables, indépendantes des spécificités procédurales de chaque client, permettant de tirer pleinement parti de la diversité des données distribuées.
- Module décisionnel aval (multi-tâches) : des têtes de décision spécialisées, potentiellement propres à chaque client ou partagées selon les tâches concernées (détection, localisation, classification). Ce module permet une flexibilité multi-tâches où chaque client ne contribue qu'aux tâches qui lui sont pertinentes.
Un second axe sur l'optimisation des modèles, en cohérence avec la structuration, explicable, de ce type de modèle. Il devra intégrer des stratégies adaptatives permettant d'optimiser efficacement chaque module, en maintenant leur cohérence et la performance globale pour les tâches cibles. Le prise en compte de l'hétérogénéité des clients dans le processus d'apprentissage est un des verrous scientifiques. Enfin, la capacité du système à intégrer de nouveaux clients dans l'écosystème de façon frugale (transfert de connaissance et efficacité globale rapide sans perte de qualité ni réapprentissage total) est une question connexe d'intérêt qui pourra être considérée.
L'ensemble des développements sera validé sur le cas concret de la recherche de personnes disparues par flotte de drones hétérogènes. Ce cadre applicatif sera instancié à travers la construction d'un banc d'essai expérimental réaliste intégrant des images issues de capteurs variés (RGB, infrarouge thermique) et provenant du SDIS74. Ces images représenteront des conditions terrain diverses (forêt dense, relief montagneux, plaine ouverte). Les protocoles d'évaluation combineront des métriques de performance de détection et des métriques de coût computationnel adaptées aux contraintes embarquées.
Le profil recherché
Le contrat doctoral fixe une rémunération principale, indexée sur l'évolution des rémunérations de la fonction publique. L'arrêté du 11 octobre 2021 modifiant l'arrêté du 29 août 2016 fixant le montant de la rémunération du doctorant contractuel - Article 1 - L'article 1er de l'arrêté du 29 août 2016 susvisé est remplacé par un article ainsi rédigé : « Art. 1.-La rémunération mensuelle minimale des doctorants contractuels est fixée ainsi qu'il suit, sous réserve des dispositions prévues à l'article 2 du présent arrêté «-à compter du 1er janvier 2026 : 2 300 euros brut».
Des heures d'enseignements peuvent être effectuées dans la limite de 64 heures équivalent TD par année universitaire après autorisation du président de l'université et rémunérées au taux fixé pour les travaux dirigés en vigueur. D'autres activités complémentaires au contrat doctoral sont prévues par l'article 5 du décret n° 2009-464 du 23 avril 2009 modifié. La durée totale des activités complémentaires aux activités de recherche confiées au doctorant dans le cadre du contrat doctoral ne peut excéder un sixième du temps de travail annuel.
https://www.univ-smb.fr/edsie/doctorat/candidater/