Du

Horaire -

Lieu LISN Site Plaine - Digitéo

AAC, IA, Science des Données, Thèses et HDR

Apprentissage profond pour la modélisation spatio-temporelle de l’exposition aux pesticides : extrapolation, interprétabilité et contraintes

Thèse supervisée par Philippe Caillou, Maitre de Conférences Université Paris-Saclay, LISN Inria TAU et Florian Yger, Maitre de Conférences, LITIS Lab & Université de Rouen Normandie

Orateur : Cyriaque ROUSSELOT

Jury

  • Romain Hérault, Professor, GREYC Laboratory & University of Caen Normandy, Reviewer 
  • Paul Honeine, Professor, LITIS Lab & University of Rouen Normandy, Reviewer 
  • Carole Bedos, Research Director, ECOSYS, INRAE, Examiner
  • Yann Chevaleyre, Professor, LAMSADE, Paris-Dauphine University PSL, Examiner
  • Celine Hudelot, Professor, MICS, CentraleSupélec, Examiner
  • Olivier Allais, Research Director, Inrae, Invited Jury
  • Julia Mink, Tenure Track Assistant Professor, University of Bonn, Invited Jury

Résumé

Cette thèse présente un pipeline d’apprentissage profond dédié à l’estimation de l’exposition aux pesticides dans l’air en France. Nous commençons par caractériser la chaîne de transfert des pesticides, depuis les pratiques agricoles jusqu’aux effets sur la santé. Nous analysons ensuite la campagne de surveillance CNEP et proposons des indices de difficulté pour les capteurs et pour les substances, afin de mieux qualifier les sources d’erreur et d’hétérogénéité. Sur cette base, nous construisons des représentations enrichies intégrant le contexte
agricole, les achats de pesticides et des données pédoclimatiques, ainsi que des encodages spatiaux conçus pour capturer la variabilité locale.Nous proposons ensuite des estimateurs profonds conjoints adaptés à des
mesures éparses et censurées, que nous validons à l’aide de protocoles dédiés, complétés par une évaluation du risque d’extrapolation. Nous mettons en évidence et diagnostiquons les violations de monotonie induites par des perturbations des variables d’entrée. Au-delà de la prédiction, le manuscrit traite la question de la confiance, à la fois via la proposition d’un pipeline d’interprétabilité conceptuelle et via une formulation unifiée de l’apprentissage sous contraintes d’opérateurs, reliant nos analyses de monotonie à des objectifs fondés
sur des équations physiques. Enfin, nous étudions les sources de rigidité dans l’apprentissage sous contrainte et proposons une amélioration d’un optimiseur à gradient naturel fondée sur une régularisation adaptative. Dans l’ensemble, cette thèse plaide pour des systèmes hybrides d’« IAIntelligence Artificielle pour la science » qui intègrent les connaissances d’experts, à la fois dans les représentations et dans les contraintes d’apprentissage, afin de produire des estimations robustes et fiables.




Lieu de l'événement