Du

Horaire -

Lieu LISN Site Belvédère

STL, Thèses et HDR

Apprentissage de représentation en continu pour la langue écrite et parlée

La soutenance aura lieu le mercredi 5 avril à 14h au LISN dans la salle de conférences du bâtiment 507, soit à l'adresse suivante : Campus Universitaire, bât.507 - Rue du Belvédère, 91405 Orsay

Orateur : Juan Manuel CORIA

  • Richard Dufour (Professeur des Universités, Université de Nantes, LS2N) : Rapporteur & Examinateur
  • Corinne Fredouille (Professeure des Universités, LIA, Université d’Avignon et des pays du Vaucluse) : Rapporteur et Examinatrice
  • Slim Essid (Professeur, Télécom Paris) : Examinateur
  • Géraldine Damnati (Ingénieure-Chercheuse, Orange Labs) : Examinatrice
  • Benoit Favre (Professeur des Universités, Aix Marseilles Université, LIS) : Examinateur
  • Hervé Bredin (Chargé de Recherche CNRS, IRIT) : Co-superviseur
  • Sahar Ghannay (Maîtresse de Conférences, LISN) : Co-superviseur

L’apprentissage automatique a récemment connu des avancées majeures, mais les modèles actuels sont généralement entraînés une fois sur une tâche cible et leurs paramètres sont rarement révisés.
Ce problème affecte les performances après la mise en production car les spécifications des tâches et les données peuvent évoluer avec le temps.
Pour résoudre ce problème, l’apprentissage continu propose un entraînement au fil du temps, à mesure que de nouvelles données sont disponibles.
Cependant, les modèles entraînés de cette manière souffrent d’une perte de performance sur les exemples déjà vus, un phénomène appelé “oubli catastrophique”.
De nombreuses études ont proposé différentes stratégies pour prévenir l’oubli, mais elles s’appuient souvent sur des données étiquetées rarement disponibles en pratique.

Dans cette thèse, nous étudions l’apprentissage continu pour la langue écrite et parlée.
Notre objectif est de concevoir des systèmes autonomes et auto-apprenants capables d’exploiter les données disponibles sur le terrain pour s’adapter aux nouveaux environnements.
Contrairement aux travaux récents sur l’apprentissage de représentations à usage général, nous proposons d’exploiter des représentations adaptées à une tâche cible.
En effet, ces dernières pourraient être plus faciles à interpréter et à exploiter par des méthodes non supervisés et plus robustes à l’oubli, comme le clustering.

Dans ce travail, nous améliorons notre compréhension de l’apprentissage continu dans plusieurs contextes.
Nous montrons que les représentations spécifiques à une tâche permettent un apprentissage continu efficace à faibles ressources, et que les prédictions d’un modèle peuvent être exploitées pour l’auto-apprentissage.

Lieu de l'événement