Catégorie
Conferences / Workshops

[👥 WORKSHOP] "Fondements Mathématiques de l'IA" - 6ème édition

Bandeau image
[👥 WORKSHOP] "Fondements Mathématiques de l'IA" - 6ème édition
Date de tri
Lieu de l'événement
Amphithéâtre 55B, SCAI - 4 place Jussieu, 75005 Paris

Partager

lkml
Chapo
Rendez-vous le 10 décembre 2025 dans les locaux de SCAI (Paris), pour la sixième édition de la journée consacrée aux fondements des mathématiques de l'IA !
Contenu
Corps de texte

Inscriptions à venir !

La journée “Fondements Mathématiques de l’IA”, organisée conjointement par l'Institut DataIA et SCAI, en association avec les sociétés scientifiques : la Fondation Mathématique Jacques Hadamard (FMJH), la Fondation Sciences Mathématiques de Paris-FSMP, le groupe MALIA de la Société Française de Statistique et la Société Savante Francophone d'Apprentissage Machine (SSFAM) vise à proposer un panorama de quelques directions de recherche prometteuses à l’interface entre l’apprentissage statistique et l’IA.

Elle s'inscrit dans la dynamique du réseau Maths & IA d'Ile-de-France, dont la FMJH et DataIA sont parties prenantes.

Cette nouvelle édition sera consacrée aux questions d'identifiabilité, que ce soit pour l'analyse tensorielle, les réseaux de neurones ou en IA générative. La journée est consacrée à trois exposés pléniers donnés par des chercheurs renommés et spécialistes du sujet :

  • François Malgouyres (Université de Toulouse), spécialiste des tenseurs et des questions d'identifiabilité de tenseurs ;

  • Elisabeth Gassiat (Laboratoire de Mathématiques d'Orsay), professeure, statisticienne de tout premier plan, qui a mené des travaux autour des questions d'identifiabilité des VAEs ;

  • Pavlo Mozharovskyi (Télécom ParisTech), professeur, expert reconnu sur la question de l'explicabilité, avec des travaux menés sur le concept-based learning.

Cette journée est aussi l'opportunité pour de jeunes chercheurs de présenter leurs travaux via des exposés courts (voir l'appel à contributions).


Comité d'organisation

  • Marianne Clausel (Université de Lorraine)
  • Emilie Chouzenoux (INRIA Saclay, Institut DataIA)

 

Comité scientifique

  • Ricardo Borsoi (CNRS, CRAN)
  • Stéphane Chrétien (Univ. Lyon 2)
  • Sylvain Le Corff (Sorbonne Université)
  • Myriam Tami (CentraleSupélec)

 

Ancre
Appel à Contributions
Corps de texte

Dans le cadre du workshop, les participant(e)s sont invité(e)s à soumettre un résumé détaillé en vue d'une éventuelle présentation orale ou via un poster. Lors du processus de sélection, le comité souhaite donner la meilleure visibilité possible aux doctorants, chercheurs et enseignants-chercheurs. Lorsque vous soumettez votre candidature par e-mail (maths-ia@inria.fr), veuillez indiquer les informations suivantes : nom/prénom, institution, statut, titre/résumé.

Une aide financière pour la mission peut être accordée par le comité sur demande justifiée.
Date limite de candidature : 21 novembre 2025.

Nom de l'accordéon
9h - 10h | Keynote 1 : François Malgouyres (Université de Toulouse)
Texte dans l'accordéon

Geometry-induced regularization and identifiability of deep ReLU networks

Résumé : La première partie de l’exposé présentera, à l’aide d’un exemple simple et didactique, les résultats mathématiques développés dans la seconde partie, de manière à en rendre l’intuition accessible au plus grand nombre. Du fait d’une régularisation implicite qui favorise les « bons » réseaux, les réseaux de neurones avec un grand nombre de paramètres ne surapprennent généralement pas. Parmi les phénomènes connexes et encore mal compris figurent les propriétés des minima plats, les dynamiques de type saddle-to-saddle et l’alignement des neurones. Pour analyser ces phénomènes, nous étudions la géométrie locale des réseaux de neurones ReLU profonds. Nous montrons que, pour une architecture fixée, lorsque les poids varient, l’image d’un échantillon X forme un ensemble dont la dimension locale change. L’espace des paramètres est ainsi partitionné en régions où cette dimension locale demeure constante. La dimension locale est invariante par rapport aux symétries naturelles des réseaux ReLU (c’est-à-dire les changements d’échelle positifs et les permutations de neurones). Nous établissons ensuite que la géométrie du réseau induit une régularisation, la dimension locale constituant une mesure clé de régularité. De plus, nous relions la dimension locale à une nouvelle notion de platitude des minima ainsi qu’aux dynamiques saddle-to-saddle. Pour les réseaux à une couche cachée, nous montrons également que la dimension locale est liée au nombre de régions linéaires perçues par $X$, ce qui éclaire sur l'effet de la régularisation. Ce résultat est étayé par des expériences et mis en relation avec l’alignement des neurones. Enfin, je présenterai des expériences sur la base MNIST, qui mettent en évidence la régularisation induite par la géométrie dans ce contexte. Finalement, je ferai le lien entre des propriétés sur la dimension locale et l'identifiabilité locale des paramètres du réseau.
 

Biographie : François Malgouyres est professeur des universités à l’Université de Toulouse (France). Ses recherches portent sur les fondements théoriques et méthodologiques du deep learning, avec un intérêt particulier pour la compréhension de la structure mathématique des réseaux de neurones. Il a notamment travaillé sur la géométrie des réseaux, l’identifiabilité de leurs paramètres, l’approximation de fonctions par réseaux de neurones, ainsi que sur la quantification des poids dans les réseaux récurrents et la conception de couches convolutives orthogonales. Il s’est également intéressé au straight-through estimator — l’algorithme de référence pour l’optimisation de poids quantifiés — et à ses applications à la reconstruction de signaux parcimonieux. Avant de rejoindre l’Université de Toulouse, François Malgouyres a été maître de conférences à l’Université Paris Nord, postdoctorant à l’Université de Californie à Los Angeles (UCLA), puis doctorant à l’ENS Paris-Saclay (alors située à Cachan).

Corps de texte

10h - 10h30 | Pause café

Nom de l'accordéon
10h30 - 11h30 | Keynote 2 : Elisabeth Gassiat (Laboratoire de Mathématiques d'Orsay)
Texte dans l'accordéon

Titre (TBA)

Résumé :

Biographie :

Ancre
11h30 - 12h30 | Short contributive talks (3x15mn)
Corps de texte

12h30 - 13h45 | Pause déjeuner

Nom de l'accordéon
13h45 - 14h45 | Keynote 3 : Pavlo Mozharovskyi (Télécom ParisTech)
Texte dans l'accordéon

Titre (TBA)

Résumé :

Biographie :

Corps de texte

14h45 - 15h30 | Pause goûter

Ancre
15h30 - 17h | Short contributive talks (6x15mn)