Catégorie
Conferences / Workshops

WORKSHOP | "Fondements Mathématiques de l'IA"

Bandeau image
Workshop | "Fondements Mathématiques de l'IA"
Date de tri
Lieu de l'événement
Sorbonne Center for AI (SCAI), 4 place Jussieu, 75005 Paris

Partager

twlkml
Chapo
Rendez-vous le 31 janvier prochain dans les locaux de SCAI (Paris), pour la deuxième édition de la journée consacrée aux fondements des mathématiques de l'IA !
Contenu
Ancre
Contexte
Corps de texte

La journée “Fondements Mathématiques de l’IA”, organisée conjointement par l'Institut DATAIA et SCAI, en association avec les sociétés scientifiques : la Fondation Mathématique Jacques Hadamard (FMJH), la Fondation Sciences Mathématiques de Paris-FSMP, le groupe MALIA de la Société Française de Statistique et la Société Savante Francophone d'Apprentissage Machine (SSFAM) vise à proposer un panorama de quelques directions de recherche prometteuses à l’interface entre l’apprentissage statistique et l’IA.

Pour cette nouvelle édition, un focus particulier sera fait sur un domaine "hot topic" à la fois dans la communauté de l’apprentissage et des mathématiques appliquées, les PINNs (Physically Informed Neural Networks). La matinée sera consacrée à des exposés pléniers donnés par des chercheurs renommés et spécialistes du sujet. L’après-midi sera l’opportunité pour de jeunes chercheurs de présenter leurs travaux via des posters ou des exposés courts.


Comité d'organisation

  • Marianne Clausel (Univ. Lorraine)
  • Emilie Chouzenoux (INRIA Saclay, Institut DATAIA)

Comité scientifique

  • Stéphane Chrétien (Univ. Lyon 2)
  • Sylvain Le Corff (Sorbonne Université)
  • Konstantin Usevich (CNRS)
  • Myriam Tami (CentraleSupélec)

Programme

  • 9h-10h | Keynote 1 : Claire Boyer (Sorbonne Université, IUF)

Titre : Some statistical insights into PINNs
Résumé : Les réseaux neuronaux informés par la physique (PINN) combinent l'expressivité des réseaux neuronaux avec l'interprétabilité de la modélisation physique. Leurs bonnes performances pratiques ont été démontrées à la fois dans le contexte de la résolution d'équations différentielles partielles et dans le contexte de la modélisation hybride, qui consiste à combiner un modèle physique imparfait avec des observations bruitées. Cependant, la plupart de leurs propriétés théoriques restent à établir. Nous proposons quelques lignes directrices statistiques pour l'utilisation correcte des PINNs.
Biographie : Claire Boyer est maîtresse de conférences au laboratoire de probabilités, statistique et modélisation de Sorbonne Université, et lauréate junior de l'Institut Universitaire de France. Ses thématiques de recherche s'inscrivent en mathématiques appliquées à l'apprentissage.

  • 10h-10h45 | Pause café
  • 10h45 -12h | Short contributive talks
  • 12h-13h45 | Pause déjeuner
  • 13h45-14h45 | Keynote 2 : Emmanuel Franck (INRIA Grand Est)

Titre : Représentation neurales implicites et méthodes numériques hybrides
Résumé : Depuis quelques années ont émergées plusieurs méthodes pour approcher les solutions d'EDP à l'aide de réseaux de neurones comme les PINNs, la méthode Neural Galerkin, ou les méthodes de réductions d'ordre continues. Dans un premier temps se propose de montrer que ces méthodes peuvent être vues comme de nouvelles méthodes numériques très proches dans l'esprit des méthodes numériques usuelles, mais avec des qualités et des défauts très différents des techniques usuelles. Dans un second temps, on proposera des nouvelles approches qui essayent de combiner les forces de ces méthodes neurales et des méthodes classiques. On illustrera ses approches sur plusieurs exemples.
Biographie : Emmanuel Franck a obtenu son doctorat en Mathématiques appliquées a Sorbonne Université en 1992. Après 2 ans de post-doctorat au Max Planck de Physique des Plasmas il a rejoint INRIA en 2014 comme chargé de recherche dans l'équipe TONUS. Il a obtenu son HDR en 2023 et maintenant, il est responsable de l'équipe TONUS. Ses recherches actuelles portent sur les méthodes numériques, les modèles réduits et le contrôle optimal pour les équations hyperboliques et cinétiques. Dans ce cadre, il a étudié principalement l'hybridation des approches classiques avec des approches issues de l'apprentissage profond afin d'obtenir des approches plus efficientes avec des garanties.

  • 14h45-15h30 | Pause goûter
  • 15h30-16h30 | Keynote 3 : Tony Silvetti Falls (CentraleSupélec, Université Paris-Saclay)

Titre : Differentiating Nonsmooth Solutions to Parametric Monotone Inclusion Problems
Résumé : Comprendre la différentiabilité et la régularité de la solution d'un problème d'inclusion monotone est une question importante avec des conséquences pour l'optimisation convexe, l'apprentissage profond avec des couches implicites, et au-delà. Les tentatives passées pour répondre à cette question ont été faites soit sous des hypothèses très restrictives qui assurent que la solution est continuellement différentiable, soit en utilisant des outils mathématiques qui sont incompatibles avec la différentiation automatique. Dans cet exposé, nous expliquons comment tirer parti de la différentiabilité par chemin et d'un résultat récent sur le calcul de différentiation implicite non lisse pour donner des conditions suffisantes garantissant que la solution d'un problème d'inclusion monotone sera différentiable par chemin et fournir des formules pour le calcul de son gradient généralisé. Notre approche est entièrement compatible avec la différenciation automatique et s'accompagne d'hypothèses faciles à vérifier, à savoir la semi-algébricité et la monotonicité forte. Nous illustrons la portée de nos résultats en considérant trois types de problèmes composites fondamentaux : les problèmes fortement convexes, les solutions duales aux problèmes de minimisation convexe et les solutions primales-duales aux problèmes min-max.
Biographie : Antonio (Tony) Silveti-Falls est maître de conférences au laboratoire CVN et au département de mathématiques de CentraleSupélec. Il a obtenu son doctorat en optimisation à l'université de Caen en 2021 et ses recherches portent sur les problèmes d'optimisation à grande échelle.

  • 16h30-17h30 | Short contributive talks
  1. Yuan Yin - UPMC
    Deep Learning for Physical Dynamics: Physics-DL Hybrid Modeling and Continuous Modeling
  2. Bastien Batardière - INRAE
    Finite-sum optimization: adaptivity to smoothness and loopless variance reduction
  3. Matthieu Terris - Inria
    Lipschitz neural networks for image restoration
  4. Sidney Besnard - Greyc Unicaen / Safran Data Systems
    imulation-Augmented Physics-Informed Neural Networks for Enhanced Performance in Nonlinear Inverse Problems
  5. Thi Nguyen Khoa Nguyen - ENS Paris-Saclay
    Geometry-aware framework for PINNs-based deep energy method: an application to structural mechanics with hyperelastic materials
  6. Abdel-Rahim Mezidi - Université Jean Monnet Saint-Etienne, CNRS, IOGS, Inria
    A Bilevel Optimization Framework for Training Bregman Neural Operators
  7. Frédéric Barbaresco - Thalès - Segment Leader SMART SENSORS
    Flot métriplectique des TINN (Thermodynamics-Informed Neural Networks) et apprentissage machine sur les groupes de Lie