Informatique et sciences numériques (2025-2026) - Yvon Maday
Collège de FranceCréée en partenariat avec Inria, la chaire annuelle Informatique et sciences numériques marque une volonté commune de faire valoir l'importance de cette discipline scientifique et la nécessité de lui octroyer une place pleine et entière.
Réduction de complexité pour les simulations numériques méthodes, algorithmes et analyse numérique associée
La simulation numérique est aujourd'hui un outil omniprésent, qui touche plusieurs domaines scientifiques. Elle repose d'abord sur des modèles mathématiques : abstractions des phénomènes fondée sur l'identification de quantités observables et de leurs interactions, décrites par des équations liant ces quantités observables, leurs variations et des paramètres mesurables. Adaptés aux super‐calculateurs, ces modèles prennent vie en proposant par exemple des images sur écran ou en réalité virtuelle, à l'instar d'acteurs rejouant fidèlement une scène écrite.
Le modèle est souvent trop complexe pour une résolution « papier et crayon », on recourt alors à des mises en œuvre informatiques : chaque « acteur » numérique évoluant dans un centre de calcul capable d'effectuer jusqu'à 1021 opérations par seconde. Pourtant, cette puissance de calcul peut être insuffisante, surtout lorsque l'on vise à proposer des images tridimensionnelles (3D) du phénomène de plus en plus précise – par exemple de la qualité des écrans (2D) UHD 8K (utilisant 7680 x 4320 soit plus de 33 millions de pixels), voire en 4D en incluant le temps.
Pour juguler cette explosion de calculs, des méthodes de réduction de complexité ont été introduites. Puissantes et inspirées de la théorie de l'approximation et de l'analyse numérique, elles consistent à choisir intelligemment un petit nombre d'images de haute qualité, déjà simulées (formant la base réduite) à les combiner pour en générer de nouvelles, avec un coût dépendant de la taille de cette base plutôt que du nombre de pixels qui les composent.
Essentielles dans l'industrie, ces méthodes permettent non seulement de mieux comprendre et prévoir des phénomènes sans les réaliser in situ, mais aussi d'optimiser ou de contrôler des procédés en temps réel – les fameux « jumeaux numériques ». Pour en garantir la fiabilité, les estimations d'erreur, branche de l'analyse numérique, quantifient la précision du résultat et guident dans l'amélioration du modèle ou l'enrichissement de la base réduite.
Biographie
Yvon Maday est professeur de mathématiques appliquées à Sorbonne Université et membre du laboratoire Jacques-Louis Lions, qu'il a dirigé pendant plusieurs années. Il a également été professeur invité à Brown University (États-Unis) pendant plus de quinze ans. Spécialiste de l'analyse numérique, ses recherches portent sur le calcul scientifique haute performance, les méthodes de décomposition de domaine et la réduction de modèles. Il applique ces approches à des domaines variés, de la mécanique des fluides à la biologie et la médecine, avec un intérêt actuel marqué pour la chimie computationnelle, dans laquelle il est co-Principal Investigator du projet ERC Synergy EMC2.
Docteur (3e cycle et thèse d'État) de l'université Pierre-et-Marie-Curie, il a exercé de nombreuses responsabilités scientifiques et dirigé l'Institut Carnot SMILES, dédié aux échanges entre recherche académique et monde industriel. Membre honoraire senior de l'Institut universitaire de France, il a reçu en 2009 le grand prix thématique Jacques-Louis-Lions de l'Académie des sciences et en 2019 le prix ICIAM Pioneer pour l'ensemble de ses contributions en mathématiques appliquées.
Auteur de nombreuses publications de référence, il a encadré plusieurs générations de jeunes chercheurs. Engagé dans l'innovation interdisciplinaire, il est cofondateur du GIS Obépine, consacré à la surveillance épidémiologique par les eaux usées.