Exposés à venir
Exposés passés
Simulation moléculaire et mathématiques
25 avril 2017 16:30-17:30 -Oratrice ou orateur :
Résumé :
Tony Lelièvre
Résumé : La simulation moléculaire consiste à modéliser la matière à l’échelle des atomes. En utilisant ces modèles, on espère obtenir des simulations plus précises et plus prédictives, et ainsi avoir accès à une sorte de microscope numérique, permettant de scruter les phénomènes moléculaires à l’origine des propriétés macroscopiques. Les perspectives applicatives sont innombrables: prédiction des structures des protéines, conception de nouveaux médicaments ou de nouveaux matériaux, simulation de la dynamique des défauts dans un matériau, etc. La simulation moléculaire occupe aujourd’hui une place importante dans de nombreux domaines scientifiques (biologie, chimie, physique) au même titre que les développements théoriques et les expériences.
Malgré la formidable explosion de la puissance des ordinateurs, il reste difficile de simuler suffisamment d’atomes sur des temps suffisamment longs pour avoir accès à toutes les quantités d’intérêt. Les mathématiques jouent un rôle fondamental à la fois pour dériver rigoureusement des modèles réduits moins coûteux, et pour analyser et améliorer des algorithmes permettant de relever les défis posés par les différences d’échelles en temps et en espace entre le modèle atomique et notre monde macroscopique.
L’objectif de l’exposé sera de présenter les modèles utilisés en dynamique moléculaire ainsi que quelques questions mathématiques soulevées par leur simulation.
Biographie de l’auteur : Tony Lelièvre est chercheur en mathématiques appliquées, professeur à l’Ecole des Ponts ParisTech et à l’Ecole Polytechnique. Il est membre de l’équipe Matherials (INRIA Paris). Ses recherches portent principalement sur l’analyse mathématique de modèles pour les matériaux, et des méthodes numériques associées. Il coordonne le projet ERC MsMath sur la simulation moléculaire.
Shannon et la théorie de l’information
28 mars 2017 16:30-17:30 -Oratrice ou orateur :
Résumé :
Olivier Rioul
Nous fêtions en 2016 le centenaire de la naissance de Claude Shannon, un mathématicien et ingénieur américain considéré comme le “père de l’Âge de l’information”. Son nom ne vous dit peut-être pas grand chose : Hollywood a glorifié d’autres héros scientifiques comme Alan Turing ou John Nash. Shannon, lui, a eu une vie rangée, modeste… et surtout ludique : adepte du monocycle et du jonglage, il s’est amusé à construire des machines plus ou moins loufoques. Dans le même temps, il a fait des avancées théoriques décisives dans des domaines aussi divers que les circuits logiques, la cryptographie, l’intelligence artificielle, l’investissement boursier, le wearable computing… et surtout, la théorie de l’information. Son article fondateur de 1948 rassemble tellement d’avancées fondamentales et de coups de génie que Shannon est aujourd’hui le héros de milliers de chercheurs, loué presque comme une divinité. On peut dire, sans exagérer, que c’est le mathématicien dont les théorèmes ont rendu possible le monde du numérique que nous connaissons aujourd’hui.
Dans cet exposé on décrit ses contributions les plus marquantes : le paradigme de Shannon; les modèles probabilistes des données; l’unité logarithmique d’information; les limites de performances; l’entropie, l’entropie relative et la définition mathématique de l’information; la technique du codage aléatoire; la formule de capacité. On va jusqu’à présenter les idées des démonstrations des premier et second théorèmes de Shannon avec des moyens élémentaires. Si le temps le permet, on abordera une preuve récente de l’inégalité de la puissance entropique dont Shannon a eu l’intuition géniale.
Biographie de l’orateur :
Olivier Rioul (PhD, HDR) est ingénieur général du Corps des Mines, professeur à Télécom ParisTech et à l’Ecole Polytechnique. Ses activités de recherche en mathématiques appliquées sont consacrées à diverses applications parfois non conventionnelles de la théorie de l’information, comme les inégalités en statistiques, la sécurité physique des systèmes embarqués et la psychologie expérimentale dans les interactions homme-machine. Il enseigne la théorie de l’information dans plusieurs grandes écoles depuis vingt ans et a publié un livre qui est devenu une référence française du domaine et sera bientôt réédité.
Voir aussi les sites http://centenaire-shannon.cnrs.fr et http://shannon100.com.
Optimisation topologique de structures et fabrication additive
7 février 2017 16:30-17:30 -Oratrice ou orateur :
Résumé :
Grégoire Allaire
Grégoire Allaire est un spécialiste d’analyse numérique et d’optimisation.
Percolation des domaines nodaux aléatoires
6 décembre 2016 16:30-17:30 -Oratrice ou orateur :
Résumé :
Damien Gayet
Damien Gayet est un géomètre qui s’intéresse à des questions de sous-variétés ou de sous-ensembles aléatoires reliés aux fonctions propres de l’opérateur de Laplace sur une variété riemannienne.
Colloquium: Josselin Garnier
29 novembre 2016 16:30-17:30 -Oratrice ou orateur :
Résumé :
Josselin Garnier
Josselin Garnier est un spécialiste de la propagation des ondes dans des milieux aléatoires. Ces travaux le mène à des applications aux techniques d’imagerie.
Laurent Schwartz et le colloque d’analyse harmonique Nancy 1947
14 juin 2016 16:30-17:30 -Oratrice ou orateur :
Résumé :
Anne-Sandrine Paumier
Le premier colloque international du CNRS en mathématiques organisé après la guerre est celui d’analyse harmonique de Nancy, en juin 1947. C’est lors de ce colloque que Schwartz va exposer pour la première fois ses distributions sphériques (aujourd’hui distributions tempérées). Cet article montre comment le colloque participe à la vie collective des mathématiques, et examine en quoi ce colloque en particulier témoigne du dynamisme des mathématiques à Nancy à cette date et est important pour les mathématiques et la carrière de Laurent Schwartz.
Panorama des processus SLE et dimension du "backbone"
10 mai 2016 16:30-17:30 -Oratrice ou orateur :
Résumé :
Christophe Garban
Je commencerai par un panorama des processus SLE. Ces processus ont été introduits en 1999 par Oded Schramm dans le but de décrire les interfaces qui apparaissent à la transition de phase de modèles bi-dimensionnels (comme par exemple la percolation ou le modèle d’Ising, modèles que j’introduirai au début de l’exposé). Ces processus peuvent être vus comme une généralisation probabiliste très naturelle d’un objet introduit dans les années 1920 par Karl Löwner pour répondre à la conjecture de Bieberbach. Après avoir motivé l’introduction de ces processus, j’expliquerai comment s’en servir pour identifier/calculer les dimensions fractales d’objets naturels (comme les grandes composantes connexes) qui apparaissent à la transition de phase des modèles bi- dimensionnels.
Modèles mathématiques de réaction-diffusion : anciens et nouveaux défis
19 avril 2016 16:30-17:30 -Oratrice ou orateur :
Résumé :
Michel Pierre
Dans son article pionnier sur la morphogénèse animale et végétale publié en 1952, Alan Turing remarqua que la prise en compte de diffusion spatiale dans un processus réactif stable pouvait paradoxalement le déstabiliser, mais du même coup enrichir considérablement son comportement et contribuer à expliquer la variété des motifs spatiaux observés dans la nature. Il s’avère que l’ajout de diffusion dans les modèles mathématiques de réaction- diffusion correspondants peut même générer des explosions en temps fini et cette fois mettre en cause leur validité. Leur analyse soulève des questions d’existence globale en temps et de comportement asymptotique qui sont encore largement ouvertes aujourd’hui et pertinentes pour bien d’autres applications. Nous présenterons les résultats connus et les défis restants.
Structures modérées en topologie, géométrie et théorie des nombres
15 mars 2016 16:30-17:30 -Oratrice ou orateur :
Résumé :
François Loeser
À l’origine, les structures modérées (géométrie o-minimale) ont constitué un cadre général permettant d’exclure certains objets »pathologiques » et de disposer d’un formalisme agréable et flexible dans lequel les objets ont des propriétés topologiques et géométriques raisonnables. Plus récemment elles ont permis d’effectuer des avancées spectaculaires en théorie des nombres. Nous présenterons un panorama général de ces questions, en mettant l’accent principal sur les structures réelles tout en mentionnant des progrès récents dans d’autres contextes comme celui de la géométrie non- archimédienne.
Séries de Dirichlet et fonctions zêtas à plusieurs variables
23 février 2016 16:30-17:30 -Oratrice ou orateur :
Résumé :
Driss Essouabri
Les fonctions zêta à une ou plusieurs variables sont des objets importants qui apparaissent naturellement dans plusieurs domaines des mathématiques : la théorie des nombres, la géométrie algébrique, la théorie des groupes, la physique mathématique, les systèmes dynamiques, l’informatique théorique, la théorie des graphes, les équations aux dérivées partielles, la géométrie fractale, etc. L’étude de ces fonctions est transversale à la subdivision traditionnelle en disciplines mathématiques : algèbre, analyse, topologie, géométrie, combinatoire qui sont toutes nécessaires pour les étudier.
Dans cet exposé, nous présenterons un aperçu général de ce sujet et des méthodes utilisées pour étudier plusieurs classes de séries de Dirichlet et fonctions zêtas à plusieurs variables. Nous donnerons en particulier plusieurs résultats les concernant (prolongement méromorphe, localisation des singularités, valeurs spéciales, etc.) Nous donnerons aussi quelques applications (en théorie des nombres, en géométrie arithmétique, en géométrie fractale, etc.) pour justifier l’étude de ces différentes classes.
Inégalités fonctionnelles optimales, diffusions non linéaires et brisure de symétrie
8 décembre 2015 16:30-17:30 -Oratrice ou orateur :
Résumé :
Jean Dolbeault
Par des méthodes variationnelles, il est possible de donner un critère optimal pour la brisure de symétrie dans une sous-famille des inégalités de Caffarelli-Kohn-Nirenberg. Le but de l’exposé est d’introduire ce résultat, obtenu récemment en collaboration avec Maria J. Esteban et Michael Loss.
La méthode permet de relier les résultats de rigidité pour des EDP elliptiques non-linéaires aux méthodes dites du « carré du champ » en théorie des semi-groupes, et repose sur l’utilisation de fonctionnelles d’entropies pour des équations de diffusion non-linéaires.
Le colloquium permettra donc de faire le lien entre différents points de vue, et de replacer les questions de symétrie et de brisure de symétrie dans un contexte plus large.
Sur le fibré en droites déterminant d'une famille Réelle d'opérateurs de Dirac sur une surface de Klein
24 novembre 2015 16:30-17:30 -Oratrice ou orateur :
Résumé :
Andreï Teleman
Une surface de Klein est une surface de Riemann [latex]Y[/latex] munie d’une involution anti-holomorphe [latex]iota[/latex]. Une surface de Klein est donc un espace Réel au sens de Atiyah. Dans la théorie classique (sans involution) on obtient facilement une famille d’opérateurs de Dirac sur [latex]Y[/latex] paramétrée par [latex]Pic^0(Y)[/latex], qui est un tore complexe de dimension (complexe) [latex]g(X)[/latex]. Cette famille d’opérateurs et son fibré en droites déterminant ont été étudiés intensivement dans le littérature. Dans le cas Réel (le cas d’une surface de Klein) l’involution fixée [latex]iota[/latex] sur [latex]Y[/latex] induit une involution anti-holomorphe [latex]hatiota[/latex] de [latex]Pic^0(Y)[/latex]. En plus, la famille d’opérateurs de Dirac considérée est, elle aussi, munie naturellement d’une structure Réelle. Il en résulte que le fibré déterminant (qui est un fibré holomorphe en droites sur [latex]Pic^0(X)[/latex]) va hériter une structure Réelle au sense de Atiyah.
Le lieu des points invariants dans l’espace total du fibré déterminant sera donc un fibré en droite réel (avec minuscule!) sur le lieu fixe [latex]Pic^0(Y)^{hatiota}[/latex] de [latex]Pic^0(Y)[/latex].
L’exposé va traiter un problème très naturel (mais difficile): déterminer explicitement la casse d’isomorphisme de ce fibré en droite réel, en particulier sa classe de Stiefel-Whitney [latex]w_1[/latex].
Ergodicité quantique
3 novembre 2015 16:30-17:30 -Oratrice ou orateur :
Résumé :
Nalini Anantharaman
Quand on parle d’ « ergodicité quantique », il s’agit d’habitude d’étudier les fonctions propres [latex](psi_n)[/latex] du laplacien sur une variété riemannienne compacte, dans la limite des grandes valeurs propres. On s’intéresse aux phénomènes de concentration, ou au contraire de délocalisation, de la suite de mesures de probabilités [latex] |psi_n(x)|^2 dx[/latex]
Après un survol de cette question, je parlerai de travaux récents avec Etienne Le Masson, où l’on essaie de transposer cette problématique à un cadre discret : le laplacien discret sur des graphes.
Random signs and he Riemann hypothesis
6 octobre 2015 16:30-17:30 -Oratrice ou orateur :
Résumé :
Adam Harper
I will talk a little about the Riemann Hypothesis, andhow it can be reformulated as a question about cancellation in the sum of the Mobius function, which only takes values 1, -1, and 0.
Then I will explain what is known and conjectured about the size of this sum, and try to describe the work of various authors on a random analogue of the problem.
There are connections with the Law of the Iterated Logarithm and with large values theory for Gaussian processes, which I will try to sketch.
Supersymmetry and tensor categories
18 mai 2015 16:30-17:30 -Oratrice ou orateur :
Résumé :
Vera Serganova
The goal of this lecture is to show interplay between supersymmetry and tensor categories. The main idea of supersymmetry is to equip all objects with parity ( [latex]mathbf{Z}_2[/latex]-grading) and modify usual identities by so called sign rule. Original motivation comes from physics and topology, for example, a complex of differential forms on a manifold is a supermanifold and De Rham differential can be realized as a vector field on this super manifold. One way to approach supersymmetry is via rigid symmetric tensor categories.
After elementary introduction to supersymmetry and tensor categories, I will formulate theorem of Deligne that any rigid symmetric tensor category satisfying certain finiteness conditions is in fact the category of representations of a supergroup.
Then I illustrate how both theories enrich each other on two examples:
- Decomposition of tensors in superspace;
- Construction of universal symmetric tensor categories and proof of a conjecture of Deligne using results of representation theory of supergroups.
Théorie mesurée des groupes, percolation et non-moyennabilité
28 avril 2015 16:30-17:30 -Oratrice ou orateur :
Résumé :
Damien Gaboriau
La moyennabilité des groupes est un concept introduit par J. von Neumann dans son article fondateur (1929) afin de comprendre ce qu’on appelle le paradoxe de Banach-Tarski. On montre facilement que le groupe libre F à deux générateurs est non moyennable. Il en découle que les groupes discrets dénombrables contenant F ne sont pas moyennables. Le « problème de von Neumann » interroge une réciproque.
Dans les années 80, Ol’shanskii a montré que ses monstres de Tarski fournissent des contre-exemples.
Cependant, afin d’étendre certains résultats concernant les groupes libres à d’autres groupes G non moyennables, il suffit parfois de savoir qu’ils « contiennent » F dans un sens dynamique bien plus faible, un sens de théorie ergodique.
La solution de ce « problème de von Neumann mesuré » fait appel à la théorie de la percolation sur les graphes de Cayley et à celle de coût des actions.
Je présenterai une introduction à ces divers sujets, avec des exemples, des dessins et quelques animations !…
Groupes sofiques et conjecture de Lück - d’après Elek et Szabo
7 avril 2015 16:30-17:30 -Oratrice ou orateur :
Résumé :
Georges Skandalis
Elek et Szabo ont démontré que les groupes sofiques (de Gromov) vérifient la conjecture de Lück. Nous présenterons un travail en collaboration avec G. Balci qui donne une définition des groupes sofiques et une démonstration de ce résultat à l’aide de traces sur la [latex]C^∗[/latex]-algèbre du groupe libre.
Si le temps le permet, nous esquisserons les liens de la conjecture de Lück avec une conjecture (ou plutôt un problème) d’Atiyah.
Présenterons les principaux objets :
– Gromov a introduit une classe de groupes (dénombrables) appelés groupes sofiques qui
sont en un sens précis bien approchables par des groupes de permutation [latex]mathfrak{S}_n[/latex]. Précisons que l’on ne connait pas pour le moment de groupes non sofiques et que tous les groupes profinis ou moyennables sont sofiques.
– La conjecture de Lück pour un groupe [latex]Gamma[/latex] prédit que pour [latex]x[/latex] dans l’anneau [latex]mathbf{Z}Gamma[/latex] d’ungroupe [latex]Gamma[/latex], le « produit continu » des valeurs propres non nulles de [latex]x∗x[latex] est supérieur à 1.
Do solutions of the Navier-Stokes equations get singular ?
3 février 2015 16:30-17:30 -Oratrice ou orateur :
Résumé :
Reinhard Farwig
The Navier-Stokes system is the standard model to describe the flow of an incompressible viscous fluid. Although global in time weak solutions can easily be constructed by several methods, it is an open problem in the three-dimensional case whether these solutions are unique, satisfy a physically reasonable energy equality and are strong or even smooth of class [latex]C^infty[/latex].
In this talk we explain this famous Millennium Problem of Clay Mathematics Institute in more details and report on classical results as well as on recent progress.
Aspects de la théorie quantique des champs en espace-temps courbe
16 décembre 2014 16:30-17:30 -Oratrice ou orateur :
Résumé :
Christian Gérard
La théorie quantique des champs est formulée d’habitude sur l’espace-temps plat de Minkowski. L’extension de ce cadre à des espaces-temps généraux permet de mettre en lumière de nouveaux phénomènes quantiques qui surviennent en présence d’un champ gravitationnel fort.
Nous présenterons tout d’abord le cadre algébrique de la théorie des champs libres en espace-temps courbe, en traitant le cas modèle d’un champ de Klein-Gordon.
Dans une deuxième partie nous aborderons les difficultés nouvelles dues à l’absence d’un groupe d’isométries sur un espace-temps courbe, qui se traduisent physiquement par l’absence d’un état de vide naturel. Nous illustrerons ces difficultés par deux effets emblématiques de la théorie des champs en espace-temps courbe, l’effet Unruh et l’effet Hawking.
Enfin nous décrirons les avancées relativement récentes dans la caractérisation d’états physiquement raisonnables en espace-temps courbe, basées sur l’utilisation de l’analyse microlocale.
Forêts aléatoires
21 octobre 2014 16:30-17:30 -Oratrice ou orateur :
Résumé :
Gérard Biau
La méthode des forêts aléatoires, imaginée par L. Breiman dans les années 2000, fait aujourd’hui partie des techniques d’apprentissage les plus performantes disponibles sur le marché, comme en témoignent par exemple ses multiples succès dans les compétitions internationales.
A ce jour, les performances empiriques exceptionnelles des forêts aléatoires restent un mystère absolu sur le plan mathématique.
Dans cet exposé, je passerai en revue quelques unes des propriétés de la méthode tout en présentant les dernières avancées théoriques sur le sujet.