Exposés à venir
Archives
Un voyage quantique autour de l'équation des plus bas niveaux de Landau
Catégorie d'évènement : Séminaire des doctorants Date/heure : 26 janvier 2022 10:45-11:45 Lieu : Salle de conférences Nancy Oratrice ou orateur : Valentin Schwinte Résumé :Titre à venir
Catégorie d'évènement : Séminaire des doctorants Date/heure : 15 décembre 2021 14:00-15:00 Lieu : Oratrice ou orateur : Bastien Laboureix (LORIA,Nancy) Résumé :Variétés de Shimura sur les corps finis
Catégorie d'évènement : Séminaire des doctorants Date/heure : 24 novembre 2021 10:45-11:45 Lieu : Oratrice ou orateur : Thibault Alexandre (Sorbonne Université, Paris) Résumé :Les variétés de Siegel sont des variétés de Shimura qui paramètrent des variétés abéliennes avec une polarisation. Le premier exemple est la courbe modulaire dont l’importance est cruciale en théorie des nombres : elle intervient dans la preuve du théorème de Fermat-Wiles et plus généralement dans la correspondance de Langlands pour $GL_2$ sur $\mathbb{Q}$. Dans cet exposé, j’introduirai les variétés de Siegel en tant que variétés algébriques sur un corps fini et je décrirai les propriétés géométriques de certains fibrés vectoriels automorphes vivant dessus.
Théorie de la diffusion pour le modèle optique nucléaire
Catégorie d'évènement : Séminaire des doctorants Date/heure : 20 octobre 2021 10:45-11:45 Lieu : Oratrice ou orateur : Nicolas Frantz Résumé :Soutenance blanche de Gabriel Sevestre
Catégorie d'évènement : Séminaire des doctorants Date/heure : 15 juin 2021 15:00-16:00 Lieu : Oratrice ou orateur : Gabriel Sevestre Résumé :Operateurs de Schrödinger semi-classiques et estimées $L^p$.
Catégorie d'évènement : Séminaire des doctorants Date/heure : 14 avril 2021 14:00-15:00 Lieu : Oratrice ou orateur : Nhi Ngoc Nguyen Résumé :Les opérateurs de Schrödinger sont des incontournables dans la mécanique
quantique. J’exposerai d’abord des motivations physiques de l’étude
spectrale de ces objets. Plusieurs auteurs ont obtenu des bornes en
norme $L^p$ sur les quasi-modes des opérateurs de Schrödinger. On verra
ensuite comment se généralisent de telles estimées à des systèmes
orthonormés de fonctions. L’idée de l’exposé est de donner un avant-goût
des jolis outils sous-jacents.
Rates of convergence to the local time of sticky diffusions.
Catégorie d'évènement : Séminaire des doctorants Date/heure : 7 avril 2021 14:00-15:00 Lieu : Oratrice ou orateur : Alexis Anagnostakis Résumé :Titre à venir
Catégorie d'évènement : Séminaire des doctorants Date/heure : 17 mars 2021 14:00-15:00 Lieu : Oratrice ou orateur : Mihai-Cosmin Pavel Résumé :Résumé à venir
An introduction to moduli spaces
Catégorie d'évènement : Séminaire des doctorants Date/heure : 17 mars 2021 14:00-15:00 Lieu : Oratrice ou orateur : Mihai-Cosmin Pavel (IECL, Nancy) Résumé :In modern algebraic geometry, the study of moduli spaces plays a central role in the problem of classifying certain geometric objects (e.g., Riemann surfaces, vector bundles), up to a fixed notion of isomorphism. The foremost question arising is whether we can construct a moduli space which, roughly speaking, parametrizes the isomorphism classes of such objects. The moduli space will be endowed with a natural geometric structure, which is often a scheme or an algebraic stack. In this talk we give an introduction in the theory of moduli spaces, with special emphasis on some classical examples: the Grassmannian, the Hilbert scheme, the moduli space of sheaves etc.. We will formulate the moduli problems using the categorical language of representable functors, and introduce the notions of fine and coarse moduli spaces.
Introduction to Stochastic Approximation on Geometrical Spaces Generalizing Gradient Descent Algorithms
Catégorie d'évènement : Séminaire des doctorants Date/heure : 3 mars 2021 14:00-15:00 Lieu : Oratrice ou orateur : Pablo Jimenez Moreno (CMAP - Centre de Mathématiques Appliquées - Ecole Polytechnique) Résumé :Stochastic Approximation is a useful tool for Machine Learning techniques such as Stochastic Gradient Descent. These algorithms are applied to a lot of different fields, improving the transportation times, helping doctors diagnosing with medical images, automatically translating text, detecting spam and more. Most of the time, the model traditionally lies in a vector space. However, some problems present non-linear constraints, that can be translated into a manifold. This framework ensures the conservation of key properties. As an introduction to geometric machine learning, we study the gradient descent algorithm, and its adaptation to Riemannian manifolds. Finally, we compare the performance of the two, introducing new non-asymptotic bounds.