Exposés à venir
Xavier Goaoc
20 mars 2025 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Xavier Goaoc
Résumé :
Deuxième de deux séances par le même orateur.
L’orateur presentera un article de titre »Random polytopes and the wet part for arbitrary probability distributions »
Introduction aux polytopes aléatoires
13 mars 2025 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Xavier Goaoc
Résumé :
Première de deux séances par le même orateur.
TBA
23 janvier 2025 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Philippe Chassaing
Résumé :
David Dereudre
9 janvier 2025 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : David Dereudre (Lille)
Résumé :
L’orateur du seminaire donnera un expose’ introductif.
Modèle de configuration et processus markoviens
19 décembre 2024 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Pascal Moyal
Résumé :
Modèle de configuration et processus markoviens
12 décembre 2024 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Pascal Moyal
Résumé :
Exposés passés
Une chaine de Markov sur les permutations, et son temps de mélange.
7 novembre 2024 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Valentin Feray
Résumé :
Il est bien connu qu’une chaîne de Markov finie apériodique irréductible converge vers sa distribution stationnaire. Mais à quelle vitesse ? Il s’agit là souvent d’une question difficile. Dans cet exposé je présenterai une famille de chaînes de Markov, appelées chaînes montantes-descendantes, pour lesquelles on peut calculer de manière exacte la distance (au sens de la distance de séparation) entre la chaîne de Markov et sa distribution stationnaire. Un exemple dans le monde des permutations sera présenté et étudié plus spécifiquement.
Estimations multi-échelles pour les réseaux chimiques autocatalytiques
17 octobre 2024 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Jérémie Unterberger (IECL)
Résumé :
Je présenterai un travail au long cours, en collaboration avec des collègues de l’ESPCI (Ecole supérieure de physique et chimie industrielle), concernant l’étude des réseaux chimiques complexes, qui est notamment motivé par des thématiques biologiques autour des origines de la vie. Je montrerai en particulier comment le problème peut se ramener à l’étude de perturbations de générateurs de chaînes de Markov en temps continu présentant de nombreuses échelles de temps, et introduirai une méthode multi-échelles permettant d’estimer l’exposant de Lyapunov (plus grande valeur propre) et le vecteur propre associé.
Deux seances consecutives: 10 et 17 octobre
Estimations multi-échelles pour les réseaux chimiques autocatalytiques
10 octobre 2024 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Jérémie Unterberger (IECL)
Résumé :
Je présenterai un travail au long cours, en collaboration avec des collègues de l’ESPCI (Ecole supérieure de physique et chimie industrielle), concernant l’étude des réseaux chimiques complexes, qui est notamment motivé par des thématiques biologiques autour des origines de la vie. Je montrerai en particulier comment le problème peut se ramener à l’étude de perturbations de générateurs de chaînes de Markov en temps continu présentant de nombreuses échelles de temps, et introduirai une méthode multi-échelles permettant d’estimer l’exposant de Lyapunov (plus grande valeur propre) et le vecteur propre associé.
Deux seances consecutives: 10 et 17 octobre
Réunion d'équipe
3 octobre 2024 09:15-10:15 - Salle de conférences NancyOratrice ou orateur :
Résumé :
Colloquinte et pique nique
20 juin 2024 09:00-14:00 - Salle DöblinOratrice ou orateur : Equipe PS
Résumé :
Voici à nouveau le colloquinte, photo d’équipe et pique nique. Tenez vous libres entre 9h15 et 14h. Nous serons en salle Döblin.
Programme preliminaire:
10h00 * Pause café *
10h30 Formes limites de tableaux de Young aléatoires et discontinuités, Valentin Feray,
11h15 Processus de branchement binaire avec interactions de type Moran (BBMMI), Denis Villemonais.
12h00 * Préparation pour le pique-nique sur le mode de l’auberge espagnole *
12h15 * Photo d’équipe *
A new sampling framework for spatial surveys with application to the french national forest inventory
30 mai 2024 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Trinh Duong (LIF, LabEx ARBRE)
Résumé :
Surveying natural populations is challenging due to their scattered distribution across a territory. To create spatially balanced samples, surveys typically divide the territory into a spatial grid and either use the grid nodes to form the sample or select points within the grid cells. Sampling the cells adds an additional stage, as currently employed by the French National Forest Inventory (NFI) for annual estimates. However, little attention has been given to accounting for this stage. Double sampling for stratification is a general method that helps reduce the size of a field sample, which is particularly costly. To improve sampling efficiency, we propose a new framework called two-stage two-phase sampling, incorporating a two-stage sampling design in the first phase.
The Horvitz-Thompson estimator is used to estimate the total value. In the first stage, cells are sampled using spatially systematic sampling, and in the second stage, points within these cells are sampled uniformly. The classification of first-phase points into strata is performed through photo-interpretation. In the second phase, points are sampled using spatially systematic sampling over the first-phase sample, based on varying sampling intensities across the strata. To calculate the variance estimator, the global first-phase sample is modeled as uniform sampling, and the global second-phase sample is modeled as stratified simple random sampling. Our results indicate that the expansion estimator remains unbiased and the variance estimators are moderately conservative for the sampling design used by the French NFI.
Additionally, the forest is undergoing rapid changes due to various disturbances, which can be large-scale, such as windthrow or fire, or small-scale, like bark beetle infestations. Our project focuses on large-scale disturbances. Estimating the area affected by such disturbances, known as the area of interest, is interesting for foresters. To address this, we are considering the intensification method, which increases sampling intensity in the area of interest. This method requires higher sampling intensity in specific zones compared to others, resulting in different sampling intensities across regions. A two-stage two-phase sampling framework is particularly useful for managing these varying sampling rates during the second phase, as disturbance information only becomes available at this phase.
Possible réunion d'équipe
16 mai 2024 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Pascal Moyal
Résumé :
Le créneau du GDT est reservé pour une eventuelle réunion d’équipe, si elle n’a pas lieu avant.
Modélisation de la dégradation de batteries électriques avec quantification des incertitudes
6 mai 2024 14:00-15:30 - Salle DöblinOratrice ou orateur : Benjamin Larvaron (IECL/TotalEnergies)
Résumé :
Groupe de travail extraordinaire: preparation à la soutenance.
Les batteries Lithium-ion représentent actuellement un enjeu majeur pour l’industrie. Elles sont appelées à être utilisées massivement avec le développement des voitures électriques, ainsi pour le stockage d’énergie d’origine renouvelable, par nature intermittente et décentralisée. Au vu de ces enjeux de nombreux nouveaux modèles de batteries sont développés. Chacun vise à améliorer les performances précédentes et en particulier en ce qui concerne la durée de vie et la vitesse de dégradation. Ici, nous nous intéresserons à la modélisation statistique de cette dégradation, apprise à partir de mesures expérimentales du vieillissement. Pour que son utilisation soit fiable en pratique, cette modélisation doit être accompagnée d’une quantification des différentes sources d’incertitudes.
Dans un premier temps nous présenterons la modélisation de la dégradation à une condition expérimentale de référence. Pour ce faire nous utiliserons des méthodes centrées sur l’utilisation des processus gaussiens. Ces méthodes ont l’avantage de permettre l’apprentissage de fonctions complexes, tout en permettant une quantification des incertitudes de part leur nature probabiliste. Partant de l’état de l’art avec la régression par processus gaussien, nous verrons les limites de cette approche pour quantifier l’évolution temporelle des incertitudes et extrapoler les cycles futurs. En réponse, nous proposerons l’utilisation du cadre plus général de la régression par processus gaussiens chaînés complétée par l’intégration de contraintes sur les dérivés.
Dans un second temps, nous élargirons le problème au cas de plusieurs conditions expérimentales, avec l’objectif de prédire la dégradation à des conditions expérimentales non observées. Face aux difficultés rencontrées pour modéliser l’effet des conditions avec les méthodes par processus gaussiens, nous proposons une autre approche reposant sur la théorie du transport optimal. Nous introduirons l’idée d’un barycentre conditionnel de Wassertein comme de méthode de régression lorsque les sorties sont des distributions de probabilités. La régression Fréchet, un type particulier de barycentre conditionnel, sera utilisée pour modéliser l’effet de la température sur le vieillissement des batteries.
Introduction aux EDPS singulières et aux Structures de Régularité(III)
18 avril 2024 09:15-10:30 - Salle de conférences NancyOratrice ou orateur : Yvain Bruned
Résumé :
Semi-LASSO: un weighted LASSO pour l'intégration de régresseurs connus dans un modèle linéaire
11 avril 2024 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Anouk Rago (IECL)
Résumé :
Le LASSO est une technique très largement utilisée lorsqu’il s’agit à la fois d’estimer les paramètres d’un modèle et d’effectuer une sélection de variables. Il est particulièrement utile pour étudier de grands jeux de données, comme cela peut être le cas en biologie des systèmes par exemple, ce qui le rend très utilisé dans le domaine de l’inférence de réseaux de gènes. Cette méthode peut par ailleurs être enrichie et améliorée par des connaissances préalables sur les régresseurs potentiels, afin de guider la sélection de variables. Dans ce cas, on peut employer un weighted LASSO, dérivé du LASSO original, dans lequel l’ajout de poids spécifiques à chaque variable permet d’encoder des a priori. Le package R `glmnet’ permet à l’utilisateur de spécifier ses propres poids via un paramètre. Nous introduisons ici une nouvelle méthode appelée semi-LASSO qui résout un cas spécifique de weighted LASSO. Son implémentation repose sur l’utilisation du package `glmnet’, mais inclut une première étape de réduction de dimension pour une meilleure optimisation de la fonction de coût du LASSO. Des simulations numériques sont effectuées sur des données synthétiques afin de comparer les résultats obtenus avec le weighted LASSO de `glmnet’ et notre méthode semi-LASSO.
Introduction aux EDPS singulières et aux Structures de Régularité(II)
4 avril 2024 09:15-10:30 - Salle DöblinOratrice ou orateur : Yvain Bruned
Résumé :
Introduction aux EDPS singulières et aux Structures de Régularité(I)
21 mars 2024 09:15-10:30 - Salle de conférences NancyOratrice ou orateur : Yvain Bruned
Résumé :
Moyenne et Composantes Principales de séries temporelles, une nouvelle approche avec la méthode de la signature II
15 février 2024 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Raphael Mignot (IECL)
Résumé :
Suite du groupe de travail du 1er février. Le résumé est actualisé.
L’objectif de notre travail est double : établir un barycentre de séries temporelles multidimensionnelles et trouver des directions d’importance. Nous encodons les séries temporelles avec des intégrales de différents ordres de moments, constituant leur signature.
Dans un premier groupe de travail (1er fév.), nous avons introduit la topologie de l’espace des signatures et de leur espace ambiant, ainsi que leurs propriétés fondamentales. L’espace des coefficients de signature est une variété avec une structure de groupe mais sans métrique riemannienne bi-invariante, ce qui rend difficile l’utilisation d’approches Riemanniennes classiques.
Dans cet épisode 2, nous reviendrons sur les barycentres de signatures puis nous introduirons une généralisation de l’Analyse en Composantes Principales aux variétés différentiables. Dans le même esprit que la procédure de calcul de la moyenne, nous cherchons les géodésiques importantes. Importantes dans le sens où les coefficients de signature ont une variance maximale le long de ces géodésiques. Elles décrivent donc bien les données dans l’espace des coefficients de signature. Ces directions principales peuvent être utilisées pour une interprétation qualitative des données, mais aussi pour la réduction de dimension, comme on le fait avec l’analyse en composantes principales lorsqu’on analyse des données dans un espace Euclidien.
Normalité asymptotique sous dépendance locale, et application aux occurrences de motifs dans les permutations aléatoires
8 février 2024 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Dubach Victor
Résumé :
Moyenne et Composantes Principales de séries temporelles, une nouvelle approche avec la méthode de la signature
1 février 2024 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Raphael Mignot (IECL)
Résumé :
English version below: upon request the presentation can be in english, please let the speaker know a.s.a.p..
L’objectif de notre travail est double : établir un barycentre de séries temporelles multidimensionnelles et trouver des directions d’importance. Nous encodons les séries temporelles avec des intégrales de différents ordres de moments, constituant leur signature.
Tout d’abord, nous avons développé une approche pour calculer la moyenne des coefficients de signature. L’espace des coefficients de signature est une variété avec une structure de groupe mais sans métrique riemannienne bi-invariante, ce qui rend difficile l’utilisation d’approches Riemanniennes classiques.
Ensuite, dans le même esprit que la procédure de calcul de la moyenne, nous cherchons les géodésiques importantes. Importantes dans le sens où les coefficients de signature ont une variance maximale le long de ces géodésiques. Elles décrivent donc bien les données dans l’espace des coefficients de signature. Ces directions principales peuvent être utilisées pour une interprétation qualitative des données, mais aussi pour la réduction de dimension, comme on le fait avec l’analyse en composantes principales lorsqu’on analyse des données dans un espace Euclidien.
Title: Mean and Principal Components of time series, a new approach with the signature method.
Abstract: The aim of our work is twofold: average multidimensional time series and find directions of importance. We encode time series with integrals of various moment orders, constituting their signature.
First, we have developed an approach to average signatures coefficients. The space of signature coefficients is a manifold with a group structure but without a bi-invariant Riemannian metric, making it difficult to use classic Riemannian approaches.
Then, in the same spirit as in the averaging procedure, we look for important geodesics. Important in the sense that the signature coefficients have maximum variance along those. Thus, they describe well the data in the space of signature coefficients. Those main directions could be used for a qualitative interpretation of the data but also for dimension reduction, as it is done with the Principal Component Analysis when analyzing data in a Euclidean space.
Réunion d'équipe
18 janvier 2024 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Pascal Moyal
Résumé :
Le créneau du GDT est reservé pour une réunion d’équipe.
Quelle est la probabilité qu'une formule soit plus simple qu'une autre ?
7 décembre 2023 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Pierre Mercuriali (IECL)
Résumé :
Je présente ici certains travaux que j’ai effectués lors de ma thèse sur les représentations efficaces de fonctions Booléennes, ainsi que certaines explorations probabilistes que j’ai menées par la suite. Nous pouvons définir une fonction Booléenne {0,1}^n -> {0,1} par sa table de vérité, ce qui est en général plus coûteux que d’en donner une formule, e.g., en forme normale disjonctive ou conjonctive. Je présenterai un cadre de travail général qui permet de comparer, en termes de coût, les différentes manières de définir ces formes normales. La comparaison de certaines formes normales est un problème ouvert. Afin d’y répondre, je présenterai une extension de ce cadre de travail pour étudier la distribution des tailles des formules Booléennes minimales, étant données des contraintes structurelles fortes.
Énumération de cartes et polynômes de Jack.
23 novembre 2023 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Houcine Ben Dali (IECL et IRIF Paris)
Résumé :
Que se passe-t-il autour d'un vide extrême ? (II) Étude de la distribution aléatoire sur les polytopes décrivant les trous d'une percolation booléenne de très grand paramètre.
16 novembre 2023 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Rémi Peyre
Résumé :
Cet exposé, bien que s’inscrivant dans la continuité de celui de la semaine dernière, devrait néanmoins pouvoir être suivi sans souci majeur même par ceux n’y ayant pas assisté.
La semaine dernière, nous avons motivé l’introduction d’une certaine distribution de probabilité P à valeurs dans les polytopes d-dimensionnels, distribution que nous avons introduite comme décrivant, en régime asymptotique, la forme des trous qui subsistent lorsqu’on procède à une « percolation booléenne » de très grand paramètre dans ℝd (ce qui consiste à jeter au hasard dans l’espace un très grand nombre de boules interpénétrables). Après avoir rappelé brièvement la description rigoureuse de P, cet exposé sera consacré à l’étude de ses propriétés.
La première question qui nous préoccupera consistera à simuler “directement” P : en effet, la définition que nous avons donnée la semaine dernière ne permettait pas de construire facilement la loi P, mais seulement la loi Q déduite de la précédente en la biaisant par le volume du polytope. Or il se trouve qu’il existe aussi un moyen de décrire P sans passer par une telle mesure biaisée : ce qui permet non seulement d’en faire des simulations, mais surtout de disposer d’une approche plus commode pour en étudier les propriétés ! Cela nous permettra notamment de déterminer le volume moyen des polytopes tirés selon P : quantité qui est directement liée à la densité des trous dans la percolation booléenne.
La question du nombre moyen d’hyperfaces des polytopes tirés selon P est quant à elle liée à l’« indice extrêmal » des cellules de Voronoï de grand circumrayon — je rappellerai ce que tout cela signifie. Je présenterai à ce sujet une idée nouvelle que j’ai eue il y a quelques mois, qui a permis de résoudre et de généraliser une conjecture émise par Pierre CALKA il y a une dizaine d’années : en dimension 2, le nombre moyen de côtés de notre polygone aléatoire vaut 4, et plus généralement en dimension d, le nombre d’hyperfaces du polytope vaut 2d 😀
Enfin, je présenterai quelques autres caractéristiques de la distribution P que je suis arrivé à calculer. Un phénomène remarquable semble se dessiner : pour toutes les valeurs de d et j où j’ai su mener les calculs à bien, le nombre moyen de j-faces du polytope aléatoire de dimension d se trouve être égal au nombre de j-faces du d-hypercube ! Je vous partage cette conjecture avec d’autant plus d’intérêt que je n’en ai pris conscience que le soir après mon premier exposé…! 😋
Que se passe-t-il autour d'un vide extrême ? (I)
9 novembre 2023 09:15-10:15 - Salle de conférences NancyOratrice ou orateur : Rémi Peyre
Résumé :
Forme asymptotique des trous dans une percolation booléenne de grand paramètre
La mosaïque de Poisson-Voronoï est un objet classique en géométrie aléatoire : on jette des « germes » de façon poissonnienne dans l’espace euclidien ℝd ; et à chaque germe, on associe la « cellule » des points de l’espace situés plus près de lui que de n’importe quel autre germe. (Ce qui, au passage, donne lieu à de jolis dessins 😇). On peut alors chercher à comprendre les « phénomènes extrêmaux » d’un tel processus aléatoire, à savoir, répondre aux questions du type : lorsqu’une cellule possède un comportement extraordinaire, conditionnellement à cela, à quoi ressemble-t-elle ? Cette problématique a notamment été étudiée par Pierre CALKA et Nicolas CHENAVIER.
Ici nous nous intéressons aux cellules de très grand circumrayon, c’est-à-dire, les cellules dont une partie du bord est située à distance > R du germe pour un R très grand. L’existence d’une telle cellule est équivalente à dire qu’il y a dans l’espace une boule de rayon R entièrement vide de germes. Or, dans un tel cas, à ce vide sont toujours associées plusieurs (au moins d + 1) cellules de grand circumrayon. Mais combien au juste ? Il se trouve que, lorsqu’on fait tendre R vers l’infini, la loi du nombre de cellules dans un tel « agrégat » de cellules de grand circumrayon converge vers une limite qui n’est pas dégénérée (pour d > 1)… mais dont le comportement est encore mal compris !
Dans cette paire d’exposés, je vais raconter comment j’ai étudié cette loi-limite du nombre d’agrégats, via des objets géométriques aléatoires qui sont intéressants en tant que tels. L’étude de ces objets, ainsi que leur simulation, fait intervenir plusieurs idées intéressantes. Mon but ultime sera notamment de vous expliquer comment je suis parvenu à démontrer que l’espérance du nombre de cellules dans un agrégat (qu’on appelle, dans le jargon, « l’inverse de l’indice extrêmal ») vaut 2d, confirmant et généralisant une conjecture émise par P. Calka il y a une dizaine d’années.
Ce premier exposé sera plus spécifiquement consacré à l’étude asymptotique de la forme des zones situées à distance plus de R de tout germe : nous montrerons comment une renormalisation appropriée permet d’obtenir une convergence de cette forme vers une loi de probabilité non triviale, loi que nous définirons rigoureusement.