L'IECL

Groupe de travail Probabilités et Statistique

Groupe de travail Probabilités et Statistique

Abonnement iCal : iCal

Exposés à venir

Trinh Duong (LIF)

30 mai 2024 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Trinh Duong (LIF, LabEx ARBRE)
Résumé :

TBA


Possible réunion d'équipe

16 mai 2024 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Pascal Moyal
Résumé :

Le créneau du GDT est reservé pour une eventuelle réunion d’équipe, si elle n’a pas lieu avant.


Modélisation de la dégradation de batteries électriques avec quantification des incertitudes

6 mai 2024 14:00-15:30 - Salle Döblin
Oratrice ou orateur : Benjamin Larvaron (IECL/TotalEnergies)
Résumé :

Groupe de travail extraordinaire: preparation à la soutenance.

Les batteries Lithium-ion représentent actuellement un enjeu majeur pour l’industrie. Elles sont appelées à être utilisées massivement avec le développement des voitures électriques, ainsi pour le stockage d’énergie d’origine renouvelable, par nature intermittente et décentralisée. Au vu de ces enjeux de nombreux nouveaux modèles de batteries sont développés. Chacun vise à améliorer les performances précédentes et en particulier en ce qui concerne la durée de vie et la vitesse de dégradation. Ici, nous nous intéresserons à la modélisation statistique de cette dégradation, apprise à partir de mesures expérimentales du vieillissement. Pour que son utilisation soit fiable en pratique, cette modélisation doit être accompagnée d’une quantification des différentes sources d’incertitudes.

Dans un premier temps nous présenterons la modélisation de la dégradation à une condition expérimentale de référence. Pour ce faire nous utiliserons des méthodes centrées sur l’utilisation des processus gaussiens. Ces méthodes ont l’avantage de permettre l’apprentissage de fonctions complexes, tout en permettant une quantification des incertitudes de part leur nature probabiliste. Partant de l’état de l’art avec la régression par processus gaussien, nous verrons les limites de cette approche pour quantifier l’évolution temporelle des incertitudes et extrapoler les cycles futurs. En réponse, nous proposerons l’utilisation du cadre plus général de la régression par processus gaussiens chaînés complétée par l’intégration de contraintes sur les dérivés.

Dans un second temps, nous élargirons le problème au cas de plusieurs conditions expérimentales, avec l’objectif de prédire la dégradation à des conditions expérimentales non observées. Face aux difficultés rencontrées pour modéliser l’effet des conditions avec les méthodes par processus gaussiens, nous proposons une autre approche reposant sur la théorie du transport optimal. Nous introduirons l’idée d’un barycentre conditionnel de Wassertein comme de méthode de régression lorsque les sorties sont des distributions de probabilités. La régression Fréchet, un type particulier de barycentre conditionnel, sera utilisée pour modéliser l’effet de la température sur le vieillissement des batteries.


Exposés passés

Introduction aux EDPS singulières et aux Structures de Régularité(III)

18 avril 2024 09:15-10:30 - Salle de conférences Nancy
Oratrice ou orateur : Yvain Bruned
Résumé :

Semi-LASSO: un weighted LASSO pour l'intégration de régresseurs connus dans un modèle linéaire

11 avril 2024 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Anouk Rago (IECL)
Résumé :

Le LASSO est une technique très largement utilisée lorsqu’il s’agit à la fois d’estimer les paramètres d’un modèle et d’effectuer une sélection de variables. Il est particulièrement utile pour étudier de grands jeux de données, comme cela peut être le cas en biologie des systèmes par exemple, ce qui le rend très utilisé dans le domaine de l’inférence de réseaux de gènes. Cette méthode peut par ailleurs être enrichie et améliorée par des connaissances préalables sur les régresseurs potentiels, afin de guider la sélection de variables. Dans ce cas, on peut employer un weighted LASSO, dérivé du LASSO original, dans lequel l’ajout de poids spécifiques à chaque variable permet d’encoder des a priori. Le package R `glmnet’ permet à l’utilisateur de spécifier ses propres poids via un paramètre. Nous introduisons ici une nouvelle méthode appelée semi-LASSO qui résout un cas spécifique de weighted LASSO. Son implémentation repose sur l’utilisation du package `glmnet’, mais inclut une première étape de réduction de dimension pour une meilleure optimisation de la fonction de coût du LASSO. Des simulations numériques sont effectuées sur des données synthétiques afin de comparer les résultats obtenus avec le weighted LASSO de `glmnet’ et notre méthode semi-LASSO.


Introduction aux EDPS singulières et aux Structures de Régularité(II)

4 avril 2024 09:15-10:30 - Salle Döblin
Oratrice ou orateur : Yvain Bruned
Résumé :

Introduction aux EDPS singulières et aux Structures de Régularité(I)

21 mars 2024 09:15-10:30 - Salle de conférences Nancy
Oratrice ou orateur : Yvain Bruned
Résumé :

Moyenne et Composantes Principales de séries temporelles, une nouvelle approche avec la méthode de la signature II

15 février 2024 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Raphael Mignot (IECL)
Résumé :

Suite du groupe de travail du 1er février. Le résumé est actualisé.

L’objectif de notre travail est double : établir un barycentre de séries temporelles multidimensionnelles et trouver des directions d’importance. Nous encodons les séries temporelles avec des intégrales de différents ordres de moments, constituant leur signature.

Dans un premier groupe de travail (1er fév.), nous avons introduit la topologie de l’espace des signatures et de leur espace ambiant, ainsi que leurs propriétés fondamentales. L’espace des coefficients de signature est une variété avec une structure de groupe mais sans métrique riemannienne bi-invariante, ce qui rend difficile l’utilisation d’approches Riemanniennes classiques.

Dans cet épisode 2, nous reviendrons sur les barycentres de signatures puis nous introduirons une généralisation de l’Analyse en Composantes Principales aux variétés différentiables. Dans le même esprit que la procédure de calcul de la moyenne, nous cherchons les géodésiques importantes. Importantes dans le sens où les coefficients de signature ont une variance maximale le long de ces géodésiques. Elles décrivent donc bien les données dans l’espace des coefficients de signature. Ces directions principales peuvent être utilisées pour une interprétation qualitative des données, mais aussi pour la réduction de dimension, comme on le fait avec l’analyse en composantes principales lorsqu’on analyse des données dans un espace Euclidien.


Normalité asymptotique sous dépendance locale, et application aux occurrences de motifs dans les permutations aléatoires

8 février 2024 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Dubach Victor
Résumé :
Dans cet exposé on commencera par introduire la notion de « graphe de dépendance », qui permet notamment de généraliser le Théorème Central Limite en affaiblissant l’hypothèse d’indépendance. Cette généralisation n’est cependant pas gratuite ; elle requiert notamment une bonne estimation de la variance de la variable d’intérêt. On s’intéressera donc plus précisément au cas des U-statistiques, variables pour lesquelles on peut astucieusement calculer la variance.
Ces considérations pourront s’appliquer à la question du nombre d’occurrences d’un motif donné dans une grande permutation aléatoire. Pour des permutations de loi uniforme, il est bien connu que cette statistique satisfait une normalité asymptotique. À l’aide d’une approche géométrique, on étendra ce résultat aux permutations de loi invariante par conjugaison.

Moyenne et Composantes Principales de séries temporelles, une nouvelle approche avec la méthode de la signature

1 février 2024 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Raphael Mignot (IECL)
Résumé :

English version below: upon request the presentation can be in english, please let the speaker know a.s.a.p..

L’objectif de notre travail est double : établir un barycentre de séries temporelles multidimensionnelles et trouver des directions d’importance. Nous encodons les séries temporelles avec des intégrales de différents ordres de moments, constituant leur signature.
Tout d’abord, nous avons développé une approche pour calculer la moyenne des coefficients de signature. L’espace des coefficients de signature est une variété avec une structure de groupe mais sans métrique riemannienne bi-invariante, ce qui rend difficile l’utilisation d’approches Riemanniennes classiques.
Ensuite, dans le même esprit que la procédure de calcul de la moyenne, nous cherchons les géodésiques importantes. Importantes dans le sens où les coefficients de signature ont une variance maximale le long de ces géodésiques. Elles décrivent donc bien les données dans l’espace des coefficients de signature. Ces directions principales peuvent être utilisées pour une interprétation qualitative des données, mais aussi pour la réduction de dimension, comme on le fait avec l’analyse en composantes principales lorsqu’on analyse des données dans un espace Euclidien.

 

Title: Mean and Principal Components of time series, a new approach with the signature method.

Abstract: The aim of our work is twofold: average multidimensional time series and find directions of importance. We encode time series with integrals of various moment orders, constituting their signature.
First, we have developed an approach to average signatures coefficients. The space of signature coefficients is a manifold with a group structure but without a bi-invariant Riemannian metric, making it difficult to use classic Riemannian approaches.
Then, in the same spirit as in the averaging procedure, we look for important geodesics. Important in the sense that the signature coefficients have maximum variance along those. Thus, they describe well the data in the space of signature coefficients. Those main directions could be used for a qualitative interpretation of the data but also for dimension reduction, as it is done with the Principal Component Analysis when analyzing data in a Euclidean space.


Réunion d'équipe

18 janvier 2024 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Pascal Moyal
Résumé :

Le créneau du GDT est reservé pour une réunion d’équipe.


Quelle est la probabilité qu'une formule soit plus simple qu'une autre ?

7 décembre 2023 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Pierre Mercuriali (IECL)
Résumé :

Je présente ici certains travaux que j’ai effectués lors de ma thèse sur les représentations efficaces de fonctions Booléennes, ainsi que certaines explorations probabilistes que j’ai menées par la suite. Nous pouvons définir une fonction Booléenne {0,1}^n -> {0,1} par sa table de vérité, ce qui est en général plus coûteux que d’en donner une formule, e.g., en forme normale disjonctive ou conjonctive. Je présenterai un cadre de travail général qui permet de comparer, en termes de coût, les différentes manières de définir ces formes normales. La comparaison de certaines formes normales est un problème ouvert. Afin d’y répondre, je présenterai une extension de ce cadre de travail pour étudier la distribution des tailles des formules Booléennes minimales, étant données des contraintes structurelles fortes.


Énumération de cartes et polynômes de Jack.

23 novembre 2023 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Houcine Ben Dali (IECL et IRIF Paris)
Résumé :
Les cartes combinatoires sont des graphes plongés sur des surface orientables ou non. La théorie de représentation du groupe symétrique permet d’établir plusieurs connexions entre les séries génératrices de cartes et les fonctions de Schur, qui sont une famille de fonction symétriques. Je m’intéresse à deux familles de conjectures qui lient les polynômes de Jack, une déformation à un paramètre des fonctions de Schur, à des séries génératrices de cartes  comptées avec un poids de « non orientabilité ».
Dans cet exposé, je présente une interprétation combinatoire pour les polynômes de Jack en termes de cartes non orientables à niveaux. Ce résultat généralise une formule pour les caractères du groupe symétrique conjecturée par Stanley et démontré par Féray en 2010. Cet exposé repose sur un travail effectué en collaboration avec Maciej Dołęga.

Que se passe-t-il autour d'un vide extrême ? (II) Étude de la distribution aléatoire sur les polytopes décrivant les trous d'une percolation booléenne de très grand paramètre.

16 novembre 2023 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Rémi Peyre
Résumé :

Cet exposé, bien que s’inscrivant dans la continuité de celui de la semaine dernière, devrait néanmoins pouvoir être suivi sans souci majeur même par ceux n’y ayant pas assisté.

La semaine dernière, nous avons motivé l’introduction d’une certaine distribution de probabilité P à valeurs dans les polytopes d-dimensionnels, distribution que nous avons introduite comme décrivant, en régime asymptotique, la forme des trous qui subsistent lorsqu’on procède à une « percolation booléenne » de très grand paramètre dans ℝd (ce qui consiste à jeter au hasard dans l’espace un très grand nombre de boules interpénétrables). Après avoir rappelé brièvement la description rigoureuse de P, cet exposé sera consacré à l’étude de ses propriétés.

La première question qui nous préoccupera consistera à simuler “directement” P : en effet, la définition que nous avons donnée la semaine dernière ne permettait pas de construire facilement la loi P, mais seulement la loi Q déduite de la précédente en la biaisant par le volume du polytope. Or il se trouve qu’il existe aussi un moyen de décrire P sans passer par une telle mesure biaisée : ce qui permet non seulement d’en faire des simulations, mais surtout de disposer d’une approche plus commode pour en étudier les propriétés ! Cela nous permettra notamment de déterminer le volume moyen des polytopes tirés selon P : quantité qui est directement liée à la densité des trous dans la percolation booléenne.

La question du nombre moyen d’hyperfaces des polytopes tirés selon P est quant à elle liée à l’« indice extrêmal » des cellules de Voronoï de grand circumrayon — je rappellerai ce que tout cela signifie. Je présenterai à ce sujet une idée nouvelle que j’ai eue il y a quelques mois, qui a permis de résoudre et de généraliser une conjecture émise par Pierre CALKA il y a une dizaine d’années : en dimension 2, le nombre moyen de côtés de notre polygone aléatoire vaut 4, et plus généralement en dimension d, le nombre d’hyperfaces du polytope vaut 2d 😀

Enfin, je présenterai quelques autres caractéristiques de la distribution P que je suis arrivé à calculer. Un phénomène remarquable semble se dessiner : pour toutes les valeurs de d et j où j’ai su mener les calculs à bien, le nombre moyen de j-faces du polytope aléatoire de dimension d se trouve être égal au nombre de j-faces du d-hypercube ! Je vous partage cette conjecture avec d’autant plus d’intérêt que je n’en ai pris conscience que le soir après mon premier exposé…! 😋


Que se passe-t-il autour d'un vide extrême ? (I)

9 novembre 2023 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Rémi Peyre
Résumé :

Forme asymptotique des trous dans une percolation booléenne de grand paramètre

La mosaïque de Poisson-Voronoï est un objet classique en géométrie aléatoire : on jette des « germes » de façon poissonnienne dans l’espace euclidien ℝd ; et à chaque germe, on associe la « cellule » des points de l’espace situés plus près de lui que de n’importe quel autre germe. (Ce qui, au passage, donne lieu à de jolis dessins 😇). On peut alors chercher à comprendre les « phénomènes extrêmaux » d’un tel processus aléatoire, à savoir, répondre aux questions du type : lorsqu’une cellule possède un comportement extraordinaire, conditionnellement à cela, à quoi ressemble-t-elle ? Cette problématique a notamment été étudiée par Pierre CALKA et Nicolas CHENAVIER.

Ici nous nous intéressons aux cellules de très grand circumrayon, c’est-à-dire, les cellules dont une partie du bord est située à distance > R du germe pour un R très grand. L’existence d’une telle cellule est équivalente à dire qu’il y a dans l’espace une boule de rayon R entièrement vide de germes. Or, dans un tel cas, à ce vide sont toujours associées plusieurs (au moins d + 1) cellules de grand circumrayon. Mais combien au juste ? Il se trouve que, lorsqu’on fait tendre R vers l’infini, la loi du nombre de cellules dans un tel « agrégat » de cellules de grand circumrayon converge vers une limite qui n’est pas dégénérée (pour d > 1)… mais dont le comportement est encore mal compris !

Dans cette paire d’exposés, je vais raconter comment j’ai étudié cette loi-limite du nombre d’agrégats, via des objets géométriques aléatoires qui sont intéressants en tant que tels. L’étude de ces objets, ainsi que leur simulation, fait intervenir plusieurs idées intéressantes. Mon but ultime sera notamment de vous expliquer comment je suis parvenu à démontrer que l’espérance du nombre de cellules dans un agrégat (qu’on appelle, dans le jargon, « l’inverse de l’indice extrêmal ») vaut 2d, confirmant et généralisant une conjecture émise par P. Calka il y a une dizaine d’années.

Ce premier exposé sera plus spécifiquement consacré à l’étude asymptotique de la forme des zones situées à distance plus de R de tout germe : nous montrerons comment une renormalisation appropriée permet d’obtenir une convergence de cette forme vers une loi de probabilité non triviale, loi que nous définirons rigoureusement.


Réunion d'équipe

28 septembre 2023 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Pascal Moyal
Résumé :

La réunion d’équipe de la rentrée


Modèles individu-centrés en dynamique adaptative, comportement asymptotique et équation canonique : le cas des mutations petites et fréquentes.

21 septembre 2023 10:45-11:45 - Salle de conférences Nancy
Oratrice ou orateur : Vincent Hass (IECL)
Résumé :

Le premier groupe de travail, un peu plus tôt que d’habitude. Voici le résumé.

La théorie des dynamiques adaptatives est une branche de la biologie de l’évolution qui étudie les liens entre écologie et évolution. Les hypothèses biologiques qui définissent son cadre sont celles de mutations rares et petites et de grande population asexuée. Les modèles de dynamiques adaptatives décrivent la population au niveau des individus, lesquels sont caractérisés par leurs phénotypes, et visent à étudier l’influence des mécanismes d’hérédité, de mutation et de sélection sur l’évolution à long terme de la population. Le succès de cette théorie vient notamment de sa capacité à fournir une description de l’évolution à long terme du phénotype dominant dans la population comme solution de « l’Equation Canonique des Dynamiques Adaptatives » dirigée par un gradient de fitness, où la  fitness décrit la possibilité d’invasions mutantes, et est construite à partir de paramètres écologiques.
Deux approches mathématiques principales portant sur l’équation canonique ont été développées à ce jour: une approche basée sur des EDP et une approche stochastique. Malgré son succès, l’approche stochastique est critiquée par des biologistes puisqu’elle est basée sur une hypothèse non-réaliste de mutations trop rares.
Le but est de corriger cette controverse biologique en proposant des modèles probabilistes plus réalistes. Plus précisément, le but est de s’intéresser mathématiquement, sous une double asymptotique de grande population et de petites mutations, aux conséquences d’une nouvelle hypothèse biologique de mutations fréquentes sur l’équation canonique. Il s’agit de déterminer, à partir d’un modèle stochastique individu-centré, le comportement en temps long du trait phénotypique moyen de la population. La question que l’on se pose se reformule en une analyse asymptotique lent-rapide agissant sur deux échelles de temps éco-évolutives. Une échelle lente correspondant à la dynamique du trait moyen et une rapide correspondant à la dynamique d’évolution de la distribution recentrée et dilatée des traits.
Cette analyse asymptotique lent-rapide repose sur des techniques de moyennisation. Cette méthode requiert d’identifier et de caractériser le comportement asymptotique de la composante rapide et que cette dernière possède des propriétés d’ergodicité. Plus précisément, le comportement en temps long de la composante rapide est non-classique et correspond à celui d’une diffusion à valeurs mesures originale qui s’interprète comme un processus de Fleming-Viot recentré que l’on caractérise comme l’unique solution d’un certain problème de martingale. Une partie de ces résultats repose sur une relation de dualité portant sur ce processus non-classique et nécessite des conditions de moments sur les données initiales. Au moyen de techniques de couplage et de la correspondance entre les processus particulaires de Moran et les généalogies de Kingman, on établit que le processus de Fleming-Viot recentré satisfait une propriété d’ergodicité avec résultat de convergence exponentielle en variation totale.
La mise en oeuvre des méthodes de moyennisation, inspirée par Kurtz, est fondée sur des arguments de compacité-unicité. L’idée consiste à prouver la compacité des lois du couple constitué de la composante lente et de la mesure d’occupation de la composante rapide puis d’établir un problème de martingale pour tous points d’accumulation de la famille des lois de ce couple. La dernière étape consiste à identifier ces points d’accumulation. Cette méthode requiert notamment l’introduction de temps d’arrêt pour contrôler les moments de la composante rapide et de prouver qu’ils tendent vers l’infini à l’aide d’arguments de grandes déviations, de réduire le problème posé initialement sur la droite réelle au cas du tore afin de prouver la compacité, d’identifier la limite de la composante rapide en adaptant un argument basé sur la dualité de Dawson, d’identifier la limite de la composante lente puis de passer du tore à la droite réelle.

International conference Informs APS 2023

29 juin 2023 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Informs APS 2023
Résumé :

Quand aura-t-on encore l’occasion d’accueillir à Nancy cette confèrence si renommé?

Alos nous ne pouvons pas la manquer 🙂

Le groupe de travail n’aura pas lieu pour vous permettre la participation à la confèrence qui se tiendra au Centre Prouvé.


Colloquinte

15 juin 2023 09:15-12:30 -
Oratrice ou orateur : Irène Marcovici, Renaud Marty, Edouard Strickler, Koléhè Coulibaly-Pasquier
Résumé :

+ « Schéma de splitting pour une équation de Schrödinger non linéaire avec dispersion aléatoire » (Renaud Marty)

Nous considérons dans cet exposé une équation de Schrödinger non linéaire avec dispersion aléatoire. Ce terme de dispersion est un processus stochastique continu général qui peut être par exemple défini à partir d’un mouvement brownien fractionnaire.Nous étudions un schéma de splitting pour la résolution numérique de cette équation.Nous établissons des résultats sur l’ordre de convergence du schéma et montrons qu’il préserve l’asymptotique.

+ « Une extension probabiliste de la suite d’Oldenburger-Kolakoski » (Irène Marcovici)

La suite d’Oldenburger-Kolakoski est l’unique suite infinie sur l’alphabet {1,2} qui commence par un 1 et est un point fixe de l’application de codage par plage. Dans cet exposé, nous prendrons un peu de recul par rapport à cette suite bien connue et très étudiée, en introduisant de l’aléa dans le choix des lettres écrites. Cela nous permettra de montrer des résultats portant sur la convergence de la densité de 1 dans les suites ainsi construites. Dans le cas où les lettres sont choisies selon une suite i.i.d. de variables aléatoires ou selon une chaîne de Markov, la densité moyenne de 1 converge. De plus, dans le cas i.i.d., nous arrivons même à démontrer que la densité converge presque sûrement.
Il s’agit d’un travail réalisé en collaboration avec Chloé Boisson et Damien Jamet.

+ « Les convolutions de Bernoulli » (Edouard Strickler)

Prenez un nombre, mutlipliez-le par une constante a < 1,  ajouter lui aléatoirement 1 ou – 1, et recommencez. Une chaîne de Markov ultra-simple ? et pourtant, elle cache de l’auto-similarité, des escaliers du diable, des nombres de Pisot, des résultats d’Erdös, une vallée de la mort, et son lot de mystères…

+ « Cutoff pour le mouvement Brownien sur les sphères«  (Koléhè Coulibaly-Pasquier)

Nous verrons comment l’entrelacement algébrique fait apparaître le flot de courbure moyenne stochastique renormalisé. Après couplage, entre le processus dual et le processus primal, nous présenterons la notion de temps fort stationnaire. Nous verrons qu’au temps ln(n)/n le mouvement Brownien sur la sphère S^(n+1) est brutalement proche (en séparation) de sa mesure invariante.C’est une série de travaux en collaboration avec Laurent Miclo, et Marc Arnaudon.


Workshop: Processus stochastiques, metastabilité et applications

1 juin 2023 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : International Workshop
Résumé :

Le groupe de travail n’aura pas lieu pour que vous alliez au workhop internationale

Stochastic processes, metastability and applications

qui se tiendra à Nancy du 31 mai au 2 juin 2023, organisé par notre collègue Aline Kurtzmann.


Masterclass M2

25 mai 2023 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur :
Résumé :

Le groupe de travail n’aura pas lieu, à la place vous pouvez participer à la masterclass M2.

Les cours de proba (L. Coutin et I. Kortchemski) ont lieu du mercredi après-midi au vendredi.


Mathematical modeling through branching processes

4 mai 2023 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Manuel Molina (Universidad de Extremadura)
Résumé :

This talk deals with mathematical modeling of dynamical systems through branching processes. After a brief introduction to the theory on branching processes, we will focus the attention in two research lines: models based on two-sex branching processes and models based on branching processes to describe the dynamics of specific biological species. Concernig the first, we will provide an overview on some classes of two-sex branching models recently investigated. About the second line, we will present two stochastic models, the first to describe the demographic dynamics of long-lived raptor species, and the second, to describe the probabilistic evolution of complex biological systems. We will show an application of the first model to the study about the demographic dynamics of black vulture colonies in the region of Extremadura (Spain).

L’orateur est invité BIGS.


Pseudotrajectoires asymptotiques : une approche dynamique de l'approximation stochastique.

13 avril 2023 09:15-10:15 - Salle de conférences Nancy
Oratrice ou orateur : Virgile Brodu (IECL)
Résumé :

Le concept de pseudotrajectoires asymptotiques a été développé à la fin des années 90 par M. Benaïm et M. Hirsch. Pour mieux comprendre la dynamique des algorithmes d’approximation stochastique, ils ont eu l’idée fructueuse d’intégrer aux techniques probabilistes classiques des notions de systèmes dynamiques.

Précisément, nous allons nous rendre compte dans le cadre de ce groupe de travail que la propriété de pseudotrajectoire asymptotique (que je n’écrirai pas ici pour maintenir le suspense) peut donner l’impression d’être relativement peu exploitable, de prime abord. Même si des raisonnements probabilistes à notre portée peuvent nous permettre d’obtenir cette propriété pour des processus raisonnables, elle reste un brin mystique.

C’est sans compter sur l’ingéniosité de Benaïm et Hirsch, qui montrent que cette propriété est en fait suffisante pour dire beaucoup de choses sur le comportement asymptotique de nos algorithmes d’approximation stochastique. Il est possible de relier le comportement limite de ces trajectoires aléatoires aux ensembles de points intrinsèquement récurrents en chaîne pour un certain flot déterministe.


1 2 3 4 5 6 7