L'IECL

Groupe de travail Probabilités et Statistique

Groupe de travail Probabilités et Statistique

Abonnement iCal : iCal

Exposés à venir

Exposés passés

Unbiased simulation methods based on the parametrix I

12 avril 2018 09:15-10:15 -
Oratrice ou orateur : Arturo Kohatsu-Higa
Résumé :

In these two presentations, we will first introduce using basic stochastic calculus, the parametrx method and then show how to deduce an unbiased simulation method and its interpretations.

We will discuss its advantages and shortcomings and then discuss how to solve them.
using a second
order method.
We will also give some simulation results and then time allowing we will discuss some other extensions.


Pont brownien fractionnaire.

29 mars 2018 09:15-10:15 -
Oratrice ou orateur : Pierre Vallois
Résumé :

On peut définir une notion de fonction de répartition fractionnaire en utilisant les outils du calcul différentiel fractionnaire. Cette probabilité est en fait l’espérance d’une certaine variable aléatoire. Le schéma d’approximation basé sur théorème central limite permet de mettre en évidence un processus gaussien. On peut représenter ce processus comme une intégrale stochastique d’une fonction par rapport au pont brownien classique.


Estimation simultanée d'un modèle à  une équation structurelle et de ses facteurs latents par algorithme EM

15 février 2018 09:15-10:15 -
Oratrice ou orateur : Myriam Tami
Résumé :

Les modèles d’équations structurelles à  variables latentes permettent de modéliser des relations entre des variables observables et non observables. Les deux paradigmes actuels d’estimation de ces modèles sont les méthodes de moindres carrés partiels sur composantes et l’analyse de la structure de covariance.

Respectivement, les méthodes d’estimation les plus populaires sont PLS-PM (Partial Least Squares Path Modeling) et CBSEM (Covariance-Based Structural Equation Modeling). Dans ce travail nous proposons une approche d’estimation alternative fondée sur la maximisation par algorithme EM de la vraisemblance globale du modèle tenant compte de l’ensemble des équations le constituant. Cette approche EM est développée pour le cas d’un modèle à  une seule équation structurelle o๠les variables latentes sont des facteurs eux même liés à  de multiples blocs de variables observables. Nous en étudierons les performances sur des données synthétiques et nous proposerons, via une application sur des données réelles environnementales, comment construire pratiquement un modèle et en évaluer la qualité. Enfin, nous présenterons une application de l’approche développée dans le contexte d’un essai clinique en cancérologie pour l’étude de données longitudinales de qualité de vie. Nous montrerons que par la réduction efficace de la dimension des données, l’approche EM simplifie l’analyse longitudinale de la qualité de vie en évitant les tests multiples. Ainsi, elle contribue à  faciliter l’évaluation du bénéfice clinique d’un traitement.


Collectionneur de coupon impatient et applications ...(II)

1 février 2018 09:15-10:15 -
Oratrice ou orateur : Philippe Chassaing
Résumé :

L’exposé porte sur le problème du collectionneur de coupon avec contrainte de complétion rapide. On donnera des éléments de preuve pour deux résultats :
– la limite de la courbe de completion sous la contrainte de completion rapide,
– la formule de Korsunov donnant le nombre d’automates complets accessibles, pour lequel on donnera une démonstration probabiliste simple.
Travail en collaboration avec Anis Amri.


Comportement hydrodynamique de gaz sur réseaux loin de l'équilibre.

25 janvier 2018 09:15-10:15 -
Oratrice ou orateur : Alexandre Lazarescu
Résumé :

Les modèles de particules sur réseau sont le terrain de jeu idéal pour étudier l’émergence de phénomènes collectifs à  l’échelle macroscopique à  partir de lois microscopiques simples. Il s’agit de modèles stochastiques en espace discret et (souvent) en temps continu, o๠des particules sautent de site en site avec certains taux et selon certaines règles, qui déterminent explicitement l’évolution temporelle de la probabilité de chaque configuration du système (i.e. du vecteur comportant le nombre de particules sur chaque site). La question est alors de savoir comment évoluent certaines observables partielles dans certaines limites, et en particulier de trouver celles dont l’évolution devient autonome.
Je parlerai ici d’une observable en particulier, à  savoir la densité locale moyenne de particules, i.e. le nombre moyen de particules en un point et à  un temps donnée (encore appelé la fonction à  un point) ; les modèles pour lesquels elle admet une équation d’évolution stochastique autonome dans la limite des grandes tailles sont qualifiés d’hydrodynamiques. Après avoir posé le problème, je parlerai de deux types de modèles dans ce contexte (avec certaines contraintes physiques sur les taux de transition) : les modèles proches de l’équilibre dans un premier temps (i.e. dont les taux de transition brisent le bilan détaillé au plus infinitésimalement), pour lesquels il est connu, via la théorie des fluctuations macroscopiques (MFT), qu’ils ont génériquement un comportement hydrodynamique à  la limite des grandes tailles ; et, dans un second temps, les modèles loin de l’équilibre, o๠aucun résultat général n’existe pour le moment. Je montrerai, pour ces derniers, qu’ils peuvent en fait être le lieu de transitions de phases dynamiques (j’expliquerai ce terme) entre des phases hydrodynamiques et des phases o๠les corrélations à  longue distance jouent un rôle majeur (et o๠par conséquent la densité moyenne n’a pas d’évolution autonome). Je conclurai en mentionnant quelques problèmes ouverts liés à  ce problème.


Quand David devient Goliath : l'Adaptive Boosting

18 janvier 2018 09:15-10:15 -
Oratrice ou orateur : Romain Azaïs
Résumé :

En classification supervisée se pose très vite la question de comment choisir parmi toutes les méthodes disponibles dans la littérature. L’algorithme AdaBoost (pour Adaptive Boosting), découvert par Freund et Schapire à  la fin des années 90 (et qui leur a valu le prix Gödel en 2003) fait partie de ces algorithmes d’apprentissage qui cherchent à  diriger l’échantillon pour améliorer la capacité prédictive d’un classifieur. A tel point que n’importe quel classifieur faible, i.e., avec une capacité prédictive à  peine meilleure que pile ou face, peut devenir aussi fort que souhaité.


Cartes planaires aléatoires : limites et géométrie (Salle Döblin )

21 décembre 2017 09:15-10:15 -
Oratrice ou orateur : Loïc Richier
Résumé :

Dans cet exposé, nous présenterons quelques résultats concernant l’étude
probabiliste de graphes (ou cartes) planaires aléatoires. Cette théorie, initiée par
Angel et Schramm au début des années 2000, vise à  comprendre les propriétés géométriques
de graphes planaires aléatoires dont la taille tend vers l’infini.
Les travaux de Le Gall et Miermont ont notamment permis de montrer
la convergence de certains modèles vers une surface aléatoire universelle,
la carte brownienne, qui constitue un analogue du mouvement brownien pour la sphère.
Après une introduction à  ces résultats, nous nous intéresserons à  des cartes
planaires aléatoires ayant de grandes faces, appelées cartes stables.


Équations aux dérivées partielles avec conditions initiales aléatoires (II).

14 décembre 2017 09:15-10:15 -
Oratrice ou orateur : Laurent THOMANN
Résumé :

Sur l’exemple de l’équation de Schrödinger, on présentera quelques idées utilisées pour montrer l’existence et l’unicité de solutions. Ensuite on montrera comment on peut améliorer ces résultats à  l’aide de méthodes probabilistes (inégalité de Khintchin, chaos de Wiener, mesures de Gibbs), si l’on munit l’équation de conditions initiales aléatoires.


Équations aux dérivées partielles avec conditions initiales aléatoires (I).

7 décembre 2017 09:15-10:15 -
Oratrice ou orateur : Laurent THOMANN
Résumé :

Sur l’exemple de l’équation de Schrödinger, on présentera quelques idées utilisées pour montrer l’existence et l’unicité de solutions. Ensuite on montrera comment on peut améliorer ces résultats à  l’aide de méthodes probabilistes (inégalité de Khintchin, chaos de Wiener, mesures de Gibbs), si l’on munit l’équation de conditions initiales aléatoires.


Collectionneur de coupon impatient et applications ...

30 novembre 2017 09:15-10:15 -
Oratrice ou orateur : Philippe Chassaing
Résumé :

On discutera d’anciens et nouveaux résultats concernant le collectionneur de coupon, en lien avec les processus de Poisson, les nombres de Stirling, le schéma d’Euler, et quelques objets combinatoires associés à  ces problèmes.
Travail en collaboration avec Anis Amri.


Théorie statistique de la discrimination.

9 novembre 2017 09:15-10:15 -
Oratrice ou orateur : Yann Guermeur
Résumé :

La théorie statistique de l’apprentissage porte sur trois problèmes d’inférence empirique : la discrimination, la régression et l’estimation de la fonction de densité. Cette présentation se concentre sur la discrimination. Nous exposons les garanties disponibles sur les performances en généralisation des systèmes discriminants (risques garantis), en privilégiant le cas o๠ceux-ci s’appuient sur le concept de marge. L’intervalle de confiance de ces risques garantis dépend de trois paramètres principaux : la taille m de l’échantillon, le nombre C de catégories et la valeur gamma du paramètre de marge. Nous caractérisons cette dépendance en fonction du choix de la fonction de perte.


Une promenade mathématique

12 octobre 2017 09:15-10:15 -
Oratrice ou orateur : Antoine Lejay
Résumé :

Une égalité due à  Spitzer relie la loi du maximum d’une marche aléatoire à  celle
de ses sommes partielles. En 1960, Glenn Baxter donne une preuve élégante de
cette égalité probabiliste, en la réduisant tout d’abord à  un problème d’analyse,
puis à  un problème algébrique qui résolu par des arguments de nature combinatoire.
L’idée principale, qui donna naissance aux algèbre de Rota-Baxter, est de généraliser
une identité de produit d’intégrales et de l’appliquer à  la résolution d’équation linéaire.

G. Baxter, An analytic problem whose solution follows from a simple algebraic identity,
Pacific J. Math. 10 (1960), 731–42.


Processus ponctuels(IV).

15 juin 2017 09:15-10:15 -
Oratrice ou orateur : Radu Stoica
Résumé :

Processus ponctuels(III).

8 juin 2017 09:15-10:15 -
Oratrice ou orateur : Radu Stoica
Résumé :

Cet expose continue la suite initiee cette annee sur la definition et la caracterisation des processus ponctuels. Apres un rappel de ce qui a ete presente dans les seances precedentes, l’expose va continuer avec la description des liens entre la loi d’un processus ponctuel et les mesures de Palm associees. Pour cela, apres une discution sur les implications du theoreme de Slyvniak-Mecke, l’intensite conditionnelle, le theoreme de Georgii-Nguyen-Zessin vont être présentées, pour aboutir finalement à  la caracterisation differentielle d’un processus ponctuel de Gibbs.


"La structure Riemannienne du transport optimal

4 mai 2017 09:15-10:15 -
Oratrice ou orateur : Léonard Monsaingeon
Résumé :

Dans cet exposé je décrirai une structure (formellement) Riemanniene du
transport optimal, originellement introduite par Felix Otto. Ce point de
vue permet d’identifier certains processus de diffusion comme des flots
gradients dans l’espace métriques des mesures de probabilité muni de la
distance de Wasserstein $(mathcal P(mathbb R^d),W_2)$.
Ce cadre Riemannien permet de faire un lien très naturel entre
l’approche Bakry-Émery et les inégalités fonctionnelles
d’Entropy-Entropy production d’une part, et d’autre part la convexité
géodésique au sens de McCann. Ce point de vue permet d’obtenir
facilement des résultats de convergence en temps long.
Si le temps le permet je parlerai enfin d’une généralisation au cadre du
transport optimal non-conservatif, que j’ai introduit récemment avec mes
collaborateurs (et simultanément avec deux autres équipes de façon
indépendante) et qui permet d’étendre la structure Riemannienne aux
mesures de Radon de masse arbitraire.


"La structure Riemannienne du transport optimal"

27 avril 2017 09:15-10:15 -
Oratrice ou orateur : Léonard Monsaingeon
Résumé :

Dans cet exposé je décrirai une structure (formellement) Riemanniene du
transport optimal, originellement introduite par Felix Otto. Ce point de
vue permet d’identifier certains processus de diffusion comme des flots
gradients dans l’espace métriques des mesures de probabilité muni de la
distance de Wasserstein $(mathcal P(mathbb R^d),W_2)$.
Ce cadre Riemannien permet de faire un lien très naturel entre
l’approche Bakry-Émery et les inégalités fonctionnelles
d’Entropy-Entropy production d’une part, et d’autre part la convexité
géodésique au sens de McCann. Ce point de vue permet d’obtenir
facilement des résultats de convergence en temps long.
Si le temps le permet je parlerai enfin d’une généralisation au cadre du
transport optimal non-conservatif, que j’ai introduit récemment avec mes
collaborateurs (et simultanément avec deux autres équipes de façon
indépendante) et qui permet d’étendre la structure Riemannienne aux
mesures de Radon de masse arbitraire.


Entrelacements markoviens: des mélanges de cartes aux théorèmes de densité elliptiques

9 mars 2017 09:15-10:15 -
Oratrice ou orateur : Laurent Miclo
Résumé :

On commencera par présenter deux exemples classiques d’entrelacement markovien :
le théorème de Pitman sur la relation entre le mouvement brownien unidimensionel et le processus de Bessel de dimension 3
et l’estimation par Aldous et Diaconis de la convergence à  l’équilibre de mélanges de cartes via des temps forts de stationarité.
Puis on rappellera comment plonger ces exemples historiques dans un cadre unifié, grâce à  la théorie de la dualité due à  Diaconis et Fill.
Enfin on étendra partiellement ces résultats en direction des diffusions elliptiques sur des variétés, pour retrouver des théorèmes de densité,
à  travers des modifications stochastiques des flots de courbure moyenne.
Avec l’espoir que ceci conduira (dans un futur assez lointain …) à  une nouvelle approche probabiliste du théorème de Hörmander.


Une équation, trois limites

2 mars 2017 09:15-10:15 -
Oratrice ou orateur : Julian Tugaut
Résumé :

Le sujet de cet exposé est d’étudier l’équation de McKean-Vlasov au travers de trois limites. La première est la limite champ moyen qui stipule que le modèle de McKean-Vlasov est une bonne approximation d’un système de particules en interaction de type champ moyen quand le nombre de particules tend vers l’infini. La deuxième consiste à  regarder le comportement de la loi du processus lorsque le temps tend vers l’infini. En particulier, on cherche à  obtenir une convergence vers la (une des) probabilité(s) invariante(s). Enfin, la troisième limite concerne le temps de sortie lorsque le coefficient de diffusion est asymptotiquement petit. On rappellera les résultats classiques (ou pas) lorsque le potentiel de confinement et le potentiel d’interaction sont tous les deux convexes. Puis, on présentera le cas o๠le potentiel de confinement n’est pas convexe.


Approche trajectorielle des systèmes différentiels stochastiques

9 février 2017 09:15-10:15 -
Oratrice ou orateur : Aurélien Deya
Résumé :

Je reviendrai sur la question générale de l’approche trajectorielle (pathwise) des systèmes différentiels stochastiques (équation standard, EDP), à  travers l’évocation de quelques unes des constructions qui lui sont liées : intégrale de Young, théorie des rough paths, regularity structures. Aucun prérequis ne sera nécessaire.


Processus ponctuels (II)

26 janvier 2017 09:15-10:15 -
Oratrice ou orateur : Radu Stoica
Résumé :

Cet expose donne une definition des processus ponctuels et presente quelques resultats. Parmi eux la formule de Campbell-Mecke, le theoreme de Slivniak-Mecke. Si le temps le permet les distributions de Palm reduites, ainsi que le theoreme de Georgii-Nguyen-Zessin vont etre presentes. Tous ces resultats sont a la base des nombreuses applications en statistique spatialisee.


1 2 3 4 5 6 7