Prochainement

Mercredi 1er avril 14:00-15:00 Bastien Mallein (LAGA, Université Paris 13)
Une version continue du modèle de Derrida—Retaux (en ligne !)

Plus d'infos...

Résumé : Le modèle de Derrida—Retaux est un modèle simple de renormalisation sur
un arbre, introduit en physique statistique pour étudier une transition
de phase d’un modèle de polymères. De nombreuses conjectures restent
ouvertes sur cette famille de modèles. Dans cet exposé, on construira
une version continue de ce modèle, qui se trouvera être intégrable.
Nous verrons les résultats que l’on peut obtenir sur cette version du
modèle, en se concentrant sur le comportement à la criticalité.

Une version continue du modèle de Derrida—Retaux (en ligne !)  Version PDF


Jeudi 23 avril 15:45-16:45 Mohamed-Slim Kammoun (Laboratoire Paul Painlevé, Université de Lille)
Plus longue sous-suite commune de permutations aléatoires

Plus d'infos...

Résumé : Bukh et Zhou ont conjecturé que pour deux permutations i.i.d, l’espérance de la longueur de la plus longue sous-suite commune est minorée par $\sqrtn$. Ce problème peut se ramener à la compréhension de la plus longue sous-suite croissante de permutations aléatoires. On détaillera le cas où la loi de la permutation est stable sous conjugaison qui peut être traité à l’aide de la compréhension de la structure en cycle de la composée de deux permutations indépendantes.

Plus longue sous-suite commune de permutations aléatoires  Version PDF

Jeudi 7 mai 14:00-15:00 Vincent Rivoirard  (CEREMADE - Université Paris Dauphine)
Frequentist and Bayesian Nonparametric inference for Hawkes processes. Applications for estimating functional connectivity graphs of neurons.

Plus d'infos...

Résumé : Functional connectivity in neuroscience is considered as one of the main features of the neural code. It is nowadays possible to obtain the spike activities of tens to hundreds of neurons simultaneously and the issue is then to infer the functional connectivity thanks to those complex data. To deal with this problem, we consider estimation of sparse local independence graphs by using models based on multivariate Hawkes processes. Such counting processes have become very popular since they are, in particular, very useful to model occurrences of a process when it is affected by its past occurrences. Hawkes processes depend on an unknown functional parameter to be estimated, for instance, by linear combinations of a fixed dictionary. To select coefficients, we propose a Lasso-type procedure, where the penalty is derived from Bernstein inequalities. Our tuning procedure is proven to be robust with respect to all the parameters of the problem, revealing its potential for concrete purposes and in particular in neuroscience. Finally, some extensions in the nonparametric Bayesian setting will be presented.

Frequentist and Bayesian Nonparametric inference for Hawkes processes. Applications for estimating functional connectivity graphs of neurons.  Version PDF

Jeudi 7 mai 15:45-16:45 Oriane Blondel (Institut Camille Jordan, Université Claude Bernard)
TBA

Passés

Jeudi 26 mars 15:45-16:45 Bastien Mallein (LAGA, Université Paris 13)
Une version continue du modèle de Derrida—Retaux

Plus d'infos...

Résumé : Le modèle de Derrida—Retaux est un modèle simple de renormalisation sur
un arbre, introduit en physique statistique pour étudier une transition
de phase d’un modèle de polymères. De nombreuses conjectures restent
ouvertes sur cette famille de modèles. Dans cet exposé, on construira
une version continue de ce modèle, qui se trouvera être intégrable.
Nous verrons les résultats que l’on peut obtenir sur cette version du
modèle, en se concentrant sur le comportement à la criticalité.

Une version continue du modèle de Derrida—Retaux  Version PDF
Jeudi 26 mars 14:00-15:00 Andreas Maurer (Munich)
[Séminaire reporté]

Plus d'infos...

Résumé : Bounds for plug-in estimators
Functionals defined on a spaces of probability measures are often estimated by applying them to the empirical measure generated by an iid sample. Many properties of these plug-in estimators can be deduced from Lipschitz properties of the functional with respect to metrics on the probability measures, such as the total variation, Kolmogorov-Smirnov or Wasserstein metrics. The talk is about extending this idea from first- to second order Lipschitz properties.
I briefly review some standard results pertaining to the first order case. I then explain what I mean with higher order Lipschitz properties. Already in their weakest form the second order properties give a version of Bernsteins inequality and a result on normal approximation. If the functional is 2nd order Lipschitz w.r.t. the total variation and the Wasserstein-2 metrics, then the plug-in estimator approximates the functional uniformly over the measures generated by some function class, given reasonable bounds on the Gaussian width of the class evaluated at the sample. In machine learning this result allows to apply the popular method of Rademacher and Gaussian complexities to nonlinear objectives.
Applications include smoothened quantiles and functionals defined by kernels, like those giving rise to U- or V-statistics.

[Séminaire reporté]  Version PDF
Jeudi 19 mars 15:45-16:45 Cedric Boutillier (LPSM, Sorbonne Université)
Modèles de dimères elliptiques sur graphes minimaux

Plus d'infos...

Résumé : Le modèle de dimères est un modèle de mécanique statistique en
dimension 2 dont une incarnation est le pavage aléatoire du plan par des
dominos. Ce modèle est exactement soluble et les fonctions de
corrélations sont décrites par un processus déterminantal.
Kenyon au début des années 2000, avait introduit des poids
trigonométriques, dits « critiques », pour ce modèle sur une famille
particulière de graphes planaires plongés : les graphes isoradiaux. Pour
ces poids, il démontre une formule un peu mystérieuse pour le noyau du
processus déterminantal qui a une propriété locale : sa valeur pour deux
sommets ne dépend que de la géométrie du plongement du graphe le long
d’un chemin entre ces points.
En se basant sur le travail de Fock, nous introduisons des poids
elliptiques sur une famille plus grande de graphes planaires (les
graphes minimaux). Nous démontrons aussi une formule locale pour le
noyau de corrélations, ainsi que des propriétés supplémentaires, qui
en particulier, par passage à la limite, apporte des éclaircicements sur
la formule de Kenyon.
Il s’agit d’un travail en collaboration avec David Cimasoni (Genève) et
Béatrice de Tilière (Dauphine).

Modèles de dimères elliptiques sur graphes minimaux  Version PDF
Jeudi 12 mars 15:45-16:45 Djalil Chafaï (CEREMADE, Université Paris-Dauphine)
Quelques modèles coulombiens
Jeudi 12 mars 14:00-15:00 Victor-Emmanuel Brunel (ENSAE/CREST)
Apprentissage de mesures déterminantales discrètes

Plus d'infos...

Résumé : Les processus déterminantaux forment une classe générale de processus ponctuels (incluant, par exemple, les processus de Poisson) qui sont devenus populaires en apprentissage statistique, car ils permettent facilement de modéliser des interactions répulsives et de la diversité. Dans le cas discret, ils peuvent être décrits comme des mesures de probabilité sur l’ensemble des sommets de l’hypercube, appelées mesures déterminantales. Ces mesures sont paramétrées par une matrice carrée, dont les mineurs principaux donnent les valeurs de la fonction de masse.
Après avoir défini ces mesures, je présenterai deux méthodes permettant d’estimer la matrice associée, à partir de réalisations i.i.d. de cette mesure déterminantale. Ces méthodes sont basées sur le maximum de vraisemblance, qui souffre d’une très grande complexité algorithmique, et sur la méthode des moments.

Apprentissage de mesures déterminantales discrètes  Version PDF
Jeudi 5 mars 15:45-16:45 Paul Melotti (Fribourg)
Modèle d’Ising et boucles bicolores

Plus d'infos...

Résumé : Une propriété essentielle du modèle d’Ising en dimension deux est l’existence d’une transformation triangle-étoile. En mécanique statistique, c’est un signe d’intégrabilité du modèle. Dans une reparamétrisation dûe à Kashaev, cette propriété est liée à des relations algébriques entre mineurs de matrices. Elle fait apparaître un problème combinatoire riche, suggéré par Kenyon et Pemantle. Je décrirai une solution de ce problème en termes de modèles de boucles, ainsi que des résultats de formes limites, qui sont des courbes (algébriques) déterministes apparaissant comme interfaces entre différentes phases du modèle. Enfin, je donnerai des résultats de couplages entre les différents modèles rencontrés.

Modèle d’Ising et boucles bicolores  Version PDF
Jeudi 27 février 15:45-16:45 Thomas Leblé (MAP5, Université de Paris)
Deux caractérisations « physiques » du processus Sine-beta

Plus d'infos...

Résumé : Le processus Sine-beta décrit le comportement microscopique limite des valeurs propres de certains modèles de matrices aléatoires, c’est ainsi qu’il est introduit et étudié par Valko-Virag et Killip-Stoiciu. On peut aussi le voir comme une mesure de Gibbs en volume infini pour un système de physique statistique en dimension 1. On en donne alors deux caractérisations « physiques » : l’une par les équations DLR et l’autre comme unique minimiseur de l’énergie libre. Collaborations avec Dereudre-Hardy-Maïda et Erbar-Huesmann.

Deux caractérisations « physiques » du processus Sine-beta  Version PDF
Jeudi 27 février 14:00-15:00 Stéphanie von der Pas (Leiden University)
Posterior concentration for Bayesian regression trees and forests

Plus d'infos...

Résumé : Since their inception in the 1980’s, regression trees have been one of the more widely used non-parametric prediction methods. Treestructured methods yield a histogram reconstruction of the regression surface, where the bins correspond to terminal nodes of recursive partitioning. Trees are powerful, yet susceptible to over-fitting. Strategies against overfitting have traditionally relied on pruning greedily grown trees. The Bayesian framework offers an alternative remedy against overfitting through priors. Roughly speaking, a good prior charges smaller trees where overfitting does not occur. While the consistency of random histograms, trees and their ensembles has been studied quite extensively, the theoretical understanding of the Bayesian counterparts has been missing. In this work, we take a step towards understanding why/when do Bayesian trees and forests not overfit. To address this question, we study the speed at which the posterior concentrates around the true smooth regression function. We propose a spike-and-tree variant of the popular Bayesian CART prior and establish new theoretical results showing that regression trees (and forests) (a) are capable of recovering smooth regression surfaces (with smoothness not exceeding one), achieving optimal rates up to a log factor, (b) can adapt to the unknown level of smoothness and (c) can perform effective dimension reduction when p > n. These results provide a piece of missing theoretical evidence explaining why Bayesian trees (and additive variants thereof) have worked so well in practice.

Posterior concentration for Bayesian regression trees and forests  Version PDF