12 mai 2021

Mercredi 12 mai 16:00-17:30 Perrine Lacroix (LMO, IPS2)
Gaussian linear regression in a high-dimensional context/Modèle linéaire Gaussien dans un contexte de grande dimension..

Plus d'infos...

Lieu : Salle 3L8 (a priori en distanciel pour l'instant)

Résumé : In this talk, I will firstly briefly present the biological context, motivator of my thesis project. I will show that the modelling with Gaussian linear regression is valid.
Unfortunatelely, when the number of explicative variables is large, the classical least-squares estimator loses its theoretical properties. It is the Big-Data problem and the curse of dimensionality issue. After having defined these two terms, I will talk about the least-squares penalization procedure. It consists in adding sparsity hypothesis to the model to alleviate the problem of high-dimension. Sparsity imposes that only a few non-zero coefficients need to be estimated. By varying the degree of sparsity, it produces a collection of relevant sets of explicative variables, where these variables correspond to the non-zero coefficients. Then, we need to select the best set among the collection. It is done by minimizing a criterion involving another penalty function.
I will focus on a specific data-driven penalty shape which is at the heart of my thesis. This penalty function depends on some unknown multiplicative constants and I will explain how they can be calibrated, either by theoretical considerations or with simulations.
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
Dans cet exposé, je parlerai d’abord brièvement de la problématique biologique, motivateur de mon projet de thèse. Dans ce cadre, je montrerai que la modélisation par des régressions linéaires Gaussiennes est valide.
Malheureusement, quand le nombre de variables explicatives est grand, l’estimateur classique des moindres carrés perd ses propriétés théoriques : c’est le problème du Big Data et du fléau de la grande dimension. Après avoir défini ces deux termes, je vous parlerai de la procédure de pénalisation des moindres carrés. Elle consiste à ajouter de la parcimonie au modèle afin de pallier le problème de la grande dimension. Cette parcimonie impose que seulement quelques coefficients à estimer sont non nuls. En faisant varier le degré de parcimonie, cette étape produit une collection de sous-ensemble de variables pertinente. Ces variables correspondent aux coefficients non-nuls de l’estimateur. Puis, nous devons sélectionner le meilleur sous-ensemble parmi ceux de la collection. Cette dernière étape se réalise par minimisation d’un critère impliquant une autre fonction de pénalité.
J’orienterai cet exposé vers une forme de pénalité particulière qui dépend des données et qui est au cœur de ma thèse. Celle-ci dépend de constantes multiplicatives inconnues et j’expliquerai comment les calibrer, soit par des considérations théoriques soit via des simulations.

Gaussian linear regression in a high-dimensional context/Modèle linéaire Gaussien dans un contexte de grande dimension..  Version PDF

Mercredi 12 mai 16:00-18:00 Antoine Song (Berkeley)
Essential minimal volume and minimizing metrics

Plus d'infos...

Lieu : Demander le lien Zoom à jean-michel.bismut@universite-paris-saclay.fr

Résumé : One way to measure the complexity of a smooth manifold is to consider its minimal volume, denoted by MinVol, introduced by Gromov, which is simply defined as the infimum of the volume among metrics with sectional curvature between -1 and 1. I will introduce a close variant of MinVol, called the essential minimal volume, which has most of the ``good’’ properties of MinVol and has also some additional advantages : it is always achieved by some Riemannian metrics which in some sense generalize hyperbolic metrics, moreover it can be estimated for Einstein 4-manifolds and most complex surfaces in terms of topology.

Essential minimal volume and minimizing metrics  Version PDF