Séminaire Probabilités et Statistiques
Convexité cachée pour le problème de la quantification optimale uniforme
16
June 2022
logo_team
Intervenant : Quentin Mérigot
Institution : LMO
Heure : 15h45 - 16h45
Lieu : 3L15
En apprentissage automatique et en problèmes inverses, il est parfois nécessaire de générer (ou déformer) un nuage de points de sorte à approcher une mesure de probabilité modèle 𝜌. Une manière naturelle d'y parvenir est de chercher à minimiser la distance de Wasserstein de la mesure uniforme sur le nuage de points par rapport à la distribution modèle :
\(\min_{y_1,\dots,y_N\in\mathbb{R}^N} F(y_1,\dots,y_N) := \mathrm{W_2}\left(\frac{1}{N}\sum_{1\leq i\leq N}\delta_{y_i},\rho\right).\)                                                                      
Ce problème de minimisation, dans lequel les inconnues sont les positions des atomes (et non leur masse), n'est pas convexe. Il admet des points critiques dont l'énergie est beaucoup plus grande que celle du minimiseur. Pourtant, dans la plupart des cas, une version adaptée de l'algorithme de Lloyd --- une méthode de descente de gradient à pas constant --- conduit à des configurations présentant une faible énergie. Nous expliquons quantitativement ce comportement, en montrant en particulier que si les points initiaux ne sont pas trop proches les uns des autres, alors une seule étape de l'algorithme de Lloyd est suffisante pour obtenir une bonne approximation de de 𝜌. Je parlerai également d'un résultat plus récent, qualitatif, montrant en dimension 𝑑=2 que l'énergie de quantification des points critiques stables est en réalité commensurable à
l'énergie du minimiseur. Cet exposé est basé sur des travaux en commun avec A. Figalli, F. Santambrogio et C. Sarrazin.
All (past and future) events