Estimation de fonctionnelles sous contrainte de sparsité en régression linéaire

Jeudi 4 février 2016 14:00-15:00 - Olivier Collier - Université Paris-Ouest

Résumé : Dans le modèle de régression linéaire $y=X\theta + \epsilon$, nous nous sommes intéressés à l’estimation de certaines fonctionnelles de $\theta$, à savoir la somme des coefficients de $\theta$, la somme des coefficients au carré, et la norme $l_2$ elle-même. Pour ce faire, nous avons supposé que $X$ était la matrice-identité $I_d$ en dimension $d$, et que $\epsilon$ était normal centré de matrice de covariance $\s^2 I_d$. Nous avons calculé les vitesses d’estimation minimax à constantes près, et nous avons montré comment ces vitesses pouvaient être améliorées si le vecteur $\theta$ était supposé ne posséder que $s$ composantes non-nulles. Je parlerai d’extensions possibles de ces résultats au cas où $X$ est une matrice de design aléatoire gaussienne, à d’autres fonctionnelles, et de l’adaptivité par rapport à la sparsité $s$.

Lieu : Salle 117-119

Estimation de fonctionnelles sous contrainte de sparsité en régression linéaire  Version PDF