La pénalisation "V-fold" : une alternative à la validation croisée.

La validation-croisée est très utilisée dans les applications pratiques, notamment dans sa version "V-fold". Celle-ci présente de nombreux avantages (simplicité, généralité, temps de calcul raisonnable, robustesse, etc.), mais le choix non-asymptotique optimal de V pose problème. Celui-ci repose sur un compromis entre le biais (le critère de validation croisée "V-fold" surestime d'autant moins l'erreur de prédiction que V est grand), la variabilité du critère, et le temps de calcul. Asymptotiquement, V doit tendre vers l'infini pour obtenir l'optimalité asymptotique, ce qui pose des problèmes de complexité.

Mais lorsque le rapport signal sur bruit est fixé (situation non-asymptotique), des simulations indiquent qu'il peut être bénéfique de surpénaliser. Parfois, V=2 est meme préférable a V=10. Le critère de validation croisée 2-fold étant beaucoup plus variable que le critère 10-fold, on ne peut se satisfaire d'un tel choix.

En nous fondant sur l'heuristique de rééchantillonnage (Efron 1979), nous proposons une méthode de choix de modèles par pénalisation qui possède les avantages de la validation croisée V-fold, mais sans l'inconvénient du couplage biais-variabilité. Nous appelons cette méthode "pénalisation V-fold". Celle-ci permet de régler séparement le biais (et éventuellement l'annuler si on le souhaite) et la variabilité (qui reste couplée au temps de calcul, à travers le choix de V).

Nous prouvons que cette méthode satisfait une inégalité-oracle non-asymptotique trajectorielle (i.e. sur un événement de grande probabilité), avec une constante presque 1, dans le cadre de la régression sur des modèles d'histogrammes. On peut en particulier en déduire un résultat d'adaptation à la régularité holder de la fonction de régression, en présence d'un bruit hétéroscedastique assez général.

Enfin, des simulations numériques soulignent qu'une telle méthode est compétitive face aux méthodes de pénalisation classique et à la validation croisée V-fold. Le découplage biais-variabilité permet en particulier un gain notable de performance.