Apprentissage statistique et rééchantillonnage
Sylvain Arlot
Université Paris-Saclay (Faculté des Sciences d'Orsay)
1er semestre, 2025/2026
Les cours ont lieu le lundi après-midi, à l'Institut de Mathématiques d'Orsay (bâtiment 307), salle 1A14.
20h, 5 ECTS
Notes de cours:
Dates des cours:
22-29/09, 06-20/10, 03-10-17/11
Pas de cours les 13/10 et 27/10!
Devoir maison à rendre au plus tard le 03/11 à 15h (par mail ou en classe).
Si vous n'avez pas eu le sujet (distribué en classe): demandez-le moi par mail.
Plan du cours approximatif:
- Prévision, régression et classification -- Minimisation du risque empirique 1/2 (Fondamentaux, sections 1 à 3.5)
- Minimisation du risque empirique 2/2 (Fondamentaux, sections 3.6 à 3.7)
- Coûts convexes en classification (Fondamentaux, section 4) -- Moyenne locale 1/2 (Fondamentaux, section 5.1)
- Moyenne locale 2/2 (Fondamentaux, section 5) -- On n'a rien sans rien (Fondamentaux, section 6)
- Bilan partiel sur l'apprentissage (Fondamentaux, section 7 + compléments)
- Validation croisée 1/2 (sections 1 à 3.2 + section 6)
- Validation croisée 2/2 (sections 3.3 à 5) -- Rééchantillonnage
Résumé
La première partie du cours sera consacrée aux fondements de la théorie statistique
de l'apprentissage supervisé, en classification et en régression.
Nous démontrerons des bornes sur l'erreur de prédiction de plusieurs méthodes
d'apprentissage parmi les plus classiques:
moyennes locales (partitions, k plus proches voisins, noyaux)
et minimisation du risque empirique.
Ces résultats montreront en particulier que certaines de ces méthodes
sont « universellement consistantes ».
En revanche, nous verrons qu'un apprentissage totalement agnostique
n'est possible que dans certaines limites (« on n'a rien sans rien »),
ce qui se formalise mathématiquement par plusieurs théorèmes
aux énoncés plutôt contre-intuitifs.
Nous étudierons enfin les liens qui existent entre le risque 0-1 usuel
en classification et les « risques convexes »,
souvent utilisés pour des raisons algorithmiques.
La deuxième partie du cours s'intéressera à deux questions cruciales
une fois construite une règle d'apprentissage:
comment choisir ses paramètres, et comment estimer son erreur de prédiction « future »?
Nous nous focaliserons sur deux types de solutions « universelles »:
la validation croisée et le rééchantillonnage (bootstrap, sous-échantillonnage, etc.).
Retour à l'index - Back to index