Apprentissage statistique et rééchantillonnage
Sylvain Arlot
Université Paris-Saclay (Faculté des Sciences d'Orsay)
1er semestre, 2021/2022
Les cours ont lieu le lundi de 9h à 12h, à l'Institut de Mathématiques d'Orsay (bâtiment 307), salle 1A14.
20h, 5 ECTS
Notes de cours:
Premier cours: 20/09
Dates des cours:
20-27/09, 04-11-25/10, 08-15/11
Pas de cours le 18/10, ni le 01/11!
Devoir maison à rendre au plus tard le 25/10 à 9h (par mail ou en classe).
Si vous n'avez pas eu le sujet (distribué en classe): demandez-le moi par mail.
Plan du cours approximatif:
- 20/09: Prévision, régression et classification -- Minimisation du risque empirique 1/2 (Fondamentaux, sections 1 à 3.5)
- 27/09: Minimisation du risque empirique 2/2 (Fondamentaux, sections 3.6 à 3.7)
- 04/10: Coûts convexes en classification (Fondamentaux, section 4) -- Moyenne locale 1/2 (Fondamentaux, section 5.1)
- 11/10: Moyenne locale 2/2 (Fondamentaux, section 5) -- On n'a rien sans rien (Fondamentaux, section 6)
- 18/10: pas de cours
- 25/10: Bilan partiel sur l'apprentissage (Fondamentaux, section 7 + compléments)
- 01/11: pas de cours
- 08/11: Validation croisée 1/2 (sections 1 à 3.2 + section 6)
- 15/11: Validation croisée 2/2 (sections 3.3 à 5) -- Rééchantillonnage
- Date de l'examen à déterminer.
Résumé
La première partie du cours présentera les fondements de la théorie statistique de l'apprentissage supervisé, en classification et en régression. Nous établirons des bornes sur l'erreur de prédiction de plusieurs méthodes d'apprentissage parmi les plus classiques : moyennage local (partitions, k plus proches voisins, noyaux) et minimisation du risque empirique. Ces résultats montreront en particulier que certaines de ces méthodes sont « universellement consistantes ». En revanche, nous verrons qu'un apprentissage totalement agnostique n'est possible que dans certaines limites (« on n'a rien sans rien »), ce qui se formalise mathématiquement par plusieurs théorèmes aux énoncés plutôt contre-intuitifs.
La deuxième partie du cours se focalisera sur les méthodes de rééchantillonnage (bootstrap, sous-échantillonnage, validation croisée, etc.) et à leur application en apprentissage. Nous étudierons en particulier leurs propriétés pour l'estimation de l'erreur de prédiction d'une méthode d'apprentissage, et pour la sélection parmi une famille de méthodes d'apprentissage.
Retour à l'index - Back to index