Dernière mise à jour des supports en 2008.

Thème

Ce cours est une introduction à la théorie de l'apprentissage et à ses principaux résultats, destinée à des doctorants et chercheurs en statistiques. Il a été donné en tant que conférence invitée au premier Workshop du Réseau Africain de Statistique Mathématique et ses Applications (RASMA), à Franceville (Gabon) en janvier 2008. Le cours commence par présenter l'apprentissage automatique, puis sa formalisation statistique, en insistant sur les différents enjeux : consistance des algorithmes, vitesses de convergence, etc. Une grande partie du cours se focalise sur la minimisation du risque empirique et sur la théorie de Vapnik Chervonenkis, sans pour autant se limiter au cas de la discrimination entre deux classes. La dernière partie du cours est dédiée à la minimisation d'un coût différent du risque empirique, en particulier quand ce coût inclut un terme de régularisation.

Public

Le cours est destiné à des statisticiens et demande donc une formation minimale dans ce domaine, idéalement de niveau Master 1. Il est cependant abordable pour des étudiants de Licence avec une bonne formation en probabilités car il utilise assez peu de résultats classiques de statistiques.

Supports

Les transparents sont disponibles ici.

Références

Ce cours a été préparé en utilisant notamment le remarquable ouvrage de Luc Devroye, László Györfi et Gábor Lugosi, A Probabilistic Theory of Pattern Recognition, paru chez Springer en 1996. Malgré son âge, ce livre reste une référence incontournable, très complète et étonnamment facile d'accès.

Ce cours s'est aussi appuyé sur de nombreux articles, généralement disponibles en ligne, et dont voici une sélection :