Dernières nouvelles


2026/02/04 : Ressources séances 4-5.
2026/01/28 : Ressources séance 3.
2026/01/27 : Ressources séances 1-2.
2026/01/26 : Page du cours en ligne.

Enseignant

Clément Royer
clement.royer@lamsade.dauphine.fr

Retour à la page des enseignements

Optimisation pour l'apprentissage automatique

M2 IASD Apprentissage, Université Paris Dauphine-PSL, 2025-2026


But du cours

     Étudier les algorithmes d'optimisation utilisés en apprentissage et sciences des données et comprendre les principes sous-jacents.

Supports de cours

     Exercices (version du 28 janvier) PDF

Séance 1 : Introduction et méthodes de gradient

     Tableau virtuel (méthodes de gradient) PDF

     Notebook d'illustration (méthodes de gradient) [Sources]

Séance 2 : Optimiseurs

     Tableau virtuel (gradient stochastique et optimiseurs) PDF

     Notebook d'illustration (méthodes de Pytorch) [Sources]

Séance 3 : Calcul de dérivées

     Tableau virtuel (exercices et différentiation) PDF

     Notebook sur la différentiation automatique [Sources] [Solutions]

Séance 4 : De la différentiation automatique aux sous-gradients

     Tableau virtuel (sous-gradients) PDF

     Notebook d'illustration (sous-gradients pour régression robuste) [Sources]

Séance 5 : Méthodes proximales

     Tableau virtuel (régularisation et gradient proximal) PDF

     Notebook d'illustration (régularisation l1) [Sources]



Materials on this page are available under Creative Commons CC BY-NC 4.0 license.
La version française de cette page se trouve ici.