Dernières nouvelles


2023/10/23 : Notebook pour la séance 3+tableau de la séance 3.
2023/10/19 : Tableau de la séance 2 en ligne.
2023/10/12 : Tableau de la séance 1 en ligne.
2023/10/11 : Notes de cours+premier notebook.
2023/10/09 : Page du cours en ligne.

Enseignant

Clément Royer
clement.royer@lamsade.dauphine.fr

Retour à la page des enseignements

Méthodes de gradient stochastique

Optimisation pour l'apprentissage automatique

M2 IASD/MASH, Université Paris Dauphine-PSL, 2023-2024


Programme

     Le but de ces trois cours (dispensés en anglais) est de présenter les concepts généraux des techniques de gradient stochastique ainsi que leur importance pour les problèmes d'apprentissage et de sciences des données. On s'intéresse à la théorie derrière ces méthodes, ainsi qu'à leur performance pratique.

Emploi du temps

     Cours 1/3 (12 octobre) Introduction aux méthodes de gradient stochastique.
     Cours 2/3 (19 octobre) Analyse et implémentation du gradient stochastique.
     Cours 3/3 (23 octobre) Aspects avancés du gradient stochastique.

Supports de cours

     Notes de cours (en anglais) PDF
     Notebook Python sur les bases du gradient stochastique (en anglais) [Sources]
     Notebook Python sur les aspects avancés (en anglais) [Sources]

Tableaux des séances

     Tableau numérique du premier cours PDF
     Tableau numérique du second cours PDF
     Tableau numérique du troisième cours PDF


Les documents présents sur cette page sont accessibles sous licence Creative Commons CC BY-NC 4.0
The English version of this page can be found here.