Méthodes de gradient stochastique
Optimisation pour l'apprentissage automatique
M2 IASD/MASH, Université Paris Dauphine-PSL, 2023-2024
Programme
Le but de ces trois cours (dispensés en anglais) est de présenter les concepts généraux des techniques de gradient stochastique ainsi que leur importance pour les problèmes d'apprentissage et de sciences des données. On s'intéresse à la théorie derrière ces méthodes, ainsi qu'à leur performance pratique.
Emploi du temps
Cours 1/3 (12 octobre) Introduction aux méthodes de gradient stochastique.
Cours 2/3 (19 octobre) Analyse et implémentation du gradient stochastique.
Cours 3/3 (23 octobre) Aspects avancés du gradient stochastique.
Supports de cours
Notes de cours (en anglais)
PDF
Notebook Python sur les bases du gradient stochastique (en anglais)
[Sources]
Notebook Python sur les aspects avancés (en anglais)
[Sources]
Tableaux des séances
Tableau numérique du premier cours
PDF
Tableau numérique du second cours
PDF
Tableau numérique du troisième cours
PDF
Les documents présents sur cette page sont accessibles sous licence Creative Commons
CC BY-NC 4.0
The English version of this page can be found
here.