SMF

De Cauchy aux réseaux de neurones, la descente de gradient et ses variantes
par S. Masnou

Conférence donnée dans le cadre du cycle "Un texte, une aventure mathématique".

Le calcul des variations moderne prend son essor entre le 17e et le début du 19e siècle avec, entre autres, les travaux fondateurs de Newton, Euler et Lagrange.
C’est dans ce contexte que Louis Augustin Cauchy introduit formellement en 1847, dans une note brève à l’Académie des Sciences, la méthode de descente de gradient.
Presque anodine lorsque Cauchy l’invente, cette méthode a pourtant pris au fil des ans une importance colossale en optimisation numérique, au point d’être aujourd’hui un outil clé en intelligence artificielle.
L’exposé reviendra sur les grands principes du calcul des variations et de l’optimisation, sur les aspects théoriques et numériques de la méthode de gradient, de Cauchy à aujourd’hui, et enfin sur ses applications et ses développements modernes : descente de gradient stochastique, optimisation par lots, méthodes inertielles, entraînement de réseaux de neurones...

 

Autour du texte

Référence du texte : Cauchy, A. (1847). Méthode générale pour la résolution des systèmes d’équations simultanées. Comp. Rend. Sci. Paris, 25(1847), 536-538.

 

Simon Masnou

Simon Masnou

Bio à venir

Inscriptions gratuites obligatoires
 
 

 

Bibliothèque nationale de France

site François-Mitterrand,
quai François-Mauriac,
75013 Paris

métro: ligne 14, arrêt Bibliothèque François-Mitterrand
18.03.2026
18:30 - 20:00
BnF, Paris BnF, Paris