Ce cours propose une introduction progressive aux fondements des réseaux de neurones et de l’apprentissage automatique, en mêlant théorie rigoureuse, mise en pratique et ouverture vers les applications actuelles.
La première partie du cours est consacrée aux outils classiques de l’apprentissage supervisé. Les étudiants abordent la régression polynomiale et binaire, avant de plonger dans le monde des réseaux de neurones, leur capacité d’approximation universelle, et la célèbre méthode de rétropropagation du gradient. Alternant cours magistraux et séances de TD/TP, cette section permet de comprendre les mécanismes de base du machine learning.
La seconde partie du cours, plus théorique, introduit les problèmes de transport optimal (Monge et Kantorovich), la métrique de Wasserstein, ainsi que les formulations duales associées. À travers l'étude de la programmation linéaire, des techniques de régularisation (comme l'algorithme de Sinkhorn) et des applications en optimisation, les étudiants découvrent comment ces concepts s’intègrent dans des approches modernes d’apprentissage et de modélisation. Le cours aborde également des notions avancées comme la différentiation à travers le transport, les barycentres de Wasserstein ou encore les estimateurs de Kantorovich.