Objectifs

La parcimonie et la convexité sont des notions omniprésentes en apprentissage automatique et en statistique. Dans ce cours, nous étudions les fondements mathématiques de certaines méthodes basées sur la relaxation convexe : les techniques de régularisation L1 en statistique et en traitement du signal. Ces approches se sont avérées être efficacement implémentables avec d'excellentes garanties théoriques. La partie théorique du cours se concentrera sur les garanties de ces algorithmes sous l'hypothèse de parcimonie. La partie pratique de ce cours présentera les solveurs standard de ces problèmes d'apprentissage.

Programme

  1. Optimisation convexe et méthodes d'accélération
  2. Algorithmes pour la regression parcimonieuse en grande dimension
  3. Guaranties théoriques en grande dimension
  4. Apprentissage compressé
Cours
18h
 

Responsables

  • Laurent SEPPECHER
  • Yohann DE CASTRO

Langue

Français

Mots-clés

L1-regularization; Sparse Models; Optimization;