Objectifs

La parcimonie et la convexité sont des notions omniprésentes en apprentissage automatique et en statistique. Dans ce cours, nous étudions les fondements mathématiques de certaines méthodes basées sur la relaxation convexe : les techniques de régularisation L1 en statistique et en traitement du signal. Ces approches se sont avérées être efficacement implémentables avec d'excellentes garanties théoriques. La partie théorique du cours se concentrera sur les garanties de ces algorithmes sous l'hypothèse de parcimonie. La partie pratique de ce cours présentera les solveurs standard de ces problèmes d'apprentissage.

Programme

I. Optimisation convexe et méthodes d'accélération II. Algorithmes pour la regression parcimonieuse en grande dimension III. Guaranties théoriques en grande dimension IV. Apprentissage compressé

BE
4h
 
Cours
22h
 
TD
4h
 

Responsables

  • Yohann DE CASTRO
  • Alexandre SAIDI
  • Céline HARTWEG-HELBERT

Langue

Français

Mots-clés

machine learning ; traitement du signal ; problème inverse linéaire ; parcimonie dans les modèles linéaires ; régularisation parcimonieuse ; optimisation convexe ; algorithmes gloutons