La parcimonie et la convexité sont des notions omniprésentes en apprentissage automatique et en statistique. Dans ce cours, nous étudions les fondements mathématiques de certaines méthodes basées sur la relaxation convexe : les techniques de régularisation L1 en statistique et en traitement du signal. Ces approches se sont avérées être efficacement implémentables avec d'excellentes garanties théoriques. La partie théorique du cours se concentrera sur les garanties de ces algorithmes sous l'hypothèse de parcimonie. La partie pratique de ce cours présentera les solveurs standard de ces problèmes d'apprentissage.
I. Optimisation convexe et méthodes d'accélération II. Algorithmes pour la regression parcimonieuse en grande dimension III. Guaranties théoriques en grande dimension IV. Apprentissage compressé