Sparsity and convexity are ubiquitous notions in Machine Learning and Statistics. In this course, we study the mathematical foundations of some powerful methods based on convex relaxation: L1-regularisation techniques in Statistics and Signal Processing; Nuclear Norm minimization in Matrix Completion. These approaches turned to be Semi-Definite representable (SDP) and hence tractable in practice. The theoretical part of the course will focus on the guarantees of these algorithms under the sparsity assumption. The practical part of this course will present the standard solvers of these learning problems.
I. Introduction
II. Parcimonie et convexité en apprentissage automatique et statistiques
III. Régularisation L1 en statistiques et traitement du signal
IV. Minimisation de la norme nucléaire dans la complétion de matrices
V. Représentabilité semi-définie et relaxation convexe
VI. Garanties des algorithmes sous l'hypothèse de parcimonie
VII. Solveurs standard pour les problèmes d'apprentissage automatique basés sur la régularisation L1 et la minimisation de la norme nucléaire
VIII. Conclusion et applications pratiques