Résumé
Fra: Dans ce travail, nous proposons un sch\'{e}ma d'\'{e}clatement en optimisation non-lisse, hybridant le gradient conditionnel avec un \'{e}tape proximale que nous appelons CGALP, pour minimiser la somme de fonctions propres ferm\'{e}es et convexes sur un compact de $\HHp$. La minimisation est de plus sujette \`{a} une contrainte affine, que nous prenons en compte par un Lagrangien augment\'{e}, en qui permet en particulier de traiter des probl\`{e}mes composites \`{a} plusieurs fonctions par une technique d'espace produit. Certaines fonctions sont autoris\'{e}es \`{a} \^{e}tre non-lisses mais dont l'op\'{e}rateur proximal est simple \`{a} calculer. Notre analyse et garanties sont assur\'{e}es pour un large choix de param\`{e}tres "en boucle ouverte". Comme r\'{e}sultats principaux, nous montrons la faisabilit\'{e} asymptotique de la variable primale, la convergence de toute sous-suite vers une solution du probl\`{e}me primal, la convergence de la variable duale \`{a} une solution du probl\`{e}me dual, et la convergence du Lagrangien. Des taux de convergence sont aussi fournis. Les implications et illustrations de l'algorithme en traitement des donn\'{e}es sont discut\'{e}es.
Eng: In this paper we propose a splitting scheme which hybridizes generalized conditional gradient with a proximal step which we call CGALP algorithm, for minimizing the sum of closed, convex, and proper functions over a compact set of $\HHp$. The minimization is subject to an affine constraint, which we address by the augmented Lagrangian approach, that allows in particular to deal with composite problems of sum of three or more functions by the usual product space technique. We allow for possibly nonsmooth functions which are simple, i.e., the associated proximal mapping is easily computable. Our analysis is carried out for a wide choice of algorithm parameters satisfying so called \emph{open loop} rules. As main results, under mild conditions, we show asymptotic feasibility with respect to the affine constraint, convergence of the dual variable to a solution of the dual problem, and convergence of the Lagrangian values to the saddle-point optimal value. We also provide (subsequential) rates of convergence for both the feasibility gap and the Lagrangian values. Experimental results in signal processing are finally reported.