Conférences plénières invitées

Le Colloque GRETSI’23 sera honoré par les interventions en sessions plénières de plusieurs personnalités scientifiques de renommée internationale.

Gersende Fort

Directrice de Recherche CNRS, Institut de Mathématiques de Toulouse

L’Approximation Stochastique au-delà du Gradient

Mardi 29 août - Auditorium - 08:30-09:30

Résumé : En Apprentissage statistique, de nombreuses analyses et méthodes reposent sur l’optimisation, dont ses versions stochastiques pour, par exemple, pallier l’absence d’expression explicite de la fonction objectif, ou réduire le coût computationnel de la procédure déterministe.

En 1951, H. Robbins et S. Monro introduisaient un nouvel algorithme « Méthode d’Approximation Stochastique » pour le calcul du zero d’une fonction définie par une espérance non explicite. Cet algorithme, itératif, met à jour le paramètre en remplaçant à chaque itération, l’espérance inconnue par un seul tirage Monte Carlo. Cette méthode s’est ensuite généralisée, définissant des procédures d’optimisation stochastique pour la recherche de zeros d’un champs moyen non explicite pour lequel on dispose d’oracles aléatoires.

Les algorithmes de Gradient Stochastique sont certainement les versions les plus connues de l’Approximation Stochastique. Moins connues, sont les versions qualifiées « au-delà du gradient stochastique » : tout d’abord elles reposent sur des oracles possiblement biaisés du champs moyen, et ce champs moyen n’est pas le gradient d’une fonction. Ces situations surgissent dans de nombreux exemples d’apprentissage statistique moderne : citons les algorithmes de gradient stochastique compressé, des versions stochastiques d’algorithmes Majoration-Minoration dont l’algorithme Expectation-Maximization, ou des algorithmes utilisés en apprentissage par renforcement tels que l’algorithme Temporal Difference learning.

L’objectif de cette présentation est tout d’abord de souligner, à l’aide de quelques exemples, les raisons pour lesquelles l’étude de ces algorithmes de « non-gradient » ne peut résulter de ce qu’il se fait pour le cas gradient notamment, et plus généralement le cas d’oracles non biaisés. La mise en œuvre de ces algorithmes d’Approximation Stochastique de type non-gradient, ainsi qu’une procédure de réduction de variance seront discutées. Enfin, l’impact de la présence de biais dans les oracles stochastiques sur la convergence en moyenne des algorithmes en un nombre fini d’itérations, sera aussi analysé.

Biographie

Gersende Fort est Directrice de Recherche CNRS à l’Institut de Mathématiques de Toulouse.

Diplômée de l’Ecole Nationale Supérieure des Télécommunications en 1997, elle a obtenu un Doctorat de Mathématiques Appliquées de l’Université Paris VI en 2001, et une Habilitation à Diriger les Recherches de l’Université Paris IX en 2010. Elle devient chercheur CNRS en 2001, travaillant tout d’abord au Laboratoire Jean Kuntzmann à Grenoble, puis au Laboratoire Traitement et Communication de l’Information à Paris de 2005 à 2016, et enfin à l’Institut de Mathématiques de Toulouse depuis 2016. Depuis 2014, elle est aussi Professeur à temps partiel au Centre de Mathématiques Appliquées de l’Ecole Polytechnique.

Ses travaux de recherche portent sur l’Optimisation Stochastique et l’échantillonnage Monte Carlo pour l’Apprentissage Statistique. Son expertise inclut, plus précisément, les méthodes d’Approximation Stochastique, les algorithmes de Majoration-Minoration stochastiques dont notamment les procédures de type Expectation-Maximization, les méthodes d’échantillonnage d’importance adaptatives et les algorithmes de Monte Carlo par Chaînes de Markov. Ses contributions portent aussi sur la théorie des Chaînes de Markov, théorie sur laquelle repose l’étude du bien-fondé d’échantillonneurs Monte Carlo et dans une moindre mesure, celle d’algorithmes stochastiques adaptatifs. Initialement motivés par les problèmes inverses bayésiens, ses travaux considèrent des applications en apprentissage grande échelle, en apprentissage en ligne et, en apprentissage fédéré. En 2019, la Fondation Simone et Cino Del Duca de l’Institut de France lui a décerné une subvention scientifique pour ses recherches sur l’entrelacement des méthodes d’optimisation et des procédures Monte Carlo.

Philippe Ciuciu

Directeur de Recherche CEA, Neurospin

À la recherche de la perfection : l'imagerie cérébrale dans toute sa splendeur

Jeudi 31 août - Auditorium - 13:45-14:45

Résumé : L’imagerie par résonance magnétique (IRM) est la modalité de référence pour sonder les tissus mous cérébraux, leur structure et leur organisation fonctionnelle. Actuellement, l’IRM repose sur un processus d’acquisition lent, souvent inconfortable pour le patient, qui in fine est source d’artefacts limitant ainsi le diagnostic et la résolution effective des images.

Cette conférence illustrera comment mon équipe contribue à une imagerie par IRM plus rapide, plus précise et plus sensible à ultra-haut champ magnétique (7 Tesla).

Accélérer le processus d’acquisition en IRM reste un enjeu actuel majeur, notamment pour atteindre la haute résolution (e.g. 600µm isotrope) en un temps d’examen court (< 3 min). Bien que cette thématique ait fait l’objet de nombreux travaux ces quinze dernières années, à travers une application partielle et souvent limitée de la théorie de l’échantillonnage compressif, la plupart des schémas d’acquisition accélérée mis en œuvre par les constructeurs (Siemens, Philips, GE), se contentent de mesurer un sous-ensemble de trajectoires usuelles dans l’espace de Fourier, induisant soit une perte d’information cruciale soit un gain en temps limité. Cette conférence sera d’abord l’occasion de présenter nos travaux intitulés SPARKLING (Spreading Projection Algorithm for Rapid K-space sampLING), une méthode d’optimisation permettant de générer de nouvelles trajectoires d’échantillonnage plus efficaces, qui a trouvé son origine dans une collaboration étroite entre mathématiciens, traiteurs de signaux et physiciens et qui permet désormais d’accéder à une imagerie de susceptibilité 3D courante à 600µm isotrope en 2mn30sec, tant dans le contexte de la recherche académique que clinique, à 3 Tesla comme à 7 Tesla. Je discuterai comment le point de vue du traiteur de signaux a permis récemment de faire émerger de nouvelles extensions (MORE-SPARKLING, GoLF-SPARKLING) beaucoup plus robustes à différentes sources d’artefacts, pour des applications prometteuses en imagerie fonctionnelle comme métabolique.

Dans la seconde partie partie de cette conférence, je présenterai comment l’apprentissage profond a permis ces dernières années d’accélérer le processus de reconstruction d’images IRM à partir de données sous-échantillonnées, tout en améliorant leur qualité. Notre architecture de réseau de neurones  de référence (e.g. XPDNet), ancrée dans les méthodes de « déroulement » d’algorithmes d’optimisation, s’est classée 2ème du challenge international fastMRI en 2020. J’illustrerai notamment sa capacité de généralisation sur des données à 7T non vues pendant l’entraînement, puis ses généralisations à différents contextes comme l’imagerie 3D non-cartésienne ou l’imagerie s’écartant du modèle direct de Fourier pour mieux corriger certains artefacts.

Enfin, alors que les deux parties précédentes peuvent sembler dissociées, je présenterai rapidement comment nous les avons unifiées récemment dans la méthode PROJeCTOR  grâce à un cadre d’apprentissage conjoint de trajectoires d’échantillonnage et de réseaux de neurones pour la reconstruction, et en quoi ce cadre fournit des sources d’inspiration pour de nouveaux travaux ces prochaines années.

Wendy Mackay

Directrice de Recherche INRIA, ex)situ, Université Paris Saclay

 Les partenariats humain-machine : interagir avec l’intelligence artificielle

Lundi 28 août - Auditorium - 14:00-15:00

Résumé : A venir.