Restauration et synthèse d’images par réseaux profonds
: Arthur Leclaire (LTCI, Télécom Paris), Yann Gousseau (LTCI, Télécom Paris)
La plupart des méthodes récentes de traitement d’images reposent sur des algorithmes utilisant de façon directe, itérative, ou déroulée, un réseau de neurones profond. Ces techniques, qui atteignent des niveaux de performance visuelle sans précédent, posent des questions majeures sur le plan de la conception des réseaux utilisés, de la stabilité des algorithmes en jeu, et de l’interprétabilité des résultats.
Cette session spéciale est consacrée à des avancées récentes dans l’étude des méthodes de restauration et de synthèse d’images avec des réseaux profonds liés par exemple à un modèle génératif adverse, une régularisation plug-and-play, ou un modèle de diffusion. La session portera en particulier sur la conception d’algorithmes de restauration et de synthèse d’images qui soient à la fois performants et stables. Elle pourra inclure des contributions en lien avec l’utilisation de modèles génératifs ou d’algorithmes d’optimisation pour les problèmes inverses, ou avec la conception de réseaux profonds de restauration ou de synthèse.
Information et calcul quantiques
: Thierry Chonavel (Lab-STICC, IMT Atlantique), Angélique Drémeau (Lab-STICC, ENSTA) et Hachem Kadri (LIS, Aix-Marseille Université)
L’émergence des technologies quantiques soulève de nombreuses problématiques au sein des champs disciplinaires du domaine de l’information, de la mesure et la perception de l’environnement jusqu’au traitement des données quantiques. L’information quantique par nature très différente, conduit à modifier fondamentalement notre vision de ces champs disciplinaires et offre des perspectives inédites sur des approches radicalement nouvelles, voire renouvelle notre regard sur des approches plus classiques.
Concrètement, cela se traduit, d’un côté, par la nécessité de nouveaux modèles formalisant le caractère quantique de l’information et prenant en compte son environnement. L’enjeu est ensuite d’en extraire et manipuler l’information utile. D’un autre côté, motivé par les récents développements d’ordinateurs quantiques, il s’agit de développer des algorithmes dédiés, permettant de dépasser les limites de complexité des algorithmes classiques.
Ces différents aspects seront au cœur de cette session spéciale qui ouvrira sur un exposé tutoriel d’introduction à l’information quantique et au calcul quantique. Y sont ensuite encouragées des contributions dans les domaines suivants (liste non-exhaustive) :
- apprentissage automatique quantique
- dispositifs de perception de phénomènes quantiques
- théorie de l’information quantique
- modélisation et identification de systèmes quantiques (signal, bruit…)
- contrôle des systèmes quantiques
- calcul quantique et approches hybrides classiques/quantiques
EDA pour l’IA et IA pour l’EDA
: Lilia Zaourar (CEA List, Saclay), Slavia Jovanovic (Institut Jean Lamour, Université de Lorraine) et Daniel Chillet (Inria-Irisa-Université de Rennes)
L’intelligence artificielle (IA) a connu une évolution rapide ces dernières années, s’intégrant dans divers domaines du traitement de l’information (image, son, vidéo, radar) et reposant sur des architectures matérielles toujours plus performantes. Cependant, avec l’augmentation des volumes de calculs et des transferts de données, des architectures spécifiques ont été développées pour contourner les limitations des systèmes classiques, réduisant ainsi les temps d’apprentissage, d’inférence et la consommation énergétique. Cette évolution entraîne une demande croissante en solutions d’optimisation, tant pour l’architecture matérielle que pour les algorithmes d’IA. L’optimisation devient un enjeu majeur pour concevoir des systèmes plus efficaces, capables de répondre aux exigences de performance et d’énergie. De plus, l’IA elle-même peut être utilisée pour améliorer ces algorithmes d’optimisation et de recherche opérationnelle (RO), créant ainsi des solutions hybrides alliant IA et méthodes d’optimisation classiques.
Dans ce contexte, cette session spéciale propose d’explorer la conception d’architectures matérielles efficaces pour l’IA et l’utilisation de l’IA pour optimiser ces mêmes architectures, en abordant les défis liés à l’efficacité énergétique, à la gestion des ressources et à l’amélioration des algorithmes d’optimisation. Les contributions attendues pourront traiter l’un ou l’autre de ces points de vue, voire les deux, et permettront de faire émerger de nouvelles perspectives.
Pratiques innovantes en enseignement du traitement du signal et des images
: Gilles Chardon (L2S, CentraleSupélec)
Les dernières années ont vu l’essor de pratiques d’enseignement innovantes, comme les classes inversées, enseignements expérimentaux, challenges, projets, enseignements à distance, etc.
L’objectif de cette session est le partage d’expériences sur telles pratiques innovantes en enseignement du traitement du signal et des images, dans l’enseignement supérieur mais aussi pour des publics plus jeunes ou plus expérimentés (médiation scientifique, formation continue).
La mise à disposition des données, codes, protocoles expérimentaux, listes de matériels, utiles à la mise en place de tels enseignements sera particulièrement appréciée.
Recherche reproductible
: Adrien Krähenbühl (ICube, Université de Strasbourg), Quentin Bammey (Image and Visual Representation Lab, École Polytechnique Fédérale de Lausanne), Gabriele Facciolo (Centre Borelli, ENS Paris-Saclay)
La reproductibilité est essentielle pour maximiser l’impact académique, sociétal et industriel de la recherche. Il reste souvent complexe de reproduire ou mettre en œuvre une implémentation à partir d’un article, de s’assurer de la validité d’une implémentation fournie ou de la réutiliser. Faciliter cette reproductibilité augmente la portée et la validité des résultats et en accélère l’adoption par la communauté scientifique et l’industrie.
Cette session spéciale accompagne la mise en place du label recherche reproductible qui a été décerné à plusieurs travaux présentés dans le cadre du colloque. Nous débuterons par un retour d’expérience sur sa mise en place, accompagné de chiffres clés et du processus appliqué, avec l’objectif d’inscrire durablement cette initiative dans le colloque.
Nous détaillerons ensuite les étapes clés de la reproductibilité : expériences, réutilisabilité du code et reproductibilité de la méthode même. À travers une approche pratique, les participants découvriront des outils comme uv et Docker, pour assurer la reproductibilité de leurs travaux sur différentes plateformes. Ils apprendront aussi à publier facilement leur implémentation sous forme de démonstrations accessibles à tous via des plateformes telles que Image Processing On Line (IPOL) ou Huggingface, ou déployées sur un site personnel.
Il est recommandé aux participants de venir avec leurs ordinateurs.