16ème Édition de l'École d'Été en Traitement du Signal et des Images

Le thème 2022

Crédit : Putilov Denis - stock.adobe.com

L'édition 2022 qui a eu lieu du 26 au 02 juillet 2022 avait pour thématique principale :

Enjeux méthodologiques et sociétaux de l'apprentissage profond

Résumé

Les avancées récentes dans les technologies et les applications de l'apprentissage profond (ou deep learning), ont valu à trois pionniers du domaine, Yoshua Bengio, Yann LeCun et Geoffrey Hinton, de voir leurs travaux récompensés par le prix Turing en 2018. Ces avancées ont été rendues possible grâce à l'abondance des données disponibles, à l'émergence de nouveaux moyens de calculs tels que les GPU et au développement de plates-formes logicielles open source, flexibles (avec différenciation automatique). En conséquence, ces avancées ont entraîné une transformation profonde des recherches en intelligence artificielle, notamment dans les domaines de la vision par ordinateur et du traitement du langage naturel. Elles ont également renforcé des préoccupations éthiques et sociétales liées à leur usage, la vie privée, la surveillance, leur impact environnemental, les préjugés et les discriminations.

Cette émergence de l'apprentissage profond pose aussi des défis scientifiques. Afin d'améliorer les performances des réseaux de neurones profonds, beaucoup d'efforts sont aujourd'hui déployés pour augmenter le volume des données utilisées et la taille des modèles associés. Mais il existe des difficultés fondamentales liées l'apprentissage profond actuel qui ne peuvent pas être surmontées par cette seule mise à l'échelle. L'apprentissage supervisé nécessite trop de données étiquetées et l'apprentissage par renforcement beaucoup trop d'essais et on ne comprend pas encore très bien ni comment bien généraliser avec moins de ressources ni comment transférer efficacement des résultats d'apprentissage d'un domaine à un autre. Les systèmes actuels ne sont pas non plus très robustes et semblent facilement attaquables. On ne sait pas bien non plus comment expliquer leurs performances, comment rationaliser leur entrainement, leur mise en oeuvre et comment garantir la qualité des résultats fournis.

Informations

L'essentiel

L'affiche

Le comité d'organisation

Présidence
Direction scientifique

Le programme détaillé

  • Challenging deep learning models in real-world applications: learning with few or no data and looking for explainability (5 h)
    Céline Hudelot, Professeure, CentraleSupelec, Laboratoire MICS

    In this course, after a brief review of the principles at the core of deep models and their success, we will address two of the main limitations to their deployment in real applications: their greedy need in annotated data and their lack of interpretability and explicability. Then, in the first part of the course, we will discuss and present effective recent methods for learning with limited annotated data such as few-shot learning, self-supervised learning and data augmentation and generation. In the second part, we will address the different approaches of the state of the art on explainable artificial intelligence that were proposed to improve the understanding of deep models and thus to favor their deployment in decision making scenarios.


  • Domain adaptation in deep learning (5 h)
    Rémi Flamary, Maitre de Conférences, Ecole Polytechnique, Laboratoire CMAP

    In this course we will introduce the problem of domain adaptation (DA) that occurs often in practical machine learning applications and that consists in learning a classifier on a new unlabeled dataset using a related but different labeled dataset. We will first discuss the classical methods that have been proposed to solve DA. Next we will introduce modern DA methods relying on deep learning and representation learning with a focus on divergence and optimal transport based methods.Finally the natural extensions of domain adaptation, that are multi-source and multi target DA and heterogeneous DA will be introduced with a short discussion about the state of the art methods.


  • Privacy-preserving machine learning (5 h)
    Aurélien Bellet, Chargé de Recherche, INRIA, Laboratoire CRIStAL

    Personal data is being collected at an unprecedented scale by businesses and public organizations, driven by the progress of Machine Learning (ML) and AI. While training ML models on such personal or otherwise confidential data can be beneficial in many applications, this can also lead to undesirable (sometimes catastrophic) disclosure of sensitive information. In particular, ML models often contain precise information about individual data points that were used to train them. We must therefore deal with two conflicting objectives: maximizing the utility of the ML model while protecting the privacy of individuals whose data is used in the analysis. Unfortunately, recent years have shown that standard data anonymization techniques cannot reliably prevent leakage without largely destroying utility. So how can we achieve both utility and privacy, or rather, obtain a good trade-off between the two? This course focuses on Differential Privacy (DP), a mathematical definition of privacy that comes with rigorous guarantees as well as an algorithmic framework that allows the design of practical privacy-preserving algorithms for data analytics and ML. In recent years, DP has become the gold standard in various fields and has recently seen several real-world deployments by companies and government agencies. We will introduce the formal definition of DP and analyze its key properties. We will then turn to the design of differentially private algorithms in the standard centralized model, where a trusted curator wants to release the result of an analysis in a privacy-preserving way. We will introduce key algorithmic tools for privately answering simple queries, which will serve as building blocks to construct private ML algorithms. We will also consider decentralized models of DP, where individuals or data owners do not trust a curator to handle their private data, and present applications to federated learning.


  • Enjeux éthiques du numérique et de l’intelligence artificielle – Différence entre éthique, régulation et déontologie (2 h)
    Jean-Gabriel Ganascia, Professeur, Sorbonne Université, Laboratoire LIP6

    Après une introduction générale à l’éthique, ce cours s’organisera autour de quatre concepts majeurs qui prennent une dimension particulière dans le cas du numérique et des applications de l’intelligence articielle, l’autonomie, la justice (et l’équité, mais nous verrons que c’est presque la même chose, et que tout est dans le presque. . . ), la vie privée et enfin la transparence et l’explicabilité. Plus précisément voici la structure du cours :

    • Introduction à l’éthique en général, et à l’éthique du numérique, en particulier a. Définition de l’éthique et distinction avec le droit et la régulation b. Histoire de l’éthique et des différentes approches qu’elle recouvre c. Éthique appliquée, en particulier bioéthique et éthique du numérique d. Notion d’éthique « by design » dans les applications informatiques e. Grands concepts de l’éthique : autonomie, justice et équité, vie privée et enfin, transparence et explicabilité.
    • Autonomie humaine et autonomie technique, a. D’où provient le concept d’autonomie b. Lien entre l’autonomie humaine, liberté et consentement c. Distinctions et malentendus relatifs à l’autonomie technique des voitures, des armes et des autres systèmes d’intelligence artificielle
    • Justice, équité et « fairness » a. Différence entre justice et juste et entre équité, « fairness » et égalité b. Système d’IA non équitable, c’est-à-dire discriminatoire c. Biais algorithmique dans la prédiction
    • Vie privée et intimité a. Distinction entre intimité, extimité, opposition privé public et vie privée b. Éthique des données, loi sécurité et liberté, groupe PAPA, RGPD etc. c. Notions d’anonymisation (de k-anonymat), de pseudonymisation, d’identité multiples etc.
    • Transparence et explicabilité a. Besoin de transparence et d’explication pour la prise de décision : pourquoi ? b. Tension entre transparence (c’est-à-dire fidélité) et interprétabilité c. Résumé de différentes approches

  • Natural Language Generation: Advances and Challenges (2 h)
    Claire Gardent, Directrice de Recherche, CNRS, Laboratoire Loria

    Neural language models and pre-training approaches have revolutionised the field of Natural Language Generation (NLG) and generating high quality text is now possible. Still, multiple challenges remain such as: How to generate from multiple documents? How to retrieve, select and exploit knowledge that can improve dialog models? How to generate into languages other than English? How to generate factually correct, long form text? In this tutorial, I will start with a brief introduction to neural Natural Language Generation (NLG). I will then present some work we did to adress these challenges and highlight some societal and ethical issues that arises from Neural approaches to Natural Language Generation. Joint work with Angela Fan (Facebook AI Research), Antoine Bordes (Facebook AI Research) and Chloé Braud (CNRS/IRIT)


  • Accélération matérielle des réseaux de neurones, contraintes énergétiques et performance (2 h)
    Frédéric Pétrot, Professeur, INPG, Laboratoire TIMA

    Les calculs effectués pour réaliser l'inférence avec les réseaux de neurones profonds vont de centaines de MFLOPs à des dizaines de GFLOPs, et nécessitent un accès à un nombre de paramètres qui va du million à plus d'une centaine de millions. Dans ces conditions, les CPUs classiques ont montré leur limites, et des architectures matérielles programmables avec un haut niveau de parallélisme (type GPU) sont donc massivement utilisées. La surface de silicium et la consommation énergétique de ces solutions est cependant très élevée, et de nombreux travaux tentent de trouver des solutions plus économes, en jouant sur de multiples facteurs. Le cours portera sur les approches qui sont actuellement poursuivies pour améliorer performances temporelles et consommation tout en tentant de minimiser la perte de précision.