Contexte : Actuellement l’intelligence artificielle (IA) et les réseaux de neurones font l’objet de nombreux développements tant dans les grands groupes industriels (Google, Intel, Microsoft) que dans les laboratoires. De nombreuses voies sont explorées, principalement au niveau serveur ou large infrastructure ce qui permet de gérer des réseaux neuronaux à très grand nombres de couches. Cependant, de nombreuses recherches ont aussi pour vocation à délocaliser une partie des calculs au sein même du capteur. C’est le “Edge Computing” qui décrit le fait de rapprocher le traitement des données auprès du système les générant. Par essence, cela s’oppose au “Cloud Computing” où le traitement est centralisé et réalisé dans un système central et distant (dans le cloud) imposant des communications bidirectionnelles coûteuses en temps et en traitement. Un des inconvénients majeurs du “cloud-computing” est la potentielle violation de la vie privée (privacy) puisque les données sont intégralement transférées sans le contrôle de l'individu. De nouvelles lois, comme [GDPR16], sont apparues pour limiter très fortement l'utilisation de telles techniques. L’approche “Edge” permet, en amenant une partie du calcul au plus près de la source des données, de répondre à cet inconvénient en ne fournissant au cloud que des informations sur la donnée capturée. Cette approche permet également de tendre vers un traitement de données temps réel en réduisant les problèmes de bande passante et de latence, ce qui se traduit par de meilleures performances et une réduction des coûts d'exploitation des applications à forte intensité de données. Cela est d’autant plus prégnant lorsque les données d’entrée sont des images. Il est donc facile de comprendre que dans un contexte alliant intelligence artificielle donc calculs lourds et traitement de données “images”, des solutions basées sur la distribution des traitement sont les plus ad-hoc. Cette approche que l’on peut nommer Edge-AI va permettre d’exécuter des algorithmes de traitement à base d’intelligence artificielle au cœur même des appareils qui font partie du réseau "Edge Computing", en ayant recours à une connexion internet de manière raisonnable. Objectif : L'objectif de cette thèse est de proposer des solutions novatrices aux problématiques de réseaux de capteurs d’images intelligents (smart vision sensors), notamment l'’intégration d’une intelligence collective au sein du réseau à partir de données élémentaires pré-traitées sur les nœuds de calcul. Toutes les méthodes d’IA pour l’image les plus éprouvées à ce jour sont basées sur des CNN (Convolutional Neural Network). Une étape principale de la thèse est de concevoir des architectures de CNN déployables sur des réseaux de capteurs ainsi que de proposer de nouvelles méthodes d’apprentissage distribué de CNN Cela implique : • une mutualisation éventuelle d’une partie du CNN entre les différents nœuds en assurant la vie privée et en optimisant les ressources (calcul, mémoire, communications réseau, donc la consommation d’énergie): Cela permettrait également de "personnaliser" les traitements locaux en fonction des services. • une construction d’un modèle CNN global performant avec des données de capteurs locaux sans transmission d’informations sensibles et en limitant le volume et la fréquence des échanges. Ces algorithmes et modèles s'appuieront sur des techniques récentes en IA en proposant de nouvelles contributions scientifiques et techniques dans le contexte du Edge Computing. De plus, les approches innovantes d’apprentissage automatique seront considérées pour permettre la construction efficace du modèle: apprentissage de représentation, apprentissage semi supervisé et continu. L’objectif de ces recherches plus fondamentaux sur l’IA et le “Edge Computing” est d’appliquer ses résultats à un ou plusieurs cas d’études réels dans le domaine de vision par ordinateur (par exemple, la détection et le suivi d’objets ou de personnes ou la reconnaissance de gestes dans un flux vidéo) et éventuellement de créer un prototype sur carte FPGA. Environnement : La thèse est dirigée par Stefan Duffner du laboratoire LIRIS à Lyon (INSA Lyon), équipe Imagine, et Virginie Fresse du Laboratoire Hubert Curien (LabHC) à Saint Étienne (Université Jean Monnet), équipe Image Science & Computer Vision. Elle est financée par la région Auvergne Rhône-Alpes dans le cadre du projet ARTIstE (ARTificial Intelligence on the Edge) entre le CEA, l'Université Grénoble-Alpes, l'Université de Clermont-Auvergne, l'Université de Lyon et l'Université Jean Monnet. La thèse se déroulera principalement à Lyon. Merci d'adresser votre candidature avec CV et bulletins de notes à : stefan.duffner@liris.cnrs.fr virginie.fresse@univ-st-etienne.fr