Projet e-VISER: asservissement visuel événementiel

Le projet e-VISER (2018-2021) vise à développer un asservissement visuel événementiel. Il se déroule dans l'équipe de recherche AVR au laboratoire ICube, Strasbourg, France. Le projet e-VISER est financé par l'ANR (convention d'aide ANR-17-CE33-0008).

Logo du projet e-VISER

Résumé

L'asservissement visuel permet de guider un robot à l'aide de caméras comme seuls capteurs. Le principe consiste à acquérir, traiter et analyser des images numériques, image après image, dans le but d'extraire des caractéristiques de la scène et produire des données qui seront compréhensibles par le robot. Ceci lui permet de prendre les décisions appropriées pour son déplacement. Cette thématique de recherche contribue à rendre les robots toujours plus autonomes, mais de nouvelles méthodes doivent être envisagées, car les approches classiques sont trop consommatrices de ressources et exploitent à peine les caractéristiques dynamiques de la scène perçue.

L'objectif du projet e-VISER est de développer une nouvelle architecture d'asservissement visuel où toute la chaîne d'acquisition et de traitement de l'information est repensée, de la perception à la prise de décision, basée sur le paradigme événementiel. Ce concept novateur redéfinit la manière de mesurer, de communiquer, de calculer ou de mettre à jour le signal de commande seulement lorsqu'un changement significatif survient dans la dynamique du robot ou de son environnement (au lieu d'appliquer un taux de rafraichissement constant, périodique). Plus précisément, l'idée de la présente proposition est de faire fonctionner ensemble un capteur événementiel et un contrôleur événementiel, et de développer de nouvelles stratégies de traitement du signal et de commande.

Parmi les capteurs visuels événementiels, le capteur de vision dynamique (DVS) propose une approche originale. Plutôt que de traiter tous les pixels d'une image quelque soit la dynamique de la scène, seuls les pixels dont l'intensité lumineuse change sont transmis pour un traitement numérique, à l'instant où le changement est perçu. Un DVS offre ainsi une diminution considérable de latence pour la perception, mais la technologie reste encore faible résolution (loin de la précision requise pour un bon asservissement visuel). Afin de profiter des deux avantages, il est proposé d'associer i) un capteur DVS, pour détecter rapidement les mouvements dans la scène, et ii) une caméra haute résolution, pour une compréhension plus précise de l'environnement, mais avec un traitement d'image réduit, puisque localisé (restreint à la région d'intérêt identifiée par les événements du DVS, au lieu de prendre en compte l'ensemble des pixels pour chaque image). Cette combinaison implique des méthodes avancées de traitement d'image qui doivent prendre en compte les données spatiales et temporelles renvoyées par le DVS.

Le contrôleur événementiel repose aussi sur un principe innovant: la stratégie de commande n'est ni calculée ni exécutée sans que cela ne soit nécessaire. Typiquement, les événements déclencheurs sont soit un mouvement (ou un obstacle) détecté dans la scène perçue, grâce aux capteurs visuels, soit lorsque le signal de commande doit être mis à jour pour que le robot atteigne un certain objectif. Ce fonctionnement implique de concevoir des méthodes de traitement d'image, de commande et de communication de manière non conventionnelle, tout en garantissant stabilité, qualité de service et performance du système en boucle fermée alors que les signaux de mesure et/ou de commande restent constants entre deux événements successifs (non périodiques).

Au final, la nouvelle architecture d'asservissement visuel événementiel permettra de i) réduire les coûts de calcul et de communication pour le traitement d'image et pour la commande, ii) accélérer l'asservissement visuel et donc améliorer les performances du robot, et iii) réduire la consommation d'énergie. Elle sera implémentée pour la stabilisation et le guidage d'un système robotique complexe sous contraintes de ressources: un quadricoptère autonome embarquant les capteurs visuels et une plateforme de calcul pour le traitement d'image et la commande. La validation expérimentale, ambitieuse, consistera à la navigation du drone dans un environnement incertain.

Mots clés

Commande événementielle; Capteur de vision dynamique; Asservissement visuel rapide; Robotique aérienne; Suivi de cible et évitement d'obstacles.