Évaluer la robustesse des modèles de conduite des véhicules autonomes

Découvrir

L’IRT SystemX a produit, en collaboration avec APSYS (Airbus), Expleo, Naval Group et sa filiale SIREHNA, et Stellantis, un démonstrateur inédit : Robust-AI (ROBUSTness toolkit in AI). Cet outil agrège des approches par simulation et des théories mathématiques basées sur les méthodes formelles pour évaluer la performance et la sécurité des pilotes de conduite autonome.

Les fonctions décisionnelles à base d’intelligence artificielle, et plus particulièrement de deep learning, doivent satisfaire des exigences de sûreté de fonctionnement et donc de démonstration de leur fiabilité dans un domaine opérationnel donné. La solution développée est composée de briques technologiques permettant des avancées significatives pour cette évaluation.
Les travaux menés ont permis à l’institut de proposer au monde industriel et à la communauté scientifique du domaine une approche unique, combinant sûreté de fonctionnement1 et preuves formelles dans le cadre d’une conduite autonome résultant d’un modèle appris par reinforcement learning.

Notre démonstrateur intègre les premières briques d’une méthodologie permettant d’évaluer les propriétés de robustesse d’un modèle de reinforcement learning d’un pilote autonome, tout en répondant aux exigences de la sûreté de fonctionnement inhérentes au véhicule autonome. Il est en cours de transfert vers nos partenaires et ses perspectives de réutilisation et d’évolution sont prometteuses.

Hatem Hajri, Ingénieur-chercheur Architecte IA, IRT SystemX

Interview

Patrick Boutard

AI trust, safety and compliance Lead, Stellantis

Quel était l’objet des travaux que vous avez menés avec l’IRT SystemX ?

Dans le cadre de l’utilisation de l’IA et de l’apprentissage statistique pour les systèmes d’aide à la conduite (ADAS) et pour le véhicule autonome, Stellantis a identifié dès 2017 que la robustesse de ses algorithmes devait être travaillée et optimisée à la fois pour la qualité de la prestation et la sûreté de fonctionnement. 
Nous avons décliné cette question selon deux axes : un axe théorique orienté validation formelle avec analyse de la couverture opérationnelle, et un axe de méthodologie pratique de robustification de l’apprentissage et de l’évaluation des performances avec la prise en compte de cas improbables.
Ces corner cases sont importants car le domaine de conception est loin de couvrir le domaine opérationnel typique : les événements les plus inattendus peuvent se produire sur la route !

Quels principaux résultats avez-vous retirés de votre collaboration ? Comment avez-vous prévu de les réutiliser au sein du groupe Stellantis ?

Comme escompté dès le départ, l’axe théorique a été ardu, et, en dépit d’avancées, la vérification formelle reste encore une question ouverte. L’axe pratique nous a permis, par le couplage d’attaques adverses et d’apprentissage par renforcement, de progresser significativement sur la robustification des apprentissages. Un ensemble d’indicateurs de performance et de safety ainsi qu’un environnement de simulation complètent les livrables et permettent une mise en œuvre opérationnelle dans le cadre de nos études de développement. 

Science des données et IA