Portrait de Stéphane Herbin – directeur de thèses et expert IA
« Mon sentiment est que le programme rassemble des métiers et des acteurs divers (ingénieurs, développeurs, chercheurs, utilisateurs) ayant la volonté d’utiliser les technologies IA le mieux possible et que tout le monde se rend compte que construire cette IA de confiance est un problème difficile qui demande plus de coopération que de compétition, ce que j’apprécie. »
Pouvez-vous vous présenter ainsi que votre parcours ?
Stéphane Herbin : Mes travaux s’intéressent principalement à la conception d’algorithmes chargés d’interpréter automatiquement les données (images, vidéos et texte), de leur donner du sens en fonction des applications visées : l’IA et le Machine Learning (apprentissage automatique) sont des approches centrales pour aborder cette problématique. L’IA se déploie maintenant clairement dans les domaines aéronautique, spatial et défense, avec des impacts variés sur ses pratiques et ses métiers. L’ONERA se situant à l’interface du monde académique et de l’industrie – ses missions sont en effet de développer et d’orienter les recherches dans ces trois domaines et d’accompagner les évolutions technologiques au profit de l’industrie et des organismes officiels – est donc particulièrement intéressé à participer au programme Confiance.ai.
Comment définiriez-vous l’IA de confiance ?
Stéphane Herbin : La confiance caractérise la valeur – positive – que l’on attribue à la relation que l’on peut entretenir avec une autre personne, entité ou service. C’est un sentiment ou un jugement avant tout humain, d’où l’important volume de propositions portées par l’UE sur la dimension éthique d’une « Trustworthy AI » (HLEG ou AI Act).
Le programme Confiance.ai, plutôt orienté vers une utilisation pratique des techniques d’IA, cherche à étendre l’idée de confiance, en plus de l’interaction humain-IA , aux relations entre composants ou sous-systèmes artificiels qui exploitent ces techniques. Par exemple, lorsque l’on conçoit un système de très grande taille et complexe, comme un avion ou un véhicule, on a besoin de développer une confiance dans la fonction ou le service fournis par les différents composants intégrés. On aimerait garantir qu’un service, comme une loi de contrôle ou encore un détecteur de piéton ou d’obstacle, soit rendu avec des niveaux de robustesse, de performance, de résilience, d’expressivité et de sécurité suffisants pour l’ensemble des conditions d’utilisation attendues.
Quels sont pour vous les grands enjeux et les verrous associés à l’IA de confiance ?
Stéphane Herbin : Le fait de chercher à introduire de l’IA dans la conception de systèmes artificiels questionne les pratiques usuelles d’ingénierie. Un point délicat est notamment le lien entre la définition d’une fonction ou d’un service, leur spécification, leur comportement attendu et les moyens permettant de vérifier ou de garantir leur qualité pour les domaines d’utilisation visés. Cela est notable pour les fonctions conçues par machine learning, « data-driven », typiquement dans le domaine que je connais le mieux : la vision par ordinateur. Actuellement, ce qui est proposé est une combinaison de tests de robustesse, d’évaluation sur jeux de données bien choisis, d’explicabilité et de preuves formelles : un objectif est de formaliser une démarche globale capable de les coordonner.
Une autre difficulté est liée à la diversité des acteurs impliqués, chacun venant avec ses propres objectifs et ses systèmes de valeurs : développeur IA, expert métier, expert système, donneur d’ordre, chercheur IA, utilisateur final, autorité, média, déontologue, etc. Comment définir un langage, des activités et des pratiques partagées capables de bâtir cette confiance pour que les technologies d’IA puissent être utilisées au bénéfice de tous ?
Un dernier enjeu est de résister à la tentation de vouloir aller trop vite sur un domaine aussi prometteur que celui de l’IA mais également en constante évolution et dont la maturité technique est encore en devenir. Il existe en ce moment, par exemple, une certaine activité autour de la standardisation et de la certification de l’IA, au sein d’organismes internationaux ou nationaux, sectoriels ou généralistes – je participe à l’un d’eux sur la validation du Machine Learning au BNAE. Je ne suis pas sûr que l’on soit actuellement en mesure de définir des bonnes pratiques générales ou des protocoles applicables dans tous les cas de figure, indépendamment du contexte d’utilisation et des moyens disponibles. Il est peut-être rassurant – ou stratégique – de tendre vers une certaine normalisation, mais je pense que c’est un objectif qui demandera encore du temps pour être pleinement formalisé, accepté et partagé.
Quelle est la relation entre le monde scientifique et le programme Confiance.ai ?
Stéphane Herbin : L’IA est une discipline encore jeune, très active dans le monde académique, pleine de promesses mais qui vit avec le souvenir d’échecs passés. Nous ne sommes plus à l’époque des « hivers » qui ont succédé à des déclarations fracassantes mais irréalistes – l’IA est maintenant bien présente dans notre société et vraisemblablement de manière pérenne – mais l’engouement, et les financements, peuvent se tarir devant la difficulté à proposer des solutions sûres, efficientes, éthiquement responsables et en définitive utiles. Le monde académique garde une position essentielle pour répondre à ces objectifs et construire un socle de connaissances partagées.
Il existe encore en effet de nombreux problèmes à résoudre : par exemple, nous comprenons encore mal comment fonctionne le « Deep Learning », l’une des techniques déterminantes dans l’essor actuel de l’IA : d’où viennent ses très bonnes performances mais aussi ses erreurs qui sont souvent difficiles à anticiper ? La question de l’explicabilité, souvent considérée comme un pilier de l’IA de confiance, est encore conceptuellement instable ou approximative. On sait concevoir des programmes pour des applications très ciblées (détection d’objets particuliers, jeux de stratégie comme le GO ou les échecs, traduction avec un niveau de langue élémentaire) – la « narrow AI » – mais ils ont des difficultés à gérer les situations non prévues ou rares – les univers ouverts. Il y a donc encore des travaux fondamentaux à mener : les thèses soutenues par le programme Confiance.ai y contribuent.
Parce-que Confiance.ai réunit industriels, académiques et institutionnels, une autre dimension qui peut être portée par le monde scientifique est d’aider les industriels à naviguer dans la jungle actuelle des travaux publiés en IA, toujours plus performants ou spectaculaires, mais parfois sujets à des effets de mode.
Qu’appréciez-vous dans le fait de contribuer au programme Confiance.ai ?
Je contribue au programme Confiance.ai à deux niveaux. En tant que directeur de deux thèses (Adrien Le Coz et Pol Labarbarie) que je co-encadre depuis octobre 2021 avec mon collègue Adrien Chan Hon Tong et deux ingénieurs de l’IRT SystemX, Faouzi Adjed et Milad Leyli-Abadi. Elles ont donné déjà quelques résultats présentés au workshop AI Safety. Je participe également à certaines activités (états de l’art, explicabilité avec mon collègue Baptiste Abeloos), plutôt comme expert, car j’avoue ne pas avoir le temps de m’investir pleinement dans le codage effectif de solutions.
Mon sentiment est que le programme rassemble des métiers et des acteurs divers (ingénieurs, développeurs, chercheurs, utilisateurs) ayant la volonté d’utiliser les technologies IA le mieux possible et que tout le monde se rend compte que construire cette IA de confiance est un problème difficile qui demande plus de coopération que de compétition, ce que j’apprécie.
Quelle est la vision long-terme que vous avez de Confiance.ai en tant que chercheur en IA ?
Comme tout programme, Confiance.ai a une durée limitée et ne pourra pas résoudre l’ensemble des problèmes liés au développement d’une IA de confiance. Selon moi, ce qu’il faut préserver à long terme est le tissu de liens entre les différents contributeurs – la plateforme humaine qui associe ingénieurs, développeurs, chercheurs, utilisateurs, voire autorités – plus que l’environnement logiciel qui risque de devenir rapidement obsolète vu la rapidité des évolutions en IA.