Portrait de Juliette Mattioli – Présidente du comité de pilotage de Confiance.ai
« En tant que présidente du comité de pilotage, je veux comprendre les « dessous » de tous les actifs de Confiance.ai pour mieux les promouvoir au sein de Thales notamment. Aujourd’hui, ce sont des diamants bruts qu’il faut tailler pour pouvoir en montrer la richesse«
Pouvez-vous vous présenter ainsi que votre parcours ?
Juliette Mattioli : Je suis actuellement experte senior en intelligence artificielle (IA) chez Thales (à la direction technique Corp.) et, depuis peu, présidente du comité de pilotage pour Confiance.ai.
Il faut savoir que je n’ai pas débuté ma carrière professionnelle dans ce domaine mais dans l’enseignement secondaire en tant que professeure de mathématiques. C’est en 1990 que j’ai voulu changer de métier. J’ai alors repris mes études en parallèle et ai débuté une thèse en morphologie mathématique au Laboratoire Central de Recherche (LCR) de Thomson CSF (qui deviendra Thales en 2001) que j’ai obtenu en 1993. Dans cette thèse, je combinais des approches neuronales à l’IA à base de connaissance pour la reconnaissance de formes. J’ai ensuite été embauchée par Thomson CSF au LCR, en tant qu’ingénieure de recherche puis tout s’est enchaîné. En 2001, j’ai été responsable d’un 1er laboratoire de recherche en IA symbolique et plus précisément sur la planification, l’optimisation et l’aide à la décision puis de plusieurs laboratoires de recherche. À partir de 2010, j’ai commencé à travailler pour la direction technique du Groupe Thales pour prendre le leadership d’un domaine technique autour de l’IA symbolique, de la décision et de l’optimisation. Depuis 2017, je n’ai plus de responsabilité managériale et suis rattachée à la Direction technique à 100%.
En complément, j’ai participé en 2017 au G20 des innovateurs, suis présidente du hub « data science & AI » du pôle Systematic Paris-Region depuis 2019 en succession de Bertrand Braunschweig et participe à de nombreuses actions pour promouvoir la place de la femme dans les milieux d’ingénieurs et dans les sciences.
Comment définiriez-vous l’IA de confiance ?
Juliette Mattioli :Pour moi, une IA de confiance est une IA qui a été qualifiée et prouvée en fonction de critères qui dépendent de l’usage. Par exemple, pour un système critique au sens « safety critical », ces critères doivent bien sûr dépendre de la sûreté, si le système concerne le citoyen, ils doivent être par exemple éthiques et inclusifs. Ce qui est certain, c’est qu’une IA de confiance doit passer par la « qualification » étayée par une « démonstration » et/ou une « preuve ».
Qu’est-ce que l’évaluation de la confiance et comment le programme travaille sur cette thématique ?
Juliette Mattioli : Le sujet de l’évaluation de la confiance devient de plus en plus d’actualité pour la communauté scientifique mais aussi industrielle. Pour un système d’IA, il s’agit de définir des processus d’évaluation, des métriques ou des indicateurs de performance associés au(x) critère(s) à qualifier.
Au sein de Confiance.ai, nous cherchons à définir les caractéristiques sous-jacentes à la confiance comme : la qualité des données, la robustesse, l’interprétabilité, la réplicabilité, la maintenabilité, et d’autres encore. Pour ce faire, nous avons effectué un état des lieux en étudiant les états de l’art produits dans confiance.ai, les différentes normes et réglementations (type AI Act) mais aussi les travaux provenant de l’étranger : en Angleterre, en Allemagne, au NIST (USA) ou encore plus récemment, en Australie.
Une fois ces caractéristiques définies il faut savoir comment évaluer au niveau composant mais aussi au niveau système, la confiance. Cela nécessite de spécifier des métriques de KPIs qu’il faut ensuite hiérarchiser en fonction du cas d’usage car il y en a énormément puis qu’il faut calculer. De cette manière, nous pourrons obtenir une note des systèmes d’IA.
Selon vous, comment l’IA de confiance va impacter l’industrie ?
Juliette Mattioli : Pour moi, Confiance.ai est un passage obligatoire, c’est une condition nécessaire, au sens mathématiques du terme, pour mettre de l’IA de confiance dans des systèmes critiques. Nous ne pouvons pas faire sans ! Sans les résultats de ce programme, il sera impossible de déployer correctement des composants d’IA dans des systèmes critiques ; sauf à faire de « l’artisanat » et de l’ad ’hoc. Il nous faut donc une démarche industrielle, rigoureuse et bien fondée mais aussi outillée comme Confiance.ai. Mais, le programme n’est pas suffisant ! Il faudra se concentrer sur le développement d’une expertise en ingénierie de l’IA et sur le déploiement des résultats actuels dans nos ingénieries.
Quelle est votre vision long-terme de Confiance.ai en tant que présidente du comité de pilotage ?
Juliette Mattioli : Je souhaite que Confiance.ai se poursuive au-delà des quatre ans. À la fin du programme, en 2024, nous n’aurons pas résolu tous les problèmes et nous n’aurons pas abordé toutes les typologies d’IA. Il faudra donc continuer à travailler aussi bien en recherche pour continuer à lever des verrous scientifiques et mais aussi en ingénierie de l’IA. Il va aussi falloir trouver une structure capable de pérenniser tous les résultats produits par Confiance.ai déjà existants et à venir (méthodes, composants, plateformes, building-blocks et autres) au profit de l’ensemble des partenaires. Cette structure devra nous aider à déployer ces résultats dans nos industries, contribuer à l’amélioration et la mise à jour de ces « actifs ».