"Evaluer et certifier l’intelligence artificielle, une obligation pour la confiance"[TRIBUNE d'Agnès Delaborde, LNE] Développé par OpenAI et lancé en novembre 2022, ChatGPT (Chat Generative Pre-trained Transformer) est un agent conversationnel capable de traiter les requêtes des utilisateurs dans différentes langues. Capable de réagir de façon fluide à des échanges complexes, ChatGPT impressionne de prime abord par ses performances et a été vécu comme une rupture dans le développement des algorithmes d’intelligence artificielle (IA). Concrètement, ChatGPT est fondé sur des techniques classiques de l’intelligence artificielle : les réseaux de neurones et l’apprentissage machine. En ce sens, on n’observe pas là de rupture technologique fondamentale. Pour autant, le projet est d’une ampleur sans précédent quant au nombre de paramètres pris en compte par l’algorithme, le volume des données utilisées pour la phase d’apprentissage et la finesse avec laquelle ont été gérés de nombreux aspects tels que le filtrage de ces données. Ainsi, le chatbot impressionne par la qualité et la pertinence des échanges qu’il peut entretenir avec l’utilisateur. Dans ce contexte, des personnalités de la Tech, notamment le milliardaire Elon Musk, ont publié récemment une lettre ouverte dans laquelle les milliers de signataires appellent les laboratoires d’IA à faire une pause dans le développement de leurs technologies. Selon eux, « les systèmes d’IA dotés d’une intelligence capable de concurrencer celle de l’homme posent de graves risques pour la société humaine ». Par conséquent, il serait nécessaire d’interrompre immédiatement selon eux, et pour au moins 6 mois, le développement de systèmes d’IA plus puissants que GPT-4, la dernière version en date du robot conversationnel d’OpenAI. L’Europe, pionnière dans la réglementation des IA Au-delà de cette publication, l’épisode rappelle surtout que les possibilités offertes désormais par l’intelligence artificielle plaident pour la mise en place d’une réglementation à même d’accompagner et d’encadrer l’essor de l’IA. C’est exactement ce à quoi s’emploie l’Union européenne : en 2021, la Commission publiait une proposition de réglementation pour l’IA, l’AI Act, qui a pour objectif de réglementer l’usage et la commercialisation des systèmes d’IA lorsque le texte sera applicable en 2025. Si d’ici là, l’Europe reste dans l’expectative quant aux manières concrètes dont cet acte sera implémenté, et se prépare encore à la future démonstration de conformité des produits et services à base d’IA, il semble évident qu’en Europe nous disposons d’une longueur d’avance dans l’anticipation des technologies pouvant potentiellement porter atteinte aux droits fondamentaux et à la sécurité des individus. En tant qu’établissement public à caractère industriel et commercial, dont la mission historique est d’apporter un soutien à l’industrie et d’assurer la sécurité et la santé des citoyens, le LNE est pleinement engagé dans cette voie avec la mise en place d’un cadre de confiance pour les futurs systèmes d’IA. Ainsi, en collaboration avec ses partenaires, les autorités de contrôle et les industriels, le LNE participe actuellement à trois projets européens majeurs visant à la mise en place de réseaux et de plateformes d’essais pour l’intelligence artificielle. Ces projets, appelés TEF (Testing and Experimentation Facilities), permettront concrètement de développer des méthodes et moyens d’essai permettant de qualifier la performance, la fiabilité et la robustesse des systèmes d’IA, et d’établir s’ils sont dignes de confiance. Plus précisément, les protocoles d’essai se focaliseront sur les essais de sécurité et l’évaluation des aspects éthiques, légaux et sociétaux. Evaluer, fiabiliser et sécuriser D’ores et déjà, le LNE a déjà évalué plus de 1 000 systèmes d’IA pour les industriels ou les pouvoirs publics, dans des domaines sensibles comme la médecine, la défense ou le véhicule autonome et également dans les secteurs agroalimentaire ou industrie 4.0. Le LNE renforce actuellement ses moyens d’évaluation avec son projet LEIA (Laboratoire pour l’évaluation de l’intelligence artificielle), une infrastructure reconstituant l’environnement dans lequel un dispositif physique embarquant de l’IA (robots d’aide à la personne, caméras intelligentes, robots d’intervention civils et militaires, etc.) est amené à évoluer. Elle permettra d’y caractériser sa fiabilité et de sécuriser son usage, mais aussi de s’assurer du caractère éthique de l’IA : l’ensemble des données est-il traité de manière équitable ? l’information divulguée à l’utilisateur est-elle juste ? etc. De fait, comme le soulignait Guillaume Avrin, alors responsable du département Evaluation de l’IA du LNE et aujourd’hui coordonnateur de la stratégie nationale pour l’intelligence artificielle, « plus nous disposons d’une connaissance précise du domaine de fonctionnement d’une IA, c’est-à-dire des conditions dans lesquelles elle fonctionne ou au contraire ne fonctionne pas, plus nous sommes disposés à interagir avec elle. La taille du domaine de fonctionnement nominal des technologies intelligentes, qui caractérise leur niveau de robustesse, est l’un des principaux critères de choix ». Précisément, nous travaillons ainsi au LNE sur des méthodes d’évaluation en traitement de la langue, de la voix, de l’image. Certifier les IA pour leur faire confiance En outre, le LNE a également développé en 2021 le premier référentiel pour la certification des processus d’IA, qui vise à garantir que les solutions sont développées et mises sur le marché en respectant un ensemble de bonnes pratiques, tant sur les aspects développement algorithmique, sciences des données, que prise en compte du contexte métier et du contexte réglementaire. La certification est volontaire, c’est-à-dire qu’elle peut être demandée par tout fournisseur de solution ou service IA souhaitant présenter un gage de confiance à ses clients, usagers ou investisseurs. Elle atteste de la qualité des processus de conception, de développement, d’évaluation et de maintien en conditions opérationnelles. Ce faisant, elle répond au besoin de confiance de la part des professionnels et du grand public dans l’intégration ou l’utilisation de biens ou services contenant de l’IA. Elle permet notamment aux développeurs de démontrer qu’ils maitrisent toutes les étapes du cycle de vie de leur IA et répondent aux exigences de leurs clients. Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA |