[TRIBUNE de Olivier Galibert et Swen Ribeiro, LNE] L’année écoulée a vu la mise à disposition du grand public d’applications d’intelligence artificielle (IA) aux capacités impressionnantes. On le sait, l’idée d’une mise en pause du développement des IA est naïve et illusoire. En revanche, il est urgent d’en définir les limites en mettant en place un système d’évaluation de conformité et de normes. Cette initiative de contrôle relève de la responsabilité du politique et peut être menée, et ce grâce à l’expertise de tiers de confiance comme le Laboratoire national de métrologie et d'essais (LNE).
Dans le domaine de l’IA, l’année passée a été notamment marquée par la mise en ligne de ChatGPT-4, une IA conversationnelle dotée d’une capacité à dialoguer avec un utilisateur en reproduisant de manière convaincante la structure d’une conversation. A l’instar de DALL-E 2, Midjourney ou Stable Diffusion, spécialisées dans la production d’images, ChatGPT est une IA dite générative. Ce type de technologie s’appuie sur des algorithmes d’apprentissage capables de réaliser une tâche à la suite d’un entrainement à partir d’une très grande quantité de données.
Ainsi, une IA productrice d’images parvient-elle par exemple à dessiner un chat après avoir analysé de très nombreuses images et descriptions de chats. De la même manière, ChatGPT est entraîné à deviner la fin d’une phrase ou d’un texte à partir de son début, celui-ci pouvant être une question à laquelle l’algorithme répond, mimant ainsi une conversation. De la même manière, pour son entraînement, ChatGPT a été confronté à un très grand nombre de textes disponibles sur Internet et qui couvrent tous les aspects de la vie humaine.
Il n’existe à l’heure actuelle que peu de documentation sur le ou les algorithmes qui sont aux fondements de ChatGPT. En revanche, on sait que les données d’entraînement ont fait l’objet d’un nettoyage drastique et que le processus d’entraînement a été très contrôlé. Les prédictions de l’algorithme ont notamment été “assainies” et certains cas d’usage raffinés par supervision humaine. D’où in fine des réponses qui semblent convenir aux attentes d’utilisateurs humains, au niveau par exemple des valeurs morales, ou tout simplement du point de vue de l’articulation du discours.
Si ChatGPT-4 est l’aboutissement d’une série d’IA conversationnelle, elle représente cependant une rupture, d’une part par ses performances, d’autre part du fait de la prise de conscience du grand public des prouesses aujourd’hui permises par l’IA. Cela dit, cette prise de conscience se fait dans une certaine confusion. Concrètement, le grand public, s’appuyant sur la qualité formelle des réponses formulées par ChatGPT, en déduit leur véracité. Or il faut avoir à l’esprit que ce type d’IA n’est pas entraîné pour énoncer des propositions vraies, mais pour répondre d’une façon fluide et naturelle.
Ainsi, la notion de vrai ou de faux n’entre pas ici en ligne de compte. Par exemple, concernant la biographie de personnes connues, nous avons mis en évidence que ChatGPT pouvait renvoyer des informations complètement fausses, comprenant des dates erronées et des liens vers des sites inexistants. La raison en est que son entraînement lui a permis d’identifier uniquement l’énonciation de ce type de faits, sur un plan strictement stylistique qui s’accompagnait souvent de suite de caractères commençant par "www".
En revanche, la techologie n'a pas permis d’identifier la fonction de ces suites de caractères, à savoir faire le lien avec une source de l’information. Par rapport à tout ce qui s’est fait avant en matière d’IA, la rupture tient in fine au fait que désormais nos filtres habituels sont rendus inopérants : la forme est tellement impressionnante qu’elle ne nous permet plus de trancher sur le fond.
Au-delà, il ne s’agit pas cependant de conclure pour autant à la dangerosité de ces IA génératives. Utilisées par des spécialistes d’un domaine, elles peuvent aider à rassembler, trier ou sélectionner de l’information qui devra être vérifiée par ailleurs. D’une certaine manière, ces IA sont à considérer comme un nouveau type de moteur de recherche permettant d’articuler comme jamais auparavant plusieurs concepts dans une unique requête. Et dans le cas des IA productrices d’images, elles sont déjà par exemple utilisées par des graphistes pour faire des propositions pour amorcer un processus créatif.
Quant à savoir si les IA génératives constituent la base d’une révolution technologique, sociétale ou humaine, il est difficile de trancher. Au moins cette révolution ne nous apparaît-elle pour le moment pas plus radicale que celle qui a vu l’émergence d’Internet ou du smartphone, deux innovations qui ont pourtant profondément changé notre manière de nous informer et de communiquer. Les IA génératives auront-elles cette faculté ? Ou bien à l’instar de l’électricité, modifieront-elles plutôt notre manière de produire ? Nous n’en savons encore rien.
Contrôler l'IA, une nécessité
Si l’on sait que nous ne reviendrons plus en arrière dans le développement des IA, en revanche il est désormais urgent de contrôler et de borner le développement de ces dernières qui sont entre les mains d’entreprises privées aux ressources financières colossales. En ce sens il ne s’agit pas de les concurrencer, mais de mettre en place un système d’évaluation de conformité et de normes comme il en existe pour l’ensemble des produits mis sur le marché.
Cette initiative de contrôle est la responsabilité du politique, qui peut envisager cette tâche en confiance grâce à l’expertise que le LNE peut lui apporter. Non content d’avoir déjà évalué plus de 1 000 systèmes IA pour les industriels ou les pouvoirs publics dans des domaines sensibles comme la médecine, la défense ou le véhicule autonome, mais également dans les secteurs agroalimentaire ou industrie 4.0, le LNE a également développé dès 2021 le premier référentiel pour la certification des processus d’IA dont l’objet est de garantir que les solutions sont développées et mises sur le marché en respectant un ensemble de bonnes pratiques, tant sur les aspects du développement algorithmique ou des sciences des données, que sur la prise en compte du contexte métier et du contexte réglementaire.
Au-delà, le LNE travaille actuellement au déploiement d’une infrastructure unique en Europe : les Laboratoires d’évaluation de l’intelligence artificielle (LEIA). Les LEIA permettent d’évaluer les solutions logicielles à base d’IA et les dispositifs physiques embarquant de l’IA en vue d’en caractériser la fiabilité et sécuriser leur usage, mais aussi de s’assurer du caractère éthique de l’IA. L’ensemble des données est-il traité de manière équitable ? l’information divulguée à l’utilisateur est-elle juste ? etc. Par ailleurs, le projet LEIA est l’une des clés de voûte de l’implication du LNE dans trois projets européens, en collaboration avec plus de cinquante partenaires, des autorités de contrôle et des industriels. Ces projets, appelés TEF (Testing and Experimentation Facilities), permettront de développer des méthodes et moyens d’essais à l’échelle européenne permettant de qualifier la performance, la fiabilité et la robustesse des systèmes d’IA et d’établir s’ils sont dignes de confiance.
Le LNE se positionne ainsi comme un tiers de confiance à même d’accompagner l’essor des IA génératives en contribuant à assurer leur contrôlabilité et leur conformité à la réglementation. L’idée étant que l’innovation ne doit pas être freinée, mais accompagnée par des dispositifs permettant de garantir des IA de confiance sur les territoires français et européen.