Le consortium MLCommons souhaite des benchmarks pour évaluer la sûreté des intelligences artificielles

[EDITION ABONNES] Créé fin 2020 pour élaborer des suites de tests destinées à mesurer de façon indépendante les performances système et l’éco-efficacité des technologies d’apprentissage automatique (ML, machine learning), le consortium MLCommons, connu aujourd’hui pour ses bancs d’essai MLPerf, vient de mettre sur pied un groupe de travail chargé de développer des benchmarks aptes à mesurer la sûreté des intelligences artificielles (AI Safety, AIS).

L’objectif initial est de se focaliser sur les grands modèles de langage (LLM) utilisés pour l’IA générative en s’appuyant sur le framework HELM (Holistic Evaluation of Language Models) de l’université Stanford. Dans ce cadre, le groupe de travail AIS devra développer une plate-forme et un jeu de tests permettant de mettre en œuvre les bancs de test de sûreté IA dans différents cas d’usage.

Parmi les premiers participants au groupe de travail, on citera Anthropics, Coactive AI, Google, Inflection, Intel, Meta, Microsoft, Nvidia, OpenAI et Qualcomm Technologies, ainsi que Joaquin Vanschoren de l’université de technologie d’Eindhoven, Percy Liang de l’université Stanford et Bo Li de l’université de Chicago.

Le consortium MLCommons rappelle que les systèmes IA offrent un potentiel d’avantages substantiels pour la société, mais qu'ils ne sont pas dénués de risques en matière de nocivité, de désinformation et de partialité. D’où la nécessité de tests vis-à-vis de la sûreté des IA qui soient acceptés par toute l’industrie.

En ce sens, la future plate-forme, explique l’organisme industriel, devra définir des benchmarks avec sélection des tests ad hoc parmi le jeu complet et présentation des résultats en scores utiles et compréhensibles. A la manière de ce qui existe en standard dans des domaines comme la sûreté automobile et les économies d’énergie (avec le programme Energy Star).

« La nature ouverte et dynamique des critères de sûreté développés par la vaste communauté de l'IA crée de réelles incitations à fixer et à atteindre des objectifs communs, indique Joaquin Vanschoren. N'importe qui peut proposer de nouveaux tests s'il constate des problèmes de sûreté non résolus. »

L’objectif initial sera toutefois de développer des benchmarks de sûreté pour les grands modèles de langage LLM en s’appuyant sur les travaux révolutionnaires effectués par les chercheurs du Center for Research on Foundation Models (CRFM) de l’université de Stanford et sur son évaluation holistique des modèles de langage HELM. « Nous développons depuis deux ans le framework modulaire pour évaluation HELM, rappelle Percy Liang, directeur du CRFM. Je vais travailler avec MLCommons pour adapter HELM pour l'évaluation de la sûreté des intelligences artificielles, un sujet sur lequel je réfléchis depuis sept ans, mais qui est devenu d’une actualité brûlante avec la montée en puissance de modèles de fondation particulièrement performants. »

Le groupe de travail AIS du consortium MLCommons estime qu’à mesure que les tests progressent, les benchmarks standard autour de la sûreté de l’IA deviendront un élément essentiel de l’approche des industriels dans ce domaine. Ces travaux s’alignent notamment sur les engagements volontaires en matière de sûreté, de sécurité et de confiance de l’IA que plusieurs entreprises technologiques ont pris à la Maison-Blanche en juillet 2023, ainsi que sur le cadre de gestion des risques liés à l’IA de l’organisme NIST et sur la prochaine loi sur l’IA de l’Union européenne.