“Développer la confiance dans l’IA (Intelligence artificielle) par une approche par les risques cyber”, tel est le titre du document publié par l’Anssi - et cosigné par les agences nationales de cybersécurité de seize pays, dont celles du Royaume-Uni, du Canada, de l'Allemagne, de la Pologne, des Pays-Bas et de la Corée du Sud, entre autre - à l’occasion de la tenue du Sommet pour l’action sur l’IA qui s’est déroulé à Paris du 6 au 11 février dernier..
Au sein de ce document, l’agence présente des premiers éléments pour permettre à chaque organisation d’apprécier les risques cyber liés aux systèmes d’IA et d’identifier les mesures de sécurité à mettre en œuvre pour les maitriser. Et ce en s’appuyant sur les précédentes recommandations du NCSC (National Cyber Security Centre) en Angleterre, et de la CISA (Cybersecurity and Infrastructure Security Agency) aux Etats-Uni relatives à la sécurisation du développement des systèmes d’IA, publiées en novembre 2023.
Selon l’Anssi, cette analyse des risques vise les systèmes intégrant des composants d'IA, et non la sécurité individuelle des composants d'IA. Elle propose une synthèse globale des risques pesant sur ces systèmes plutôt qu’une liste exhaustive de leurs vulnérabilités.
Dans le document que l’on peut télécharger librement, l'Anssi développe ainsi à partir d’une analyse de divers scénarios de compromission possibles de systèmes d’IA une poignée de recommandations à l'attention des fournisseurs, développeurs et responsables de systèmes d’IA. Il s’agit ici ce mettre en avant la notion d’IA de confiance qui s’applique aussi bien à des applications dans le cloud ou sur des serveurs jusqu’à des systèmes embarqués, en passant par des équipements de calcul en bordure de réseau (l’Edge Computing).
L'Anssi explique ainsi que les systèmes d'IA sont exposés à trois principales attaques. Les attaques par “empoisonnement” qui consistent à altérer les données d’entrainement d’un modèle afin de modifier la réponse du système, les attaques par “extraction” dont l’objet est de récupérer des données sensibles internes au modèle une fois la phase d'apprentissage terminée, et enfin les attaques par “évasion” qui modifient les données d’entrée d’un système en vue de modifier le comportement attendu du dit système.
Pour améliorer la cybersécurité des systèmes d'IA, l'Anssi insiste sur la nécessité sur le fait que ces systèmes doivent avoir un niveau d'autonomie élevé avec une validation humaine tout au long de leur processus de conception.
L’Anssi indique aussi qu’il est nécessaire de de développer une maintenance et une supervision des systèmes d’IA associée à une veille technologique et réglementaire régulière pour être à jour des nouvelles menaces.
Au-delà, la formation joue un rôle essentiel dans la gestion des risques vis-à-vis de la cybersécurité, notamment au niveau des directions, note l'Anssi. Avec une nécessité de réaliser des audits de sécurité réguliers sur les systèmes d’IA dont ils sont reponsables..
L'autorité de cybersécurité estime enfin, qu'une meilleure coordination entre les agences de lutte contre la cybesécurité et celles centrée sur l’IA permettrait de réduire les risques. Dans cette veine, l’Anssi cite la décision prise lors du sommet sur la Sécurité de l'IA organisé à Séoul l'année dernière, de créer un réseau d'"AI Safety Institutes".