Jeudi 11 mai dernier, les commissions du Marché intérieur et des Libertés civiles du Parlement européen ont adopté un projet de mandat de négociation sur les premières règles au monde concernant l’intelligence artificielle (IA) (avec 84 voix pour, 7 contre et 12 abstentions). Dans leur projet qui sera soumis à la Commission européenne, les députés souhaitent mettre en place des garanties et des garde-fous afin que les systèmes utilisant des algorithmes IA bénéficient d’un contrôle humain, qu’ils soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement.
Les députés souhaitent également disposer d’une définition uniforme de l’IA conçue pour être technologiquement neutre afin de pouvoir l'appliquer aux systèmes IA d’aujourd’hui et de demain. Une fois ce projet approuvé, il s’agira, selon les députés, des premières règles au monde sur l’intelligence artificielle avec l’interdiction de la surveillance biométrique, de la reconnaissance des émotions et des systèmes IA de police prédictive, et le droit de déposer plainte contre les systèmes IA.
Dans le détail, les règles éditées suivent une approche fondée sur le risque et établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de danger ou de menaces que l’IA peut générer. Les systèmes IA présentant un niveau de risque inacceptable pour la sécurité des personnes seront ainsi strictement interdits, notamment les systèmes qui déploient des techniques subliminales ou délibérément manipulatrices, c’est-à-dire qui exploitent les vulnérabilités des personnes ou sont utilisés pour la notation sociale (consistant à établir une classification des personnes en fonction de leur comportement social, de leur statut socio-économique, de leurs caractéristiques personnelles).
Les députés ont ainsi listé des interdictions d’utilisation des systèmes IA intrusifs et discriminatoires, comme les systèmes d’identification biométrique à distance "en temps réel" dans les espaces accessibles au public, les systèmes d'identification biométrique à distance "a posteriori" (à la seule exception des services répressifs pour la poursuite d'infractions graves et seulement après autorisation judiciaire), les systèmes de catégorisation biométrique utilisant des données sensibles (par exemple, le genre, la race, le statut de citoyenneté, la religion, l’orientation politique), les systèmes de police prédictifs (fondés sur le profilage, la localisation ou le comportement criminel antérieur), les systèmes de reconnaissance des émotions et enfin la récupération en aveugle de données biométriques provenant des médias sociaux ou de la vidéosurveillance pour créer des bases de données de reconnaissance faciale (en raison de la violation des droits humains et du droit à la vie privée).
Lister les cas d'intelligence artificielle à haut risque
Au-delà, les députés ont élargi la classification de l’IA à haut risque pour y inclure les atteintes à la santé, à la sécurité, aux droits fondamentaux ou à l’environnement. Ainsi que les systèmes IA utilisés pour influencer les électeurs lors de campagnes politiques, et les systèmes de recommandations utilisés par les plateformes de médias sociaux (avec plus de 45 millions d’utilisateurs dans le cadre de la législation sur les services numériques).
Parallèlement, les députés ont inclus des obligations pour les fournisseurs de modèles de référence qui devront garantir un niveau élevé de protection des droits fondamentaux, de la santé et de la sécurité, ainsi que de l’environnement, de la démocratie et de l’État de droit. Ces fournisseurs devront évaluer et limiter les risques, se conformer aux exigences en matière de conception, d’information et d’environnement, et s’enregistrer dans la base de données de l’UE.
De leur côté, les modèles génératifs comme GPT devront se conformer à des exigences de transparence supplémentaires, comme la communication du fait que le contenu a été généré par une IA, la conception du modèle pour prévenir la génération de contenu illégal et la publication de résumés de données protégées par le droit d’auteur, utilisées pour la formation des algorithmes.
D’un autre côté, pour soutenir l’innovation en matière d’IA, les députés ont ajouté des exemptions à ces règles pour les activités de recherche et les composants d’IA fournis dans le cadre de licences open source. La nouvelle législation veut notamment promouvoir ce qu’elle nomme les "bacs à sable réglementaires", c’est-à- dire des environnements contrôlés, établis par les autorités publiques, où les systèmes IA peuvent être testés avant leur déploiement.
Enfin, les députés ont intégré dans leur texte le droit des citoyens à porter plainte contre des systèmes IA et à recevoir des explications concernant les décisions fondées sur de tels systèmes à haut risque qui ont une incidence significative sur leurs droits.
« Nous sommes sur le point de mettre en place une législation historique qui doit résister au défi du temps, commente l'un des rapporteurs du texte Brando Benifei (Italie). Il est essentiel de renforcer la confiance de nos citoyens dans le développement de l’IA, de définir une voie européenne face aux changements extraordinaires qui se produisent déjà et de peser sur le débat politique consacré à l’IA au niveau mondial. Nous sommes convaincus que notre texte propose un équilibre entre protection des droits fondamentaux et nécessité d’assurer la sécurité juridique aux entreprises et de soutenir l’innovation en Europe. C’est la première législation au monde de ce type, ce qui signifie que l’UE montre la voie en orientant l’IA pour qu’elle soit centrée sur l’humain, sûre et digne de confiance. Nous avons aussi œuvré pour soutenir l’innovation en matière d’IA en Europe et pour donner aux jeunes entreprises, aux PME et à l’industrie un espace leur permettant de croître et d’innover, tout en protégeant les droits fondamentaux, en renforçant la surveillance démocratique et en garantissant un système mature de gouvernance et de mise en œuvre de l’IA. »