L’institut Aniti met en garde sur la nécessaire appropriation scientifique des systèmes d’IA pour renforcer leur acceptabilité

Aniti Prise de positon sur l'IA

L’institut interdisciplinaire toulousain Aniti, dont les recherches sont centrées sur la mise en œuvre de l’intelligence artificielle (IA) dans les systèmes critiques, vient de publier un document qui détaille sa position sur les systèmes d'IA générative, en vue de préciser son programme de recherche sur cette technologie dans le cadre de sa stratégie sur les systèmes critiques, en particulier dans les transports et l'industrie. Ainsi que pour le déploiement d’une IA de confiance socialement acceptable et responsable. Parmi les cosignataires, outre la direction de l’organisme Aniti, on trouve l'ensemble des porteurs de chaires et les experts en IA membres de l’institut.

Dans son document, l’Aniti s’inquiète dans un premier temps du manque d’intérêt porté de manière générale sur le fait que les systèmes d’IA générative démontrent des aptitudes encore non anticipées et non expliquées, et trop fragiles pour leur confier des tâches essentielles, ce qui renvoie à des questions scientifiques ouvertes pour expliquer leurs performances et cerner leurs limitations.

« L’écrasante majorité de ces systèmes d’IA générative est développée par un petit nombre d’acteurs industriels (les GAFA et leurs filiales), souligne l’Aniti. Ceci soulève une légitime préoccupation d’indépendance nationale et de souveraineté. Mais ceci a également une incidence considérable sur la nature des développements et l’évolution globale du domaine. La logique industrielle privilégie naturellement le savoir-faire opérationnel au détriment de la compréhension scientifique de ce qui est mis en œuvre. Sans une telle compréhension, ces systèmes restent opaques, non contrôlables, et leur régulation par la société très difficile. Or le développement d’une IA de confiance et responsable (…) passe par l’appropriation scientifique de tels systèmes. »

Parallèlement, l’Aniti souligne que les principes généraux de ces systèmes sont certes connus, et notamment l’apprentissage et l’ajustement fin par renforcement et retours humains, afin de rendre les sorties socialement acceptables. Cependant de nombreux aspects pratiques de leur mise en œuvre relèvent de choix empiriques. Or ces derniers revêtent une importance vitale pour s’assurer de la fiabilité et de l’innocuité sociale des systèmes d’IA afin d’éviter tout risque de biais et de discrimination.

« Ces objectifs doivent être poursuivis en parallèle de l’amélioration de leur performance et de leur robustesse, notamment face à des actes malveillants, précise le document. Leur utilisation dans des systèmes critiques rend incontournable l’analyse de leur explicabilité, qui est une fonction essentielle pour l’amélioration et la compréhension des décisions ou des arguments produits. L’émergence d’aptitudes hors du domaine du traitement du langage naturel, touchant par exemple aux mathématiques, à l’informatique ou au sens commun, nécessite d’être expliquée et analysée, notamment en appui sur la logique. De plus, ces outils technologiques sont encore extrêmement énergivores lors de leur entraînement, ce qui rend leur mise au point inappropriée pour une utilisation fréquente dans la société. Des efforts de recherche sont donc indispensables pour introduire des approches plus performantes inspirées par exemple des neurosciences, afin de trouver des formulations aussi performantes, mais plus frugales. »

Le document complet de cette prise de position de l’institut Aniti est accessible ici.