L’alliance Linaro lance une initiative autour de l’apprentissage automatique et des réseaux de neurones

[EDITION ABONNES] L’alliance Linaro, dont les travaux sont centrés sur le développement collaboratif de logiciels open source pour l’architecture Arm, lance une initiative autour de l’intelligence artificielle embarquée dans les équipements. ...Estampillé Machine Intelligence, ce programme de travail est activement soutenu par Arm qui va fournir des ressources en ingénierie et ouvrir son moteur d’inférence de réseaux de neurones Arm NN (Neural Networks) à des contributions extérieures. Arm, Linaro et les autres membres de l’initiative Machine Intelligence vont ainsi collaborer pour tenter de réduire la fragmentation et les redondances actuelles existantes au sein des écosystèmes liés aux domaines de l’apprentissage profond (deep learning) et de l'accélération matérielle des réseaux de neurones.

« Le développement d'une interface logicielle commune prenant en charge les infrastructures et les outils leaders du marché est l'une des exigences majeures pour accélérer l'adoption de l'apprentissage automatique par les développeurs », estime à ce sujet Robert Elliott, directeur Applied Machine Learning chez Arm.

Dans ce cadre, l'accélération des réseaux de neurones dans les plates-formes bâties sur les architectures Arm offre, selon Linaro, une opportunité pour le développement de nouveaux systèmes embarqués intelligents en évitant l’écueil actuel des fournisseurs d’IP qui “forcent” les modèles et les frameworks existants à intégrer leurs propres blocs matériels puis à optimiser les performances. Une approche qui conduit, toujours selon Linaro, à une duplication des efforts, à un coût d’intégration de plus en plus long pour chaque nouveau projet et à un coût total de possession accru.

En outre, la quantité croissante de données capturées par les capteurs et les périphériques connectés, associée à des contraintes de temps réel et au coût de transfert des données vers le cloud, renforce la nécessité de gérer et d’exécuter des analyses de grosses masses d’informations (Big Data) et des algorithmes d’apprentissage automatique au plus près des machines, sur le terrain.

« Via l'initiative Machine Intelligence, Linaro et ses membres se sont fixé comme objectif d’adopter un format de description de modèles unifié, associé à une API d'exécution, et de développer un moteur d'inférence optimisé pour les processeurs d'application Arm, ainsi qu’une architecture logicielle suffisamment flexible pour intégrer plusieurs types de réseaux de neurones », commente Andrea Gallo, vice-président chez Linaro.

Plus précisément, l’initiative Machine Intelligence de Linaro se concentrera dans un premier temps sur les moteurs d’inférence de réseaux de neurones intégrés sur des puces-systèmes SoC Arm Cortex-A et Cortex-M exécutant les systèmes d'exploitation Linux, Android et Zephyr. L'équipe collaborera parallèlement à la définition d'une API et d'une structure logicielle d’accueil de moteurs d'inférence capables de prendre en charge des modules dynamiques et des bibliothèques de calcul optimisées. Avec en ligne de mire la prise en charge d’une gamme complète de processeurs, y compris des NPU (Neural processing Unit), des GPU et des DSP.

Rappelons que le kit de développement NN SDK d’Arm, annoncé en début d'année, vise à combler le fossé entre les infrastructures de réseaux de neurones existantes et les processeurs Arm Cortex à faible consommation, les GPU Arm Mali et/ou le processeur Arm ML (lire notre article ici). Il s’agit d’un ensemble de logiciels ouverts et d’outils Linux à code libre de droits, destinés à diminuer la courbe d’apprentissage des technologies d’intelligence artificielle fondées sur des réseaux de neurones sur des périphériques à faible consommation.