Andes se lance sur le marché des moteurs d’accélération IA/ML pour l’embarqué vendus sous forme d’IP

La société Andes Technology, qui est l’un des principaux fournisseurs de cœurs de processeurs RISC-V 32 bits et 64 bits, dévoile sous le nom générique d’AndesAIRE (pour Andes AI Runs Everywhere) une nouvelle gamme de produits destinés aux opérations d’inférence en périphérie de réseau (edge) ou directement sur les nœuds d’extrémité. Les premiers membres en sont un accélérateur matériel d’applications d’intelligence artificielle (IA) et d’apprentissage automatique (ML) vendu sous forme d’IP (AndesAIRE AnDLA I350), ainsi que des outils et des environnements d’exécution ad hoc (AndesAIRE NN SDK).

Selon la société taiwanaise, le bloc d’IP AnDLA (Andes Deep Learning Accelerator) I350 a été spécifiquement conçu pour satisfaire les exigences de faible consommation et d’éco-efficacité des systèmes embarqués ciblés comme les objets connectés (IoT), les caméras, les robots et les appareils électroménagers « intelligents ».

Cette IP, qui est compatible avec les frameworks d’apprentissage profond populaires comme TensorFlow Lite, PyTorch et ONNX, est à même d’exécuter de façon flexible les différentes couches d’un réseau de neurones comme la couche de convolution, la couche de pooling, la couche fully-connected… ainsi que les fonctions d’activation, de channel-padding, de suréchantillonnage, de concaténation, etc. sur des types de données INT8.

Le bloc d’IP dispose également d'un accès mémoire DMA (Direct Memory Access) interne et d'une mémoire locale et emploie des techniques de fusion d'opérateurs pour effectuer plus efficacement les séquences d'opérations les plus courantes. Parmi les principaux paramètres configurables de l’IP AnDLA I350, Andes cite le nombre de multiplieurs-accumulateurs MAC (de 32 à 4 096) et la taille de la mémoire SRam (de 16 Ko à 4 Mo), pour une puissance de calcul comprise entre 64 gigaopérations/s (Gops) et 8 téraopérations par seconde (Tops) (à 1 GHz).

Le SDK AndesAIRE NN, quant à lui, inclut une suite d’outils d’optimisation de réseaux de neurones (AndesAIRE NNPilot), un framework d’inférence optimisé pour l’IP AnDLA qui s’exécute sur une machine hôte et qui s’appuie sur l’environnement TensorFlow Lite for Microcontrollers (AndesAIRE TLFM for AnDLA), ainsi qu’un pilote logiciel et un exécutable AnDLA.

Selon Andes, les blocs d’IP AndesAIRE AnDLA ont vocation à s’intégrer sans couture dans des sous-systèmes composés également de cœurs RISC-V AndesCore et d'extensions personnalisées ACE (Andes Custom Extensions). Dans un tel sous-système, la plupart des éléments structurels et chronophages des charges de travail IA peuvent être calculées efficacement sur l’IP l'AnDLA tandis que les traitements moins structurels tels que les fonctions non linéaires peuvent être déchargés vers les cœurs de processeur RISC-V dotés d’extensions DSP/SIMD ou vectorielles.

A ce titre, les extensions ACE jouent un rôle clé pour un déplacement efficace des données entre le CPU et l'IP AnDLA afin de réduire la bande passante mémoire et la consommation d'énergie tout en augmentant l'utilisation des ressources matérielles, indique Andes. Les extensions ACE peuvent en outre faciliter un traitement encore plus rapide en générant des instructions personnalisées pour des applications spécifiques à un domaine, telles que le pré- ou le post-traitement des données.

Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA