Ceva affine un moteur neuronal pour faciliter l’intégration de modèles TinyML dans les puces-systèmes

[EDITION ABONNES] La société Ceva, qui commercialise sous licence et sous forme d’IP des technologies de détection intelligente et de connectivité sans fil pour produits de périphérie de réseau (edge), étend sa famille de moteurs neuronaux (NPU) Ceva-NeuPro avec les NPU Ceva-NeuPro-Nano. Les caractéristiques de ces blocs d’IP, assure la société, doivent permettre aux fabricants de semi-conducteurs et aux équipementiers d’intégrer des modèles TinyML dans leurs puces-systèmes destinées aux produits AIoT (Artificial Intelligence of Things) grand public, industriels et à usage général.

Pour rappel, le concept TinyML (Tiny Machine Learning) fait référence au déploiement de modèles d'apprentissage automatique sur des appareils à faible consommation et aux ressources limitées, l’idée étant d’apporter la puissance de l'intelligence artificielle (IA) aux objets connectés. Selon la société d’études ABI Research, d'ici 2030, plus de 40% des produits TinyML livrés seront alimentés par des ressources matérielles TinyML spécifiques plutôt que par des microcontrôleurs polyvalents.

En répondant aux défis de performance spécifiques liés au déploiement de modèles TinyML, les NPU Ceva-NeuPro-Nano seraient dans ce cadre aptes à rendre l'IA omniprésente et peu coûteuse dans un large éventail de cas d'usage, couvrant la voix, la vision, la maintenance prédictive et la détection d’états dans les applications IoT grand public et industrielles.

Selon Ceva, l’architecture des NPU Ceva-NeuPro-Nano est entièrement programmable et est en mesure d’exécuter de manière efficace des réseaux de neurones, l'extraction de fonctionnalités, le code de contrôle et le code DSP. Ces IP seraient capables de prendre en charge les opérateurs et les types de données d'apprentissage automatique les plus avancés, notamment le traitement natif de transformeurs, l'accélération parcimonieuse et la quantification rapide.

Leur architecture optimisée et autosuffisante, ajoute Ceva, permet aux NPU Ceva-NeuPro-Nano d'offrir une efficacité énergétique supérieure aux solutions de traitement TinyML existantes bâties sur une association d’un CPU ou d’un DSP avec un accélérateur IA, et ce avec une empreinte silicium réduite et des performances optimales. De plus, la technologie de compression IA Ceva-NetSqueeze peut traiter directement les poids des modèles compressés sans nécessiter une étape de décompression intermédiaire. Une caractéristique qui, selon la société, permet aux NPU Ceva-NeuPro-Nano de réduire l'empreinte mémoire jusqu'à 80%, résolvant ainsi un goulot d'étranglement clé qui empêche l'adoption généralisée des processeurs AIoT aujourd'hui.

« Les IP Ceva-NeuPro-Nano répondent aux exigences de consommation, de performance et de coût des équipements alimentés sur batterie intégrant des cas d'usage liés à la voix, à la vision et à la détection, note Paul Schell, analyste chez ABI Research. On peut citer notamment les écouteurs TWS, les casques, les dispositifs électroniques portés sur soi, les enceintes connectées, mais aussi les appareils domotiques ou électroménagers intelligents, les caméras, les capteurs industriels, etc. »

Les NPU Ceva-NeuPro-Nano sont disponibles selon deux configurations. Le Ceva-NPN32, doté de 32 MAC INT8, est optimisé pour la plupart des charges de travail TinyML ciblant les cas d'usage de la voix, de l'audio, de la détection d'objets et de la détection d'anomalies. Le Ceva-NPN64 avec ses 64 MAC INT8 offre des performances améliorées pour des cas d'usage IA sur des produits plus complexes tels que la classification d'objets, la détection de visage, la reconnaissance vocale, la surveillance de la santé, etc.

Les NPU sont livrés avec un SDK IA complet - Ceva-NeuPro Studio - qui fournit un ensemble d'outils commun à toute la famille Ceva-NeuPro prenant en charge les frameworks IA ouverts, notamment TensorFlow Lite pour microcontrôleurs (TFLM) et microTVM (µTVM).

Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA