Les unités de traitement neuronal (NPU) s’insinuent de plus en plus dans les applications de l’Internet des objets

Les fabricants de puces embarquées s’orientent de plus en plus vers la fourniture d’unités de traitement neuronal (NPU) pour applications de l’Internet des objets (IoT), de par leur capacité architecturale à assurer l’exécution efficace de réseaux de neurones. Dans ce cadre, estime la société d’études ABI Research, les NPU vont occuper une part croissante du nombre de puces livrées, au détriment des bien connus microcontrôleurs (MCU), les intégrateurs recherchant toujours plus à récupérer des informations pertinentes en périphérie de réseau éloignée (far edge).

Cette tendance contribuera à ce que les revenus des puces silicium dopées à l'intelligence artificielle (IA) et conçues pour les applications axées sur l'IoT dépassent les 7,3 milliards de dollars d'ici à 2030.

« Les unités de traitement neuronal pour applications TinyML (1) dans les terminaux personnels et professionnels (PWD) sont déjà bien établies, rappelle Paul Schell, analyste chez ABI Research. L’usage des NPU reste toutefois encore naissant en dehors de ce secteur vertical et ce n’est que récemment que des poids lourds comme STMicroelectronics, Infineon et NXP ont introduit ce type de circuits Asic dans leurs portefeuilles de produits pour l’embarqué. »

Côté logiciels, les chaînes d'outils MLOps (2) complètes sont désormais des enjeux de taille pour les fournisseurs, grands et petits, y compris pour des start-up comme Syntiant, GreenWaves, Aspinity et Innatera. L’investissement dans une offre logicielle correspond souvent à des avancées au niveau de la recherche et du développement au niveau matériel, un aspect qui a porté ses fruits pour le fournisseur Eta Compute engagé dans un partenariat avec NXP qui a acquis une licence de sa plateforme logicielle Aptos (lire notre article).

De telles innovations démocratisent également le déploiement de la technologie TinyML en réduisant le besoin en interne de talents spécialistes de la science des données, souligne encore la société d’études.

L’intégration d’architectures hautement performantes telles que les NPU et certains FPGA dans les équipements embarqués devrait en corollaire élargir l’offre d’applications IA capables de s’exécuter en local, comme la détection et la classification simple d’objets pour les cas d’usage de la vision artificielle, ou certains traitements en langage naturel (NLP) pour les analyses audio. « Ces évolutions, au-delà de l’intégration quasi systématique au sein de formats edge plus volumineux tels que les PC et les passerelles, vont contribuer à élargir l’échelonnabilité de l’IA en réduisant les coûts de la connectivité réseau et la dépendance au cloud, conclut Paul Schell. Ainsi, nous nous attendons à ce que le marché TinyML se développe au fur et à mesure qu’il capitalise sur ces innovations, stimulées particulièrement par les grands sites industriels qui mettent à niveau leurs déploiements IoT, par l’intelligence croissante embarquée dans les véhicules et par les appareils intelligents de la smart home. »

(1) Le concept TinyML (Tiny Machine Learning) fait référence au déploiement de modèles d'apprentissage automatique sur des appareils à faible consommation et aux ressources limitées, l’idée étant d’apporter la puissance de l'intelligence artificielle (IA) aux objets connectés.

(2) Les MLOps (Machine Learning Operations) sont des fonctions fondamentales de l'ingénierie de l'apprentissage automatique (ML). Elles ont pour mission de normaliser le processus de mise en production des modèles de machine learning puis d'en assurer la maintenance et la supervision.

Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA