En 2024, l’intelligence artificielle va se glisser encore plus loin en périphérie de réseau (edge)... jusqu'aux capteurs

[EDITION ABONNES] Au cours des dernières années, l’intelligence artificielle (IA) s’est progressivement étendue des centres de données dans le nuage vers la périphérie de réseau (edge). Dans le cadre de ses prévisions pour les douze mois qui viennent (lire aussi notre article La généralisation des solutions de développement cloud-natives pour l’embarqué, une tendance forte pour 2024), la société d’études VDC prévoit une adoption rapide de l’IA au sein même des capteurs (AI-on-sensor) intégrés dans des objets connectés, et ce pour des applications liées ou non à la détection d’image.

A l’heure actuelle, la plupart des acteurs de l'industrie font rimer l'IA en "périphérie" avec les serveurs déployés sur site, les PC industriels, les passerelles intelligentes et autres équipements similaires, là où les logiciels d’inférence pour apprentissage automatique (ML) peuvent être téléchargés et mis en œuvre selon les processus d’apprentissage effectués au préalable sur des serveurs de centres de données. A titre d’exemple, un développeur de produits ou un utilisateur peut utiliser la plate-forme AWS SageMaker dans le cloud pour bâtir et entraîner des modèles ML, puis télécharger le logiciel d’inférence dans les équipements déployés sur site via l’environnement AWS Greengrass.

La société d’études VDC, quant à elle, utilise le terme "edge" en y incluant aussi les extrémités les plus éloignées et les plus compactes de l'Internet des objets (IoT), en l’occurrence les appareils embarqués. De fait, de nombreux processeurs mis en œuvre dans les produits IoT (microprocesseurs, mais aussi microcontrôleurs) sont désormais suffisamment puissants pour prendre en charge les modèles développés avec des frameworks IA tels que TensorFlow et PyTorch. Ces processeurs peuvent donc à la fois gérer les fonctions d’inférence pour apprentissage automatique en local et effectuer les fonctions traditionnelles attendues avec un produit IoT.

Si l’on s’éloigne encore un peu plus du cloud, les "capteurs IA" sont largement évoqués depuis plusieurs années, mais surtout dans le contexte où sont associés un détecteur et un processeur distincts au sein d’un même dispositif embarqué, agissant alors collectivement comme un système de détection intelligent.

Le concept peut toutefois être étendu avec l’IA sur capteur (AI-on-sensor) où l’inférence ML est effectuée directement par la circuiterie de traitement des capteurs IoT, sans recours à une puce séparée. Une telle approche, explique VDC, a le potentiel de réduire les coûts matériels et la consommation d'énergie et, plus important encore, d'améliorer les temps de réaction, ce qui pourrait être particulièrement bénéfique dans certains scénarios industriels et critiques pour la sûreté de fonctionnement.

Dans la pratique, Sony a annoncé en 2020 un capteur d'image haute résolution, référencé IMX500 et doté d’une IA intégrée, destiné à être utilisé dans ses caméras numériques haut de gamme ainsi que dans des applications industrielles et professionnelles. Plus récemment, en décembre 2023, le fabricant de puces coréen SK hynix a annoncé un capteur d'image avec traitement IA intégré. Samsung travaillerait également sur une technologie similaire pour ses propres capteurs d’image.

Cela dit, VDC estime avoir pour la première fois assisté à la première démonstration fonctionnelle d’une IA sur capteur à faible coût et ce à l’occasion du CES 2024. Il s’agit du capteur Mems 6 axes SmartEdge ML de TDK utilisé pour générer des données de mouvement exploitées pour l’apprentissage ML (hors capteur), le logiciel d’inférence ML étant ensuite téléchargé dans le capteur de sorte que ce dernier puisse lui-même reconnaître des modèles de mouvement spécifiques.

Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA