Les ventes de puces IA pour la périphérie de réseau (edge) vont être multipliées par 20 d’ici à 2023

[EDITION ABONNES] La migration des applications d’intelligence artificielle (IA) du cloud vers la périphérie de réseau (edge) ne va pas forcément favoriser les fournisseurs de semi-conducteurs aujourd’hui bien établis sur le marché de l’IA, comme Intel et Nvidia. ...Tel est du moins l’avis de la société d’études ABI Research qui estime que le chiffre d’affaires généré par les traitements IA au niveau edge devrait augmenter massivement, passant de 1,3 milliard de dollars en 2018 à 23 milliards de dollars en 2023. Un eldorado qui va attiser la concurrence entre les sociétés précitées et des start-up dont la réputation monte en flèche.

« Les entreprises se tournent aujourd’hui vers la périphérie de réseau car elle leur permet d’effectuer des inférences IA sans avoir à transférer leurs données vers le nuage, indique Jack Vernon, analyste pour ABI Research. L’acte de transférer des données est intrinsèquement coûteux et dans les cas d’usage critiques où la latence et la précision sont des facteurs clés et qu’une connectivité constante n’est pas assurée, les objectifs assignés aux applications ne peuvent pas être atteints. En localisant les traitements IA au niveau edge, les entreprises n’ont pas, par ailleurs, obligation de partager des données privées ou sensibles avec les fournisseurs de plates-formes cloud, ce qui s’avère particulièrement crucial dans les domaines de la santé et de l’électronique grand public. »

Pour la société d’études, cette migration des traitements IA vers la périphérie de réseau aura un impact significatif sur l’industrie des semi-conducteurs. Et ceux qui pourront en tirer les meilleurs bénéfices sont ceux qui disposent déjà ou qui sont en train de développer des blocs d’IP pour circuits Asic optimisés pour l’exécution des algorithmes d’intelligence artificielle. Les architectures à traitement scalaire traditionnel comme les processeurs généralistes (CPU) devraient ainsi être désavantagées par rapport aux architectures aptes à manipuler des structures de données de type tenseur et, à ce titre, beaucoup plus efficaces et échelonnables dans l’exécution de tâches d’apprentissage profond (Deep Learning).

Du coup, anticipe ABI Research, les Asic devraient dépasser d’ici à 2023 même les processeurs graphiques GPU en tant qu’architecture de choix pour le traitement IA en périphérie de réseau tant en termes de revenus que de ventes en volume annuels. Les Asic, note la société d’études, sont déjà utilisés par des fabricants de smartphones comme Apple et Huawei pour les fonctions de reconnaissance d’image. Les puces Movidius, désormais aux mains d’Intel, sont quant à elles mises en œuvre par le fabricant de drones DJI pour le suivi d’objets et de personnes ou par le fournisseur de caméras de sécurité Hikvision pour des fonctions de reconnaissance faciale. Les Asic sont aussi en cours d’adoption par des sociétés qui développent des systèmes de conduite autonome, des automatismes industriels ou des robots, constate ABI Research.

Sur le créneau des moteurs d’inférence IA, Intel va se retrouver face à forte concurrence avec des start-up focalisées sur l’intelligence artificielle comme Cambricon Technology, Horizon Robotics, Hailo Technologies ou Habana Labs, selon la société d’études, et ce au moment où Nvidia, avec sa plate-forme AGX à architecture de GPU, commence à percer sur les marchés des automatismes industriels et de la robotique. Xilinx, de son côté, pourrait aussi tirer son épingle du jeu grâce aux sociétés qui utilisent ses FPGA pour réaliser des inférences IA en périphérie de réseau.

Enfin, du côté de l’apprentissage IA, Nvidia devrait conserver sa position de numéro un du marché à moyen terme. « Les éditeurs de plates-formes cloud déploient des processeurs graphiques GPU pour l’apprentissage IA en raison de leurs performances élevées, précise Jack Vernon. Néanmoins Nvidia va voir sa suprématie contestée par des fournisseurs d’Asic optimisés pour l’apprentissage IA, comme Graphcore, qui développent des circuits à hautes performances calibrés pour des cas d’usage spécifiques. »  

Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA https://www.linkedin.com/showcase/embedded-ia/