Depuis quelques mois les fabricants de semi-conducteurs rivalisent d’annonces de blocs d’accélération de réseaux de neurones destinés à faciliter l’intégration de l’intelligence artificielle au sein d’objets et d’équipements divers et variés. ...C’est notamment le cas des sociétés Arm, Cadence, Ceva, Socionext, Synopsys ou VeriSilicon. C’est aujourd’hui Lattice Semiconductor qui avance ses pions sur ce marché en devenir avec une pile technologique complète baptisée sensAI.
Associant kits matériels modulaires, cœurs d’IP d’accélération de réseaux de neurones, outils logiciels, designs de référence et services de conception personnalisés, Lattice sensAI vise à accélérer le processus d’intégration de moteurs d’inférence pour apprentissage automatique sur le marché global des applications IoT. Et ce grâce à des offres à la fois optimisées pour des niveaux ultrafaibles de consommation (entre 1 mW et 1 W), bâties sur des composants FPGA en boîtiers miniaturisés (5,5 mm2 à 100 mm2), dotées d’interfaces flexibles (Mipi CSI-2, LVDS, Gigabit Ethernet, etc.) et vendues à des tarifs avantageux (de 1 à 10 dollars en volume).
« En apportant une offre technologique complète pour moteurs d’inférence dévolus à l'apprentissage automatique qui conjugue des solutions matérielles et logicielles sur circuits FPGA à très basse consommation, Lattice sensAI permet d'accélérer l'intégration du traitement et de l'analyse des données issues de capteurs au sein d’appareils et d’équipements fonctionnant en périphérie de réseau comme les enceintes intelligentes, les caméras de surveillance, les robots industriels et les drones », précise Deepak Boppana, directeur en charge du marketing produit chez Lattice. Selon Semico Research, les appareils en périphérie de réseau dotés d'une intelligence artificielle vont afficher un taux de croissance de 110 % par an au cours des cinq prochaines années.
Dans le détail, la solution Lattice senseAI s’appuie sur les kits matériels Video Interface Platform (VIP) architecturés sur le FPGA ECP5 de l’Américain (et notamment l’Embedded Vision Development Kit) et sur les kits Mobile Development Platform (MDP) bâtis, eux, sur les modèles iCE40 UltraPlus. Lattice propose en sus des moteurs d’accélération de réseaux de neurones convolutifs (CNN) ou « binarisés » (BNN), des outils logiciels comme un outil de compilation de réseaux de neurones Caffe/TensorFlow pour FPGA ainsi que des designs de référence (détection de visages, détection de phrases clés, comptage d’objets, suivi de visages, détection de panneaux de limitation de vitesse, etc.).