Le bloc d’IP pour inférence IA de Flex Logix est désormais disponible pour intégration dans des puces-systèmesConnue jusqu’ici pour sa technologie eFPGA (embedded FPGA) et ses moteurs d’accélération neuronale, la société Flex Logix Technologies annonce la disponibilité de blocs d’IP InferX (et des logiciels associés) adaptés aux traitements DSP et à l’inférence IA (intelligence artificielle). L’annonce fait suite à la décision prise en 2022 par la firme américaine d’ouvrir l’accès à des licences d’exploitation de sa technologie IA InferX, jusque-là mise en œuvre uniquement dans ses propres circuits électroniques (lire notre article). Les IP InferX rejoignent les IP eFPGA EFLX en tant que deuxième offre de blocs de propriété intellectuelle proposée par Flex Logix. Ce dernier rappelle que ses eFPGA EFLX ont déjà été embarqués dans des dizaines de puces (notamment chez Renesas) et qu’ils sont en cours d’intégration dans d’autres conceptions dans des procédés de gravure s’étageant entre le 180 nm et le 7 nm, voire le 5 nm. « En intégrant InferX dans un SoC, les utilisateurs conservent non seulement les performances et la souplesse de programmation d'un FPGA ou d'un GPU, en général onéreux et énergivores, mais ils bénéficient également d'une consommation d'énergie et d'un coût beaucoup plus faibles, assure Geoff Tate, le fondateur et CEO de Flex Logix. C'est un avantage significatif pour les systémiers qui conçoivent leurs propres circuits Asic, ainsi que pour les fabricants de semi-conducteurs qui ont traditionnellement installé un FPGA/DSP ou un GPU/IA aux côtés de leur propre puce et qui peuvent maintenant l’intégrer au sein de leurs designs. L’IP InferX est câblé à 80% dans le silicium, mais elle est reconfigurable à 100% ! » Dans le détail, l’IP InferX DSP est une IP InferX matérielle combinée à de la logique programmable pour les opérations DSP comme les transformées de Fourier rapides (FFT), qui sont commutables à la volée entre différentes tailles (par exemple, de 1K à 4K et à 2K), les filtres FIR, les inversions de matrices complexes 16×16, 32×32 ou autres, etc. Selon Flex Logic, l’IP InferX DSP, qui peut traiter plusieurs gigaéchantillons/seconde et exécuter plusieurs opérations DSP, éventuellement chaînées, est capable d’offrir des performances DSP du même niveau que celles du FPGA leader du marché pour le dixième de son coût et de sa consommation, tout en conservant la flexibilité d’une reconfiguration presque instantanée. La société américaine cite l’exemple d’un DSP InferX câblé dans le silicium sur une surface inférieure à 50 millimètres carrés dans un procédé de gravure 5 nm, qui peut exécuter des FFT INT16 complexes à une cadence de 68 Géch./s et basculer instantanément entre des tailles FFT de 256K à 8K points. Ce qui serait plus rapide que le meilleur FPGA disponible aujourd'hui. De son côté, l’IP InferX AI est une IP InferX matérielle associée au compilateur d'inférence IA de Flex Logix. Cet Inference Compiler accepte le modèle de réseau de neurones d'un utilisateur aux formats PyTorch, ONNX ou TFLite, quantifie le modèle avec une grande précision, compile le graphe pour une utilisation optimale et génère le code qui s'exécute sur le hardware InferX. Une API simple et facile à utiliser est par ailleurs fournie pour contrôler l'IP InferX. Là encore, la société cite l’exemple d’une IP InferX AI câblée dans le silicium sur une surface d’environ 15 millimètres carrés dans un procédé de gravure 7 nm, qui peut exécuter le modèle de détection d’objets Yolov5s à raison de 175 inférences/seconde, ce qui serait 40% plus rapide que le module IA Orin AGX 60 W de Nvidia... Livrable avec une interface au bus AXI pour simplifier son intégration dans des puces-systèmes, l’IP InferX peut en outre être dupliquée en plusieurs instances associées en « tuiles » (tiles) pour encore plus de performances, souligne Flex Logix. Pour l’heure la technologie est qualifiée en production en 16 nm ; elle sera disponible à terme pour les nœuds de gravure FinFET les plus populaires. Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA |