ADLink installe un processeur Blackwell de Nvidia sur un module MXMA l’instar de son compatriote Aetina, filiale d’Innodisk (voir notre article), le taïwanais ADLink, fournisseur de cartes et sous-systèmes pour l’embarqué, a dévoilé sur le salon Embedded World qui s’est déroulé du 10 au 12 mars 2026 à Nuremberg, un module processeur au format MXM 3.1 Type A/B, architecturé autour du processeur graphique Blackwell de Nvidia. Objectif : fournir aux développeurs une solution GPU (Graphical Processing Unit) prête à l’emploi et à hautes performances pour les applications d’intelligence artificielle (IA) embarquée dans les secteurs de l’industrie, de la mobilité et des infrastructures intelligentes. Rappelons que la norme MXM 3.1 (Mobile PCI-Express Module) définit des modules de 82 x 70 mm pour le type A et 82 x 110 mm pour le type B conçus pour supporter les charges de travail de l’IA en périphérie de réseau (Edge). Les modules MXM d’ADLink sont ici conçus pour alimenter des systèmes intelligents fonctionnant localement dans une vaste gamme d'applications, notamment les robots et les machines industrielles, les caméras intelligentes et les systèmes d'inspection, les véhicules autonomes, les infrastructures de vente au détail, ainsi que l'imagerie médicale et les dispositifs de santé. Equipés des GPU embarqués RTX PRO Blackwell de Nvidia, ces modules procurent un niveau de flexibilité important en termes de puissance et de performances. Prenant en charge des budgets énergétiques de 45 à 150 W, ils permettent aux concepteurs de systèmes, selon ADLink, d'adapter précisément les profils de performances aux priorités des applications, qu'il s'agisse d'optimiser la capacité de calcul ou de respecter des contraintes thermiques et énergétiques strictes.
Dans le haut de gamme, le module référencé EGX-MXM-BW5000 intègre la technologie MIG (Multi-Instance GPU) de Nividia, et le support de jusqu’à 24 Go de sous-système mémoire GDDR7 haute vitesse - interfaces mémoire jusqu'à 256 bits et bande passante pouvant atteindre 896 Go/s. Des caractéristiques qui ouvrent la voie aux développeurs pour partitionner les ressources GPU selon les charges de travail parallèles, avec une isolation améliorée et une gestion des ressources plus efficace dans les déploiements d'IA embarquée. Cette approche, selon ADlink, permet l'exécution efficace de grands modèles de langage (LLM, Large Langage Model), de pipelines d'apprentissage profond et d'autres charges de travail gourmandes en données directement dans l’Edge. Dans le détail, les cœurs CUDA de Nvidia, les cœurs RT de 4e génération et les cœurs Tensor de 5e génération intégrés dans l’architecture Blackwell, fournissent une accélération GPU puissante pour l'inférence IA, la vision par ordinateur et l'analyse de données en temps réel, avec des performances FP32 de pointe allant de 9,2 à 49,8 TFLOPS. Ces modules, dotés d’un plage de température de fonctionnement standard ( 0 °C à 55 °C) ou étendue ( -40 °C à 85 °C), affichent une disponibilité industrielle sur cinq ans. |