STMicroelectronics prend en charge les réseaux de neurones profonds quantifiés dans sa plate-forme STM32CubeAvec la version 7.2.0 de son environnement de développement STM32Cube.AI, destiné aux applications d’intelligence artificielle (IA), STMicroelectronics annonce la prise en charge des réseaux de neurones profonds quantifiés (DQNN, Deeply Quantized Neural Networks). Au sein de cet outil, il est déjà possible de convertir des réseaux de neurones pré-entraînés écrits en code C et optimisés pour les microcontrôleurs STM32 de ST pour développer des solutions d'Intelligence artificielle avancées qui tirent le meilleur parti des tailles de mémoire et de la puissance de calcul limitées des systèmes embarqués. L’idée étant de déplacer le plus possible la mise en œuvre des algorithmes IA vers les équipements de terrain (en périphérie de réseau), en lieu et place d’une exécution dans le cloud. Avec à la clé des avantages, selon ST, au niveau de la confidentialité des données, du déterminisme, de la fiabilité et de la réduction de la consommation d'énergie . Désormais, grâce à la prise en charge des formats d'entrée de quantification profonde tels que qKeras ou Larq, les développeurs peuvent encore réduire la taille du réseau de neurones, l'empreinte mémoire et la latence, puisque le principe de la quantification est de diminuer les temps de calcul et les appels mémoire en abaissant la précision des “poids” utilisés entre chaque couche du réseau de neurones. Des caractéristiques qui permettent d'augmenter le potentiel de l’IA en bordure de réseau, y compris pour des applications frugales en matière d’énergie et de coût. Les développeurs peuvent ainsi concevoir des équipements tels que des terminaux IoT auto-alimentés qui offrent des fonctionnalités et des performances avancées avec une autonomie sur batterie plus longue. Enfin, notons que l’outil STM32Cube.AI version 7.2.0 ajoute également la prise en charge des modèles TensorFlow 2.9, des améliorations des performances au niveau du noyau, de nouveaux algorithmes d'apprentissage automatique scikit-learn et des opérateurs ONNX (Open Neural Network eXchange). |