La start-up israélienne NeuroBlade lève 23 M$ pour lancer sa première génération de processeurs IA

On ne compte plus les start-up qui cherchent aujourd’hui à se positionner sur le marché des processeurs optimisés pour les fonctions d’intelligence artificielle (IA) et/ou d’apprentissage automatique (machine learning), aujourd’hui dominé par des poids lourds comme Intel et Nvidia. ...Et ces jeunes pousses réussissent à lever des sommes dont les montants sont parfois considérables. Tel est le cas de l’israélien NeuroBlade, créé en 2017, qui vient de boucler un tour de table de 23 millions de dollars mené par Marius Nacht, l’un des fondateurs de Check Point Software Technologies, avec la participation d’Intel Capital et des investisseurs existants StageOne Ventures et Grove Ventures.

Cette manne financière sera mise à profit par la start-up, qui avait déjà levé 4,5 millions de dollars précédemment, pour doper ses effectifs et renforcer ses opérations de marketing en vue de la mise sur le marché de la première génération de son processeur IA.

NeuroBlade estime avoir réussi à dépasser les limites de performances des puces IA principalement liées aux goulets d’étranglement des mémoires haute densité. En ce sens, la firme israélienne explique avoir mis en œuvre une approche holistique afin de redéfinir l’architecture système à partir d’une feuille blanche et de se détacher de toute contrainte mémoire. Cette approche, détaille NeuroBlade, a permis d’améliorer significativement les interfaces logique-mémoire et de rééquilibrer le cœur de traitement et la mémoire pour permettre une exécution rapide des algorithmes IA. Et ce tout en maintenant l’accès aux mémoires à haute densité et sans diminuer la précision du modèle IA entraîné.

Le site Web de NeuroBlade étant avare de détails, on n’en saura pas plus pour le moment… Echelonnable au sens où la puce NeuroBlade peut être aussi bien utilisée dans des équipements de périphérie de réseau (edge) que dans des centres de données, le processeur IA de la jeune pousse est également présenté comme capable de gérer simultanément plusieurs applications IA (réseaux de neurones, algorithmes complexes…) sans latence au niveau de la commutation entre tâches. A suivre donc.

On rappellera qu'en ce moment, la pression monte sur le front des processeurs et des blocs d’IP conçus pour traiter des algorithmes d’apprentissage profond, non plus dans le cloud, mais dans des périphériques en bordure de réseau IoT comme ceux que l’on peut trouver dans les véhicules autonomes, les drones ou la maison connectée (assistants personnels, caméras intelligentes, Smart TV…). Plus d’une soixantaine de sociétés de toutes tailles auraient en effet déjà annoncé de tels circuits ou cœurs d’IP ad hoc, à l’instar d’Arm, Cadence, Ceva, Eta Compute, Imagination, Intel, Kalray, Lattice, Nvidia, Qualcomm, Socionext, Synopsys et VeriSilicon ou des start-up GreenWaves, Gyrfalcon, Hailo, Syntiant ou XNOR. Selon certains analystes, les ventes de puces optimisées pour l'intelligence artificielle (IA) en périphérie de réseau vont être multipliées par vingt d'ici à 2023 (lire notre article ici).

Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA https://www.linkedin.com/showcase/embedded-ia/