Le français Yumain apporte l’intelligence artificielle au cœur des capteurs d'image sur le terrain[PORTRAIT DE START-UP] Créée en 2018 et basée à Dijon, la jeune société Yumain s’est donné pour objectif de concrétiser les promesses de l’intelligence artificielle dans des applications de traitement d’image dans le domaine industriel. Et ce en s’appuyant sur une triple compétence : les algorithmes d’intelligence artificielle, les logiciels embarqués et la maîtrise du matériel. ... Pour comprendre l’arrivée de Yumain sur le marché des solutions innovantes d'intelligence artificielle, il faut remonter à 2011, année de la création de Global Sensing Technologies par Xavier Bruneau et Michel Paindavoine, professeur à l'université de Bourgogne et spécialiste du traitement du signal et de l'image (voir notre article publié en 2015 sur cette société). Jusqu’en 2018, Global Sensing a développé son savoir-faire en traitement de signal et en architectures neuronales en mettant notamment au point des produits de première génération. A l'instar de la carte NeuroFPGA entièrement paramétrable par l’utilisateur en fonction de l’application visée, ou la carte NeuroPIC, équipée d’un module caméra qui permet la mise en œuvre d’applications d’intelligence artificielle embarquée pour des systèmes de reconnaissance faciale, de forme ou de détection de défauts. Mais il fallait passer un cap et proposer des solutions professionnelles commercialisables.
La particularité de la société est d’intégrer des solutions matérielles et logicielles d’intelligence artificielle directement dans des capteurs. Des travaux qui se sont concrétisés dans la mise au point d’une solution intégrant une technologie d’intelligence artificielle fondée sur du machine learning, capable par exemple de mesurer automatiquement via une caméra les pentographes des trains pour en révéler les défauts, ou encore la reconnaissance de personnes ou d’objets dans des environnements complexes. Et ce avec une caméra miniaturisée qui consomme moins de 20 W. Ce capteur baptisé ECS (Edge Computing Sensor) analyse les flux vidéo en entrée et prend des décisions en fonction d’une analyse interne, fondée sur un réseau de neurones embarqué dans un FPGA ou un GPU. L’idée étant de ne pas traiter la totalité de l’image, mais seulement les modifications liées aux résultats recherchés.
Pour le moment, ce développement, réalisé en partenariat avec le CEA, en est au stade TRL 6 (Technology Readiness Level, échelle de mesure de 1 à 9 qui évalue le niveau de maturité d'une technologie) avec en ligne de mire une industrialisation de la puce dans les deux ans qui viennent. S’ouvrirait alors à Yumain un marché de masse pour le traitement du signal et de l'image fondé sur un réseau de neurones “bio-inspiré”, c’est-à-dire qui ne retient que l’information utile et s’affranchit de l’exploitation d’une masse de données inutiles, comme le fait couramment le cerveau humain. Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA |