Un projet français va développer un design de référence pour écouteurs TWS dopés à l’intelligence artificielleSous la houlette de Bpifrance, qui va financer le projet à hauteur de 10,3 millions d’euros dans le cadre du programme France 2030, trois industriels et deux laboratoires hexagonaux se sont associés pour développer un design de référence d’écouteurs TWS (True Wireless) made in France, renforcé par une composante d’intelligence artificielle (IA) embarquée. Le projet réunit les sociétés GreenWaves, Orosound et NaoX Technologies, ainsi que le laboratoire de Traitement et Communication de l’information de Télécom Paris et le laboratoire d’Imagerie biomédicale de Sorbonne Université. L’ambition est forte puisque les cinq partenaires se donnent trois ans pour que ce design de référence, par son approche intégrée innovante et par la mise à disposition d’une bibliothèque exhaustive d’algorithmes audio, s’impose comme le standard sur lequel les grandes marques construiront leurs écouteurs haut de gamme… Identifié comme le secteur des technologies grand public à la croissance la plus rapide depuis 10 ans, le marché des écouteurs TWS est estimé à 1 milliard d’unités en 2025 et l’objectif du projet n’est ni plus ni moins que de saisir 10% de ce marché. Dans le cadre du projet, Orosound, dont les technologies ont été acquises sous licence par plusieurs marques audio grand public et intégrées dans ses propres casques made in France (Orosound Tilde), va apporter son expertise en logiciel embarqué pour casques audio. De son côté, GreenWaves, spécialiste des processeurs d’application pour l’embarqué, apporte au projet ses deux nouvelles générations de puces à ultrabasse consommation, le GAP9 (dont la disponibilité est imminente) et le GAP10. Quant à la société NaoX technologies, son apport vise à enrichir l’expérience utilisateur avec ses capteurs d’électro-encéphalogramme miniatures (EEG) et son expertise en traitement des données neurologiques.
Au centre du projet, l’intelligence artificielle vise ici à faciliter la mise en œuvre de fonctionnalités dynamiques via la collecte de données d’apprentissage, comme la réduction de bruit adaptative ou la détection de signaux de parole pour l’aide à l’audition. Contrairement aux dernières avancées en IA essentiellement traitées dans le cloud, ces applications audio augmentées ne peuvent émerger que par l’IA embarquée, de par la nécessité d’une réponse en quasi-temps réel pour la communication en face-à-face (débruitage, traduction instantanée…) ou du strict respect des données personnelles lors des captations de la voix. Or les processeurs de GreenWaves ont justement la capacité d’exécuter des algorithmes IA en local, notamment dans un contexte d'oreillettes connectées (lire notre article). Selon Bpifrance, pour la première fois l'écoute et la communication avec des écouteurs TWS pourront être optimisées en temps réel selon différents paramètres. Ainsi les algorithmes pourront s'adapter dynamiquement au profil de l’utilisateur et à son environnement, afin d’optimiser l’écoute musicale et la communication. Quant aux fonctionnalités liées à la captation des signaux EEG, elles enrichisseront l’expérience utilisateur d’une méthode d'adaptation de l'expérience au ressenti de la personne. Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA |