Un module ultrasobre de 33 x 32 mm associe vision artificielle dopée à l’IA et connectivité Wi-Fi/Bluetooth

Spécialiste des solutions d’interface homme/machine et concepteur de puces-systèmes SoC pour applications d’intelligence artificielle (IA) embarquées, l’américain Synaptics a développé, sous le nom de KatanaConnect, un module processeur de seulement 33 x 32 mm qui associe une connectivité Wi-Fi/Bluetooth intégrée et des fonctions à basse consommation de vision artificielle et de détection audio renforcées par de l’intelligence artificielle (IA).

Développée avec le fournisseur de modules Ampak, cette solution prête à l'emploi est censée permettre une mise en œuvre rapide de fonctionnalités de détection IA au sein d’équipements IoT connectés, alimentés sur piles ou batteries, dans des domaines comme la domotique, la sécurité, l’assistance ambiante à domicile, la sécurité industrielle et la surveillance, etc.

« Avec KatanaConnect, tout ce dont les concepteurs ont besoin pour développer rapidement un produit innovant est d'ajouter un capteur d'image à faible consommation, un microphone et un algorithme ou un modèle IA personnalisé pour l'application cible », assure Ananda Roy, chef de produit Low-Power Edge AI chez Synaptics.

Dans le détail, le module associe la puce-système Edge AI basse consommation Katana de Synaptics au circuit radio combo compatible Wi-Fi 802.11n 1x1 et Bluetooth 5.2 SYN430132 de la société américaine. (Une puce qui intègre également des amplificateurs de puissance et des amplificateurs à faible bruit.)

Le module KatanaConnect, dont la disponibilité est prévue dans le courant du premier trimestre 2023, est associé à un kit d’évaluation (EVK) pour un prototypage rapide. Les algorithmes IA, quant à eux, peuvent être personnalisés grâce à la communauté des partenaires du logiciel Katana AI (comme Edge Impulse par exemple), afin de développer des modèles d'apprentissage automatique (ML).

On rappellera que la puce Katana de Synaptics présente une architecture multicœur optimisée pour les applications voix, son et vision à très faible consommation et à faible latence. Son moteur de réseau neuronal intégré prend en charge l'inférence simultanée pour la vision artificielle et la détection d'événements sonores, avec la possibilité de traiter les deux modèles d'IA en parallèle.

Vous pouvez aussi suivre nos actualités sur la vitrine LinkedIN de L'Embarqué consacrée à l’intelligence artificielle dans l’embarqué : Embedded-IA