IA générative en périphérie de réseau : EdgeRunner AI lève 5,5 millions de dollars

EdgeRunner AI

Créée en 2024 et basée à Seattle aux Etats-Unis, la start-up EdgeRunner AI, éditrice d’une solution d’intelligence artificielle pour la périphérie de réseau (edge), a clôturé un premier tour de financement de 5,5 millions de dollars mené par le fonds Four Rivers Group avec la participation de Madrona Ventures et de business angels.

Cette opération va aider la jeune société à créer sa plateforme alimentée par des modèles à l'état de l'art conçus pour fonctionner de manière transparente sur n'importe quel appareil ou matériel sans nécessiter d'accès à Internet. L'offre d'EdgeRunner AI se veut être un socle pour transformer la façon dont les entreprises et les organisations déploient de l'IA générative, en leur offrant un niveau de personnalisation élevé afin d’adapter cette technlogie à des cas d'usage spécifiques.

« Les entreprises et les gouvernements n'ont pas besoin de GPT-5 ou d'IA générique (AGI) mais plutôt de déployer de manière responsable l'IA générative en utilisant de nombreux modèles ouverts de petite taille spécifiques à certaines tâches et qui fonctionnent ensemble pour créer une intelligence collective, commente Tyler Xuan Saltsman, cofondateur et CEO d'EdgeRunner AI. Car le problème de l'IA générative à l'heure actuelle réside dans sa très large applicabilité sans répondre à des besoins spécifiques. Dans ce cadre, chez EdgeRunner AI, nous avons comme ambition de permettre aux organisations de s'approprier leur IA et d’avoir à disposition une infrastructure d’intelligence artificielle personnalisée, spécifique à un domaine et sécurisée dans des environnements isolés. »

Selon EdgeRunner, les modèles propriétaires de type boîte noire sont plutôt alignés aujourd'hui sur ceux utilisés dans le cloud plutôt que sur les besoins des utilisateurs. Or, comprendre les biais au sein de ces modèles opaques est complexe mais essentiel à la fois pour la convivialité et la sécurité des applications d’IA générative.

Selon la start-up, son approche garantit à ce niveau une transparence des modèles, des pondérations et du code qui peuvent s'exécuter sur n'importe quelle architecture matérielle, sans obliger les utilisateurs à déplacer leurs données. Ainsi, toujours selon EdgeRunner AI, en développant de petits modèles ouverts spécifiques à certaines tâches et optimisés pour n'importe quelle puce, la société hisse les SLM (Small Language Models) au rang de modèles linguistiques ultra-efficaces (UELM, Ultra-Efficient Language Models). Ce qui permet aux organisations d'exécuter des modèles d'IA localement, sans recourir à un accès à Internet quel que soit l'appareil. Ce qui se traduit par des performances améliorées, une confidentialité accrue des données, une latence proche de zéro et une consommation d'énergie réduite, assure la start-up.