La survie des start-up spécialistes des puces IA menacée à court terme?

[EDITION ABONNES] Depuis 2018, les jeunes pousses focalisées sur la conception et le développement de puces spécialisées dans le traitement de l’intelligence artificielle (IA) sont sous la lumière des projecteurs. En l’espace de quatre ans, une centaine de sociétés de capital-risque ont ainsi investi plus de 6 milliards de dollars dans les vingt-cinq plus importantes de ces start-up, selon le cabinet d’analyses de marché Omdia.

Mais la roue est en train de tourner. Si 2021 restera dans les mémoires comme une année exceptionnelle, il est aujourd’hui plus difficile de lever des sommes considérables. La pénurie mondiale de semi-conducteurs, qui s’est prolongée d’une crise des approvisionnements, les changements de politique monétaire et le ralentissement économique de 2022 ont changé la donne. « Les start-up fournisseurs de puces AI les mieux financées sont aujourd’hui sous pression pour proposer le type de support logiciel auquel les développeurs sont habitués de la part de Nvidia, le leader du marché, indique Alexander Harrowell, analyste spécialiste des architectures de calcul avancées chez Omdia. C'est là que réside le principal obstacle à l'introduction de nouvelles technologies de puces IA sur le marché. »

Dans ce cadre, la société d’études s’attend à ce qu’au moins une start-up majeure n’existe plus en tant qu’entité indépendante fin 2023 et se retrouve possiblement acquise par un fournisseur de plates-formes cloud hyperscale ou par un grand fabricant de semi-conducteurs. « La voie de sortie la plus probable est un rachat par un poids lourd, soutient Alexander Harrowell. Apple a en poche 23 milliards de dollars de liquidités et Amazon 35 milliards de dollars, tandis qu'Intel, Nvidia et AMD disposent de 10 milliards de dollars au global. Au-delà, les hyperscalers cloud se montrent particulièrement intéressés de disposer de puces IA personnalisées, sachant qu’ils ont les moyens de maintenir les compétences afférentes en interne. »

Omdia a par ailleurs constaté que la moitié des 6 milliards de dollars de financement injectés depuis 2018 dans les start-up spécialisées dans les puces IA l’ont été sur des architectures d’accélération reconfigurables à gros grains CGRA (Coarse-Grained Reconfigurable Architectures) (*) mises en œuvre sur des composants de grandes dimensions, souvent conçus dans le but de pouvoir charger des modèles IA entiers sur la puce. Cependant, souligne la société d’études, cette approche soulève des questions compte tenu de l’évolution continue des modèles IA.

« En 2018 et 2019, l'idée d’injecter l'intégralité d’un modèle dans la mémoire embarquée dans la puce était logique, car cette approche offre une latence extrêmement faible et répond aux problèmes d'entrées/sorties des grands modèles IA, précise Alexander Harrowell. Mais les modèles ont continué de se développer de manière spectaculaire depuis, faisant de l'échelonnabilité un problème critique. Des modèles plus structurés et plus complexes en interne signifient que les processeurs IA se doivent d’offrir une capacité de programmation beaucoup plus générique. En tant que tel, l'avenir des processeurs IA réside peut-être dans une autre direction tehnologique »

(*) Les architectures CGRA, qui proposent un compromis intéressant entre flexibilité et efficacité énergétique, se distinguent par la granularité des éléments de calculs, leur homogénéité, les opérations prises en charge ou le réseau d’interconnexion.