Table of Contents
Les entreprises françaises font face à des défis significatifs en matière de coûts liés à l’IA générative, en particulier en ce qui concerne l’inférence. Alors qu’elles commencent à adopter ces technologies, les modèles de tarification basés sur l’utilisation suscitent des inquiétudes quant à leur impact financier futur.
Des tarifs au token en mode SaaS
Les fournisseurs de modèles de langage (LLM) en mode logiciel en tant que service (SaaS) ont tous adopté des tarifs au token. Cela complique la gestion des budgets pour les entreprises qui explorent l’utilisation de l’IA générative.
Un potentiel inexploité
Selon une étude menée par Canalys, le potentiel de l’IA générative reste largement inexploré. Les entreprises hésitent à tirer parti de cette technologie en raison des coûts récurrents associés au cloud computing. Contrairement aux coûts ponctuels engendrés par la formation des modèles, l’inférence entraîne des dépenses opérationnelles continues.
Rachel Brindley, directrice principale chez Canalys, souligne que « l’inférence représente une contrainte cruciale sur la voie de la commercialisation de l’IA. » À mesure que les entreprises passent de la recherche à un déploiement à grande échelle, la rentabilité de l’inférence devient une priorité, incitant les acteurs à évaluer les différents modèles, plateformes cloud, et architectures matérielles comme les GPU ou les accélérateurs personnalisés.
Des coûts volatils et prévisibilité difficile
Yi Zhang, chercheur chez Canalys, explique que de nombreux services d’IA fonctionnent sur des modèles de tarification basés sur l’utilisation, facturant par jeton ou par appel API. Cela rend difficile la prévision des coûts, surtout avec l’augmentation de l’utilisation.
Lorsque les coûts d’inférence deviennent volatils ou excessivement élevés, les entreprises se voient contraintes de limiter leur utilisation, simplifiant les modèles ou restreignant leur mise en œuvre à des scénarios à forte valeur ajoutée. En conséquence, le potentiel de l’IA demeure sous-exploité, comme le souligne M. Zhang.