Si la création et l'évaluation de nouvelles technologies d'intelligence artificielle (IA) sont essentielles pour garantir la réussite technologique à long terme, d'autres processus entrent également en jeu. Chez Red Hat, nous passons du temps à créer des schémas réutilisables et à perfectionner la manière dont les modèles d'IA peuvent être utilisés. Cette approche nous permet, ainsi qu'à nos clients, d'adopter l'IA en toute confiance.
Nous veillons également à ne pas perdre de vue l'aspect pratique de l'IA. Par exemple, comment fournir à tous les utilisateurs un accès privé aux modèles d'IA tout en minimisant les coûts ? Comment exploiter les avantages et la portée de la prochaine grande innovation ?
La réponse est simple : avec l'approche MaaS (Models-as-a-Service).
Tout le monde ne souhaite pas devenir spécialiste de l'IA, et soyons clairs, les entreprises n'ont pas besoin que chaque utilisateur crée son propre modèle. L'objectif actuel doit être de permettre d'élargir autant que possible l'utilisation de l'IA déjà disponible. C'est là que l'approche MaaS entre en jeu.
Voyons comment l'approche MaaS s'est imposée chez Red Hat. Nos utilisateurs se classent généralement en deux groupes :
- Les adeptes de l'IA, c'est-à-dire les créateurs, les développeurs, les amateurs et les professionnels qui l'exploitent au maximum
- Tous les autres utilisateurs, c'est-à-dire ceux qui utilisent l'IA sans chercher à approfondir leurs connaissances dans ce domaine
L'approche MaaS vise à fournir aux entreprises des modèles d'IA sous forme de ressources consommables, plus précisément des points de terminaison d'API. L'équipe informatique ou d'ingénierie de plateforme d'IA distribue des modèles via une passerelle d'API pour permettre aux développeurs, et par extension, à tous les utilisateurs, d'utiliser l'IA dans le cadre de leurs tâches quotidiennes.
Adoptons un autre point de vue : les grandes entreprises du secteur de l'IA ne donnent pas accès à leur matériel. Elles fournissent plutôt un accès à leurs applications ou à leurs points de terminaison d'API. Elles proposent donc une approche MaaS. La seule différence dans cette situation est qu'au lieu de louer les services de ces grandes entreprises, les clients exécutent leur propre modèle MaaS pour garder le contrôle sur les coûts, les accès et la rapidité d'innovation.
Ces paramètres rendent cette approche particulièrement intéressante.
Chez Red Hat, nous avons adopté l'approche MaaS depuis environ un an. Nous livrons ci-dessous nos premières observations.
Davantage d'innovation à moindre coût
À chaque lancement d'un nouveau modèle, des centaines d'employés Red Hat souhaitent le déployer immédiatement. Avec l'approche MaaS, nous pouvons déployer le modèle une seule fois et préserver notre budget. Il n'est plus question de se procurer 10, 20 voire 50 GPU pour permettre à autant d'utilisateurs d'essayer un nouveau modèle.
C'est une situation qui profite à tout le monde. Nos équipes de développement peuvent essayer de nouveaux modèles et se concentrer sur la création d'outils sans faire exploser les coûts.
Accélération de l'innovation
Nous sommes en mesure de tester tout nouveau modèle sur le marché à notre rythme. Lorsque DeepSeek a fait trembler le marché de l'IA, nous avons pu exécuter et mettre à la disposition de tous un modèle DeepSeek R1 peu après son lancement. Nous avons fait de même pour Granite, Llama 4 ou encore Phi.
Confidentialité et sécurité
Les données sensibles requièrent un contrôle total et minutieux. Avec l'approche MaaS, l'entreprise devient son propre fournisseur d'IA capable de protéger ses ressources numériques. Il n'est pas obligatoire d'utiliser des points de terminaison d'API publics. En réalité, nombre de nos clients exécutent leurs propres modèles au sein de datacenters de type air gap.
Utilisation en entreprise
La passerelle d'API sur laquelle repose l'approche MaaS apporte l'évolutivité nécessaire pour atteindre tous les collaborateurs, la flexibilité requise pour suivre le rythme de l'innovation, ainsi que les outils de sécurisation et d'observabilité permettant de déployer efficacement des modèles d'IA selon les conditions de l'entreprise.
Réduction supplémentaire des coûts
L'approche MaaS permet de réduire les coûts grâce à l'utilisation directe d'un modèle de ressources partagé. Avec moins de GPU, il est possible d'obtenir les mêmes résultats et d'améliorer les indicateurs de mesure liés à leur utilisation. À mesure que les modèles s'enrichissent tout en devenant plus légers, cette approche devient de plus en plus efficace. Il est même possible d'utiliser des outils de compression pour grands modèles de langage (LLM) afin d'équilibrer les performances et la taille des modèles en fonction des exigences de l'entreprise. En bref, l'approche MaaS permet d'optimiser l'empreinte et les modèles des entreprises avec à la clé un maximum de bénéfices.
L'approche MaaS consiste à créer une base adaptée tout en préparant l'avenir. Prenons l'exemple des agents intelligents. Les agents ne sont pas des applications destinées uniquement à répondre à des questions. Ils s'efforcent de chercher la bonne réponse, s'ils en ont les moyens. Pour ce faire, ils utilisent des jetons textuels,en très grande quantité. Si vous avez besoin d'évolutivité et d'un moyen de prévoir les coûts de manière plus précise, vous devriez envisager d'adopter l'approche MaaS en interne.
L'IA n'est pas prête de disparaître et il est temps d'aborder la question des coûts, de la rapidité d'innovation et de la confidentialité avec pragmatisme. L'approche MaaS est une solution prometteuse en faveur de laquelle nous sommes engagés. Si vous avez les mêmes priorités, alors cette approche peut répondre à vos besoins.
Suivez cette démonstration interactive dans laquelle Parasol, une compagnie d'assurance fictive, exécute trois applications d'IA dans le cadre d'une approche MaaS. Si vous êtes un adepte de l'IA, n'hésitez pas à consulter le référentiel GitHub sur l'approche MaaS. Enfin, si vous participez au Red Hat Summit cette année, n'oubliez pas de vous inscrire aux sessions How to become the hero of your artificial intelligence story et LLM-as-a-Service for enterprise: Building a customer large language model platform pour en savoir plus.
resource
Se lancer avec l'IA en entreprise : guide pour les débutants
À propos de l'auteur
Karl Eklund is a Principal Architect aligning customer goals to solutions provided by the open source community and commercial vendors within the Red Hat OpenShift Data Science platform. Prior to joining Red Hat, Karl advised technology leaders on enterprise data and technology strategies and built machine learning models across multiple academic disciplines.
Contenu similaire
Parcourir par canal
Automatisation
Les dernières nouveautés en matière d'automatisation informatique pour les technologies, les équipes et les environnements
Intelligence artificielle
Actualité sur les plateformes qui permettent aux clients d'exécuter des charges de travail d'IA sur tout type d'environnement
Cloud hybride ouvert
Découvrez comment créer un avenir flexible grâce au cloud hybride
Sécurité
Les dernières actualités sur la façon dont nous réduisons les risques dans tous les environnements et technologies
Edge computing
Actualité sur les plateformes qui simplifient les opérations en périphérie
Infrastructure
Les dernières nouveautés sur la plateforme Linux d'entreprise leader au monde
Applications
À l’intérieur de nos solutions aux défis d’application les plus difficiles
Virtualisation
L'avenir de la virtualisation d'entreprise pour vos charges de travail sur site ou sur le cloud