L'univers de l'IA évolue à un rythme électrisant. Et comme dans n'importe quelle avancée technologique, une question se pose : quelle voie définir le mieux son avenir ? Chez Red Hat, nous pensons que la réponse est claire :
L'avenir de l'IA est Open Source.
Il ne s'agit pas d'une simple prise de position radicale, Il s'agit d'une approche qui vise à libérer le plein potentiel de l'IA et à la rendre bien plus accessible, démocratisée et bien plus puissante.
Nous avons toujours cru dans la puissance du développement Open Source pour stimuler l'innovation. Nous avons constaté l'essor de Linux, de KVM, d'OpenStack, de Kubernetes et de bien d'autres projets qui ont façonné le paysage technique actuel. Grâce à la collaboration, à la transparence et à l'innovation communautaire, les modèles de développement Open Source accélèrent les découvertes, encouragent l'expérimentation et rendent plus accessible l'accès aux outils et technologies de pointe. Les entreprises peuvent ainsi progresser plus rapidement, favoriser l'innovation et créer des écosystèmes dynamiques.
L'IA n'échappe pas à la règle.
Dans l'IA, où la confiance, la sécurité et l'explicabilité sont primordiales, tout le monde doit pouvoir participer, et pas seulement à ceux qui disposent des économies ou qui disposent de ressources plus considérables. Red Hat s'engage à promouvoir l'innovation dans le domaine de l'IA Open Source et à préparer l'avenir de cette technologie sur la base d'une base de développement communautaire, de progrès partagés et de choix.
Nous investissons massivement dans des projets Open Source et des technologies d'IA, en collaborant avec des partenaires du secteur et en développant des solutions qui permettent aux entreprises de déployer en toute flexibilité des charges de travail d'IA là où elles en ont besoin. Aujourd'hui, nous avons annoncé la signature d'un accord définitif en vue de l'acquisition de Neural Magic. Je suis convaincue que cette étape importante nous permettra d'accélérer notre progression et de mettre en œuvre notre vision de l'avenir de l'IA.
Chez Red Hat, nous sommes convaincus que l'avenir de l'IA est ouvert et qu'il repose sur plusieurs piliers :
Les petits modèles favorisent l'adoption
L'IA ne se limite pas à des modèles massifs gourmands en ressources. Nous assistons aujourd'hui à une transition en faveur de modèles plus petits et plus spécialisés, qui offrent des performances exceptionnelles, ainsi qu'une plus grande efficacité. Ces modèles ne sont pas seulement plus efficaces à entraîner et à déployer, ils offrent aussi des avantages considérables en matière de personnalisation et d'adaptabilité.
Prenez, par exemple, IBM Granite 3.0, la troisième génération des grands modèles de langage de la gamme Granite, qui mettent l'accent sur des modèles d'IA fonctionnels plus petits. Distribués sous la licence permissive Apache 2.0, ces modèles ont une taille de 1B à 8B, ce qui permet de les exécuter partout, des ordinateurs portables aux serveurs à GPU standard. Comme nous l'avons vu avec Linux, cette facilité d'accès favorise l'innovation et l'adoption au sein de l'entreprise.
Au-delà de la taille réduite au départ, l'optimisation des modèles d'IA par la technique de découpage et de quantification représente un autre facteur de réussite, qui nous permet de répondre à de plus en plus de demandes avec le même matériel. L'éparsement permet d'éliminer de manière stratégique les connexions inutiles à l'intérieur d'un modèle, ce qui réduit considérablement sa taille et ses exigences en matière de calcul, sans sacrifier sa précision ni ses performances. La quantification réduit ensuite la taille du modèle en vue de son exécution sur des plateformes peu gourmandes en mémoire. Tout ceci permet de réduire les coûts, d'accélérer l'inférence et d'exécuter les charges de travail d'IA sur un plus large éventail de ressources matérielles. Puisqu'il est au cœur de ses préoccupations, Linux est capable de fonctionner sur pratiquement toutes les infrastructures de la planète, des montres aux superordinateurs. En rejoignant Neural Magic, Red Hat accorde la même importance au monde de l'IA.
Les formations, pour créer des avantages
Bien que ces petits modèles d'IA soient puissants, ils sont entraînés à utiliser des données accessibles au public. Ils maîtrisent les langages, comprennent le monde de l'informatique, et maîtrisent la plupart des sujets qui concernent Internet. Cependant, presque par définition, ils ne comprennent pas votre activité. Si vos processus métier et vos droits de propriété intellectuelle ne se trouvent pas dans le domaine public, il ne les comprendra pas. Et c'est sans compter que vous devez affiner vos processus métier. Pour exploiter tout le potentiel de votre entreprise, vous devez intégrer vos connaissances dans ces modèles. Et pour cela, une formation est nécessaire.
C'est ce que nous pouvons faire avec InstructLab, un projet Open Source conçu pour faciliter la contribution et le réglage des grands modèles de langage pour les applications de IA générale, même pour les utilisateurs qui ne disposent pas de connaissances approfondies en science des données. Lancé par Red Hat et IBM dans le cadre de Red Hat AI, InstructLab est basé sur un processus décrit dans un article de recherche publié en avril 2024 par des membres du MIT-IBM Watson AI Lab et IBM. L'entraînement d'un modèle d'IA adapté à vos besoins est ainsi facilité, ce qui atténue certains des aspects les plus coûteux de l'IA d'entreprise et rend les grands modèles de langage plus facilement personnalisables à des fins spécifiques.
Les choix stimulent l'innovation
La plupart des entreprises exécutent leurs charges de travail à la fois dans les datacenters et dans l'infrastructure cloud. L'IA doit s'intégrer parfaitement à l'infrastructure existante pour permettre des déploiements flexibles et cohérents dans divers environnements, que ce soit sur site, dans le cloud ou en périphérie du réseau. Vous devez pouvoir vous former à l'endroit où vous disposez de vos données et de vos ressources. Et vous devez exécuter vos modèles partout où ils sont utiles pour votre cas d'utilisation. À l'instar de Red Hat Enterprise Linux (RHEL), qui permettait aux applications compilées de s'exécuter sur n'importe quel processeur sans modifier l'application, notre mission est de nous assurer que les modèles entraînés avec RHEL AI peuvent s'exécuter sur n'importe quel serveur GPU. Cette combinaison de matériel flexible, de modèles réduits et d'un entraînement et d'une optimisation simplifiés offre toute la flexibilité nécessaire pour favoriser l'innovation.
Nous sommes également convaincus que l'entraînement et le déploiement de l'IA à grande échelle exigeront la même rigueur que celle que nous avons établie dans le domaine des logiciels au cours des 10 dernières années. La solution Red Hat OpenShift AI associe les domaines de la personnalisation des modèles, de l'inférence, de la surveillance et du cycle de vie aux applications qui les utilisent sur Red Hat OpenShift. Neural Magic partage la même passion que l'IA pour les plateformes hybrides. Elle s'est imposée comme le leader des communautés Open Source axées sur l'innovation dans ce domaine.
Amélioration de la mission Neural Magic
Neural Magic est fondée sur la conviction que l'IA doit pouvoir s'exécuter n'importe où, des plus petits appareils aux plus grands datacenters. Son parcours en tant qu'entreprise ressemble à ce que j'ai vu au sein des petites mais puissantes équipes qui innovent dans le domaine de l'IA, y compris l'équipe InstructLab. Je pense donc que cela vaut la peine d'être partagé ici.
Nir Shavit, professeur de renom au MIT et spécialiste du calcul parallèle, explorait les subtilités des algorithmes et du matériel depuis des décennies. Son travail avait déjà révolutionné des domaines tels que les structures de données simultanées et la mémoire transactionnelle. Alex Matveev, ancien chercheur au MIT, apporte son expertise en apprentissage automatique et sa vive compréhension des défis liés au déploiement efficace des modèles d'IA.
La technologie Neural Magic s'est déclenchée lorsque Nir et Alex ont identifié un goulet d'étranglement majeur dans le progrès de l'IA : la dépendance vis-à-vis de GPU coûteux et souvent rares. Cette dépendance visait à créer un obstacle à l'entrée, ce qui entravait l'adoption généralisée de l'IA dans divers secteurs et limitait son potentiel à révolutionner nos modes de vie et de travail.
Sa mission : donner à tous les moyens d'exploiter la puissance de l'IA, quelles que soient leurs ressources. Son approche novatrice consistait à exploiter des techniques telles que l'élagage et la quantification pour optimiser les modèles d'apprentissage automatique, en commençant par permettre aux modèles d'apprentissage automatique de s'exécuter efficacement sur des processeurs facilement disponibles sans sacrifier les performances. En fin de compte, l'entreprise Neural Magic a changé sa vision de l'accélération par GPU et a apporté ce même niveau d'optimisation et d'efficacité à la génération de l'IA à travers vLLM. Cet engagement en faveur de l'innovation promettait de rendre l'IA plus accessible, abordable et plus facile à déployer. Je suis impatient d'offrir la possibilité d'offrir ces capacités à nos clients via la solution Red Hat AI, mais je suis également impatient que nos équipes partagent une culture de l'expérimentation et de l'inventivité qui permet de dépasser les limites actuelles qui entravent la progression et l'adoption de l'IA.
À Boston, par exemple, une équipe de spécialistes et de chercheurs passionnés (qui travaillent par ailleurs au MIT) travaillent sur le projet InstructLab afin de résoudre le problème de goulet d'étranglement lié à la contribution de la formation à l'adoption généralisée de l'IA. La technologie de Neural Magic démocratise l'accès à l'IA, et InstructLab a pour mission de faire de même pour l'entraînement et le réglage des modèles. J'ai hâte de voir toutes les nouvelles avancées que notre équipe pourra découvrir, ensemble.
Je me réjouis à l'idée de neural Magic de rejoindre Red Hat et d'accélérer notre mission auprès de la communauté Open Source en vue de contribuer à l'avenir de l'IA. Chez Red Hat, nous sommes convaincus que l'Open Source libère le potentiel du monde. Notre mission avec Neural Magic consiste à accélérer ce processus grâce à l'IA. Je suis convaincu que collaborer avec la communauté Open Source permettra d'obtenir les meilleurs résultats au monde.
Ce n'est que le début.
À propos de l'auteur
Matt Hicks was named President and Chief Executive Officer of Red Hat in July 2022. In his previous role, he was Executive Vice President of Products and Technologies where he was responsible for product engineering for much of the company’s portfolio, including Red Hat® OpenShift® and Red Hat Enterprise Linux®. He is one of the founding members of the OpenShift team and has been at the forefront of cloud computing ever since.
Prior to joining Red Hat 16 years ago, Hicks served in various roles spanning computer engineering, IT, and consulting. He has worked with Linux and open source for more than 25 years, and his breadth of experience has helped him solve customer and business problems across all areas of IT.
Parcourir par canal
Automatisation
Les dernières nouveautés en matière d'automatisation informatique pour les technologies, les équipes et les environnements
Intelligence artificielle
Actualité sur les plateformes qui permettent aux clients d'exécuter des charges de travail d'IA sur tout type d'environnement
Cloud hybride ouvert
Découvrez comment créer un avenir flexible grâce au cloud hybride
Sécurité
Les dernières actualités sur la façon dont nous réduisons les risques dans tous les environnements et technologies
Edge computing
Actualité sur les plateformes qui simplifient les opérations en périphérie
Infrastructure
Les dernières nouveautés sur la plateforme Linux d'entreprise leader au monde
Applications
À l’intérieur de nos solutions aux défis d’application les plus difficiles
Virtualisation
L'avenir de la virtualisation d'entreprise pour vos charges de travail sur site ou sur le cloud