Développement, entraînement, test et déploiement de l'AA dans le cloud hybride

Red Hat® OpenShift® AI est une plateforme d'intelligence artificielle grâce à laquelle vous pouvez développer, entraîner, tester et déployer des modèles d'IA et des applications à grande échelle dans des environnements de cloud hybride. 

Présentation du produit

OpenShift AI permet aux entreprises de déployer efficacement un ensemble intégré d'outils courants tiers et Open Source pour la modélisation d'intelligence artificielle et d'apprentissage automatique (IA/AA). Ses utilisateurs bénéficient d'outils Open Source collaboratifs et d'une plateforme pour la création de modèles expérimentaux, sans avoir à se préoccuper de l'infrastructure. Ils peuvent même étendre cette plateforme de base à l'aide d'outils de partenaires afin d'augmenter leurs capacités. Les modèles peuvent être mis à disposition de manière cohérente dans différents environnements de production, dans un format compatible avec les conteneurs, que ce soit dans le cloud, sur site ou à la périphérie du réseau. 

La solution OpenShift AI est une composante de Red Hat AI. Elle fournit aux équipes d'exploitation un environnement facile à gérer, avec des configurations simples sur une plateforme éprouvée, évolutive et sécurisée.

Disponible sous la forme de logiciel traditionnel ou de service cloud géré, elle prend en charge les modèles de base d'IA générative les plus répandus et vous permet d'effectuer un réglage fin de ces modèles préentraînés et de les mettre à disposition en fonction de vos cas d'utilisation uniques et de vos données. Vous pouvez même distribuer les charges de travail sur plusieurs clusters Red Hat OpenShift, indépendamment de leur emplacement. La plateforme, qui vient compléter les services OpenShift, facilite également l'exploitation de l'accélération matérielle de l'IA. Elle prend en charge l'infrastructure matérielle basée sur un processeur et un processeur graphique (GPU), notamment les processeurs NVIDIA et AMD et les accélérateurs Intel.

Pour les entreprises qui découvrent les modèles d'IA générative, OpenShift AI inclut les composants de Red Hat® Enterprise Linux® AI, une plateforme de modèles de base conçue pour développer, tester et exécuter de grands modèles de langage (LLM) de la famille Granite permettant de faire fonctionner les applications d'entreprise. En plus des modèles Granite fournis, Red Hat OpenShift AI prend en charge les modèles de Hugging Face, Stability AI et d'autres référentiels.

Tableau 1 : fonctions et avantages de Red Hat OpenShift AI

Points clés

Réduisez les coûts, du développement à la production, grâce à la mise à l'échelle et à l'automatisation de votre infrastructure. 

Améliorez l'efficacité opérationnelle de l'IA/AA grâce à une expérience utilisateur cohérente qui donne de l'autonomie aux équipes de science des données, d'ingénierie des données, de développement d'applications et DevOps.

Gagnez en flexibilité dans le cloud hybride en créant, entraînant, déployant et surveillant les charges de travail d'IA/AA sur site, dans le cloud ou à la périphérie du réseau.

Fonctions

Avantages

Outils de développement de modèles

Propose une interface interactive et collaborative basée sur JupyterLab pour réaliser des analyses exploratoires des données, et entraîner, ajuster et mettre à disposition des modèles. Les data scientists bénéficient d'un accès continu aux principales bibliothèques d'IA/AA, aux frameworks les plus couramment employés ainsi qu'à une gamme étendue d'images et de workbenches prédéfinis fournis par l'utilisateur pour accélérer l'exploitation de modèles.

Entraînement des modèles : projets

Permet d'organiser les fichiers de développement de modèles, les connexions de données et les autres artéfacts requis pour un projet, afin de faciliter l'expérimentation et la collaboration.

Entraînement des modèles : charges de travail distribuées

Utilise plusieurs nœuds de clusters simultanément afin d'entraîner et d'ajuster plus efficacement vos modèles d'IA générative ou prédictive. Cette évolutivité vous permettra d'effectuer des tâches qui seraient autrement irréalisables sur le plan informatique.

GPU et accélérateurs

 

Fournit un accès en libre-service à des processeurs graphiques aux spécialistes ITOps. Ils seront ainsi en mesure de prédéfinir leur environnement de ressources GPU, tant sur site que dans le cloud, pour que les équipes de science des données et de développement d'applications puissent facilement sélectionner les configurations adaptées à leurs tâches.

Pipelines de science des données

Permet aux data scientists et aux ingénieurs IA d'automatiser les processus de mise à disposition et de test des modèles en phase de développement et de production. Il est possible de versionner, suivre et gérer les pipelines afin de réduire les erreurs humaines et de simplifier les workflows de production et d'expérimentation. 

Mise à disposition des modèles

Met à disposition divers modèles de fournisseurs et de frameworks (Hugging Face, ONNX, PyTorch, TensorFlow, etc.) ainsi que des environnements d'exécution courants (comme le vLLM). Les ressources de cluster, telles que les CPU et les GPU, peuvent être mises à l'échelle en fonction de la charge de travail.

Surveillance des modèles

Permet le suivi des indicateurs de mesure tels que le nombre de requêtes d'inférence ayant abouti ou échoué, le délai moyen de réponse de l'inférence et l'utilisation spécifique du calcul afin d'ajuster vos ressources de façon proactive au besoin.

Détection des dérives

Surveille les changements dans les distributions de données saisies pour les modèles d'AA déployés, afin de repérer tout écart significatif entre les données utilisées lors des opérations d'inférence du modèle et celles utilisées pendant l'entraînement.

Détection des biais

Fournit aux data scientists des outils leur permettant d'évaluer si les modèles sont justes et objectifs, en fonction des données d'entraînement et lors de leur déploiement pour un cas d'utilisation concret.

Garde-fous de l'IA

Filtre les propos haineux, abusifs ou indignes, les données à caractère personnel, les renseignements concurrentiels et d'autres éléments selon les contraintes spécifiques de domaines.

Évaluation des modèles

Offre des informations clés sur la qualité des modèles LLM afin d'analyser leurs performances pour différentes tâches.

Registre de modèles

Propose un espace centralisé pour suivre et gérer les modèles enregistrés, permettant aux data scientists de partager, modifier, déployer et suivre les modèles d'IA prédictive et générative, les métadonnées et les artéfacts des modèles.

Environnements déconnectés et périphérie

Simplifie le déploiement de clusters déconnectés dans les environnements restreints, généralement derrière un pare-feu, afin de prendre en charge les cas d'utilisation où la sécurité et la conformité réglementaire requièrent des déploiements air-gap.

Outre les fonctionnalités d'OpenShift AI, de nombreuses technologies partenaires sont intégrées à l'interface utilisateur. Elles incluent notamment Starburst pour un accès aux données distribuées sur divers ensembles de données, HPE pour la traçabilité des données et la gestion des versions, NVIDIA pour la gestion des performances de GPU, Intel pour l'inférence haute performance sur le matériel Intel et Elastic pour les bases de données de vecteurs avec les applications de génération augmentée de récupération.

Étapes suivantes

En savoir plus sur Red Hat OpenShift AI et visionner la vidéo de présentation

Essayer la plateforme dans le sandbox de développement