ML の開発、トレーニング、テスト、およびハイブリッドクラウドへのデプロイ
Red Hat® OpenShift® は、AI モデルとアプリケーションの開発、トレーニング、およびハイブリッドクラウドへのデプロイを大規模に行うことを可能にする人工知能 (AI) プラットフォームです。
製品概要
OpenShift AI を使用すると、人工知能および機械学習 (AI/ML) モデリングを実行する一般的なオープンソースツールとサードパーティ製ツールの統合セットを効率的にデプロイできます。導入すると、インフラストラクチャを心配することなく、実験モデルを構築するためのコラボレーティブなオープンソースのツールセットとプラットフォームを取得できます。また、ベースプラットフォームはパートナーツールを使用して拡張し、機能を強化できます。クラウド、オンプレミス、エッジ環境で一貫して、モデルをコンテナ対応形式で本番環境に提供できます。
OpenShift AI は Red Hat AI の一部です。セキュリティに重点を置いたスケーラブルで実証済みのプラットフォームであり、シンプルに構成できるため、IT 運用担当者は管理しやすい環境を得られます。
従来のソフトウェア製品またはマネージドクラウド・サービスとして利用可能な OpenShift AI は、一般的な生成 AI 基盤モデルをサポートするので、トレーニング済みモデルを固有のユースケース向けに固有のデータを使ってファインチューニングし、提供できます。ワークロードを、所在する場所にかかわらず、複数の Red Hat OpenShift クラスタ上に分散させることもできます。OpenShift 上に構築されているこのプラットフォームにより、中央処理装置 (CPU) や、NVIDIA、AMD、インテルのアクセラレーターなどのグラフィック処理装置 (GPU) ベースのハードウェア・インフラストラクチャがサポートされ、AI ハードウェア・アクセラレーションを簡単に利用できるようになります。
生成 AI モデルを使い始めたばかりのユーザー向けに、OpenShift AI には Red Hat Enterprise Linux® AI のコンポーネントが含まれています。これは Granite ファミリーの大規模言語モデル (LLM) を開発、テスト、実行し、エンタープライズ・アプリケーションを強化するための基盤となるモデル・プラットフォームです。Red Hat OpenShift AI で提供される Granite モデルに加えて、そのフレームワークは HuggingFace、Stability AI、その他のモデルリポジトリのモデルをサポートしています。
表 1. Red Hat OpenShift AI の特長とメリット
ハイライト
インフラストラクチャをスケールおよび自動化することで、実験から本番環境に移行する際のコストを削減します。
データサイエンティスト、データエンジニア、アプリケーション開発者、DevOps チームを強化する一貫したユーザーエクスペリエンスにより、チーム全体で AI/ML の運用効率を向上させます。
オンプレミス、クラウド、またはエッジで AI/ML ワークロードを構築、トレーニング、デプロイ、監視することで、ハイブリッドクラウドの柔軟性を実現します。
特長 | メリット |
モデル開発ツール | JupyterLab に基づくインタラクティブでコラボレーティブなインタフェースにより、探索的データサイエンス、およびモデルのトレーニング、チューニング、提供が可能です。データサイエンティストは、コア AI/ML ライブラリ、広く使用されているフレームワーク、定義済みおよび顧客提供の広範なイメージとワークベンチに継続的にアクセスして、モデルの実験を加速できます。 |
モデル・トレーニング・プロジェクト | ユーザーは特定のプロジェクトに必要なモデル開発ファイル、データ接続、その他のアーティファクトを整理できるため、実験を単純化し、コラボレーションを強化できます。 |
モデルトレーニング分散ワークロード | 複数のクラスタノードを同時に使用して、予測および生成 AI モデルをより効率的にトレーニングおよびチューニングします。これにより、これ以外の方法では計算が実行不可能なタスクを処理できるスケーラビリティが実現します。 |
GPU とアクセラレーター
| GPU へのセルフサービスでのアクセスが提供されるため、ITOps の担当者は、オンプレミスとクラウドの両方で GPU リソース環境を事前定義できます。これにより、データサイエンティストとアプリケーション開発者はプロジェクトタスクの構成を簡単に選択できます。 |
データサイエンス・パイプライン | データサイエンティストや AI エンジニアは、開発と運用においてモデルを提供およびテストする手順を自動化できます。パイプラインのバージョン管理、追跡、管理が可能なため、ユーザーエラーを削減し、実験と本番環境のワークフローを単純化できます。 |
モデルの提供 | Hugging Face、ONNX、PyTorch、TensorFlow などのプロバイダーやフレームワーク、および vLLM などの一般的な提供ランタイムからのモデルを提供できます。CPU や GPU などのクラスタリソースは、ワークロードのニーズに応じて複数のノードにスケーリングできます。 |
モデル監視 | 推論リクエストの成功数と失敗数、推論の平均応答時間、コンピューティングの使用状況などのメトリクスを追跡し、必要に応じてリソースをプロアクティブに調整します。 |
ドリフト検出 | デプロイされた ML モデルの入力データ分布の変化を監視し、モデル推論に使用されるライブデータが、モデルのトレーニングに使用されたデータから大幅に逸脱した場合、それを検出します。 |
バイアス検出 | トレーニングデータに基づいてモデルが公平かつ偏りがないかどうかを監視するツールを提供するだけでなく、実際のデプロイ時の公平性も監視します。 |
AI ガードレール | ヘイトスピーチ、暴言や不適切な発言、個人を特定できる情報、競合情報、またはその他のドメイン固有の制約を除外します。 |
モデル評価 | LLM モデルの品質に関する重要な情報を提供し、さまざまなタスクにわたる LLM モデルのパフォーマンスをベンチマークします。 |
モデルレジストリ | 登録されたモデルを一元的に表示および管理できる場所を提供します。これによってデータサイエンティストは、予測 AI モデルおよび生成 AI モデル、メタデータ、モデルアーティファクトを共有、バージョン管理、デプロイ、追跡できます。 |
切断された環境およびエッジ | 制限されたネットワーク (多くの場合、ファイアウォールの背後にある) 上での切断されたクラスタのデプロイを単純化し、セキュリティおよび規制コンプライアンスのためにエアギャップデプロイが必要な業界をサポートします。 |
OpenShift AI で提供される機能に加えて、多くのテクノロジーパートナー製品がユーザーインタフェース (UI) に統合されています。そうしたパートナーには、Starburst (多様なデータセットにわたる分散データアクセス)、HPE (データリネージとバージョン管理)、NVIDIA (GPU のパフォーマンス管理)、インテル (インテルハードウェアでの高性能推論)、Elastic (検索拡張生成 (RAG) アプリケーションを備えたベクトルデータベース) などがあります。
次のステップ
Red Hat OpenShift AI の詳細、および役立つビデオをご覧ください。