Jump to section

Red Hat AI による検証済みモデル

Red Hat® AI による検証済みモデルは、Red Hat AI プラットフォームにサードパーティの生成 AI モデルをデプロイする際の信頼性、予測可能性、柔軟性を提供します。

雲と輝きが浮かぶ楕円から積み重なる立方体が飛び出している

概要

大規模言語モデル (LLM)、推論サーバーの設定、ハードウェア・アクセラレーターの選択肢は数多く存在するため、想定するユースケースにおけるパフォーマンス、精度、およびコストの間で適切なバランスを取るには、ニーズに最適な組み合わせを慎重に評価する必要があります。

これをサポートするため、Red Hat AI は、このプラットフォームで効率的に動作することがすでに検証されている、サードパーティモデルのリポジトリへのアクセスを提供しています。これらの優れたサードパーティモデルは、容量に関するガイダンス計画のシナリオを通じて実行されるため、自社の分野に特化したユースケースに適したモデル、デプロイメント設定、ハードウェア・アクセラレーターの組み合わせについて、情報に基づいた決定を下すことができます。

Red Hat AI での検証済み AI モデル (動画の再生時間:2:19)

特長とメリット

柔軟性の向上

すぐに推論に使用できる検証済みモデルと最適化済みモデル (Hugging Face でホストされている) が集められており、価値実現までの時間の短縮、一貫性の促進、AI アプリの信頼性向上を実現できます。

最適化された推論

適切なモデル、デプロイメント設定、ハードウェア・アクセラレーターを選択して AI インフラストラクチャを最適化し、ユースケースに合わせたコスト効率の高い、効率的なデプロイメントを実現します。

信頼性の向上

さまざまなデプロイメントシナリオにおいてサードパーティモデルを評価、圧縮、検証するための業界ベンチマーク、精度評価、モデル最適化ツールにアクセスできます。

モデルを最大限に活用する

Red Hat AI のモデル検証は、お客様側での再現性が得られるよう、GuideLLMLanguage Model Evaluation HarnessvLLM などのオープンソースツールを使用して行われます。

検証済みモデル

これらは単なる LLM ではありません。Red Hat は実環境におけるパフォーマンスを正確に把握できるよう、サードパーティモデルを現実的なシナリオでテストしています。また、専用のツールを使用して、さまざまなハードウェアにおける LLM のパフォーマンスを評価しています。

  • GuideLLM は、ハードウェアのセットアップ全体のパフォーマンスとコストを評価します。
  • LM Evaluation Harness は、タスク全体でのモデルの一般化をテストします。

最適化済みモデル

スピードと効率性を高めるために圧縮されています。これらの LLM は、vLLM にデプロイする際に精度を損なうことなく、より迅速に、より少ないリソースで動作するように設計されています。 

  • LLM Compressor は、モデル圧縮に関する最新の研究を単一のツールに組み込んだオープンソースライブラリであり、最小限の労力で簡単に圧縮モデルを生成できます。
  • vLLM は優れたスループットとメモリー効率を実現する、最適化された LLM 向けの最先端のオープンソース推論およびサービスエンジンです。

Red Hat AI を使って必要なソリューションを構築

Red Hat AI は、お客様のニーズに合わせて利用できるオープンソース AI プラットフォームです。効率的なモデルによるコストの削減、自社のデータと専門知識を使ったモデルのカスタマイズ、あらゆるインフラストラクチャでの一貫したワークロードのデプロイと管理が可能です。また、チームによるコラボレーションやスケーリングを支援するためのツールもあります。

コンソール UI の画像

よくある質問 (FAQ)

検証済みモデルはどこにありますか。

検証済みモデルは、Red Hat AI Ecosystem Catalog および Hugging Face の Red Hat AI リポジトリで入手できます。Hugging Face の Red Hat AI リポジトリには、モデルの詳細、SafeTensor による重み付けのほか、Red Hat AI Inference Server、RHEL AI、Red Hat OpenShift AI に迅速にデプロイするためのコマンドが含まれています。

新しい検証済みモデルはどのくらいの頻度で追加されるのですか。

Red Hat では、アップストリームの vLLM のリリースサイクルに合わせて、新規の検証済みモデルを毎月リリースすることを目指しています。Red Hat は、理由を問わずモデルの検証を停止する権利を留保します。

検証済みモデルのライフサイクルはどのようになっていますか。

選定されたモデルは、少なくとも n+2 バージョン先の vLLM マイナーバージョンまで誠意を持って検証されます。vLLM バージョンで検証する各モデルについては、少なくとも次の 2 つのバージョンの vLLM に対してそのモデルの前方互換性を提供するよう努めます。

これらの検証済みモデルと最適化済みモデルは、Red Hat サポートチームが完全にサポートしていますか。

いいえ、Red Hat はサードパーティモデルのサポート、補償、認定、保証を提供しません。また、容量に関するガイダンスはあくまでガイダンスであり、パフォーマンスや精度を保証するものではありません。各モデルのライセンスの詳細については、モデルプロバイダーにお問い合わせください。

自社のユースケースに合わせてカスタマイズされた LLM のデプロイメント、構成、およびハードウェア・アクセラレーターのガイダンスを得るにはどうすればよいですか。

詳細は [email protected] までお問い合わせください。

関連情報

企業における AI の始め方

オープンソースモデルで AI イノベーションを最大化

適切な AI モデルを選択するための 4 つの考慮事項