[マサチューセッツ州ボストン -RED HAT SUMMIT- 2025年5月20日(現地時間)発表] アメリカ報道発表資料抄訳
オープンソース・ソリューションのプロバイダーとして世界をリードするRed Hat Inc, (以下、Red Hat)は本日、ハイブリッドクラウド全体で生成AI(gen AI)を民主化するための重要なステップとなるRed Hat AI Inference Serverを発表しました。 Red Hat AIの新製品として登場したこのエンタープライズグレードの推論サーバーは、強力なvLLMコミュニティプロジェクトを基盤に、Red HatのNeural Magicテクノロジーと統合することで強化されており、処理スピード、アクセラレーター効率、コスト効率の向上を実現します。これにより、あらゆるgen AIモデルを、あらゆるAIアクセラレーター上で、そして、あらゆるクラウド環境で実行するという、Red Hatのビジョンの実現を支援します。スタンドアロンで導入するか、Red Hat Enterprise Linux AI(RHEL AI)およびRed Hat OpenShift AIの統合コンポーネントとして導入するかに関わらず、この画期的なプラットフォームによって、実際の現場にgen AIを安心して導入し、スケールアップできるようになります。
Red Hat AI Inference Serverは、リソース需要を低く抑えつつ、大規模な環境で高性能かつ応答性の高い推論を提供するために、あらゆるモデルに対応し、あらゆるアクセラレーター上で実行する共通の推論レイヤーを提供します
推論はAIの重要な実行エンジンであり、事前学習済みのモデルがデータを現実世界への影響に変換するプロセスです。これはユーザーとのインタラクションの要となるポイントであり、迅速かつ正確な応答が求められます。gen AIモデルが複雑さを増し実際の現場への導入が拡大する中、推論が重大なボトルネックとなりハードウェアリソースを消費し、応答速度の低下や運用コストの急増を招く可能性があります。堅ろうな推論サーバーは贅沢品ではなく、AIの真の可能性を大規模に引き出し、根本的な複雑性を容易に乗り越えるうえで不可欠となっています。
Red Hatはこのような課題に直接対応するために、Red Hat AI Inference Serverを提供しています。高性能を追求したオープンな推論ソリューションであり、最先端のモデル圧縮と最適化ツールを装備しています。このイノベーションにより、組織はgen AIの変革的な力を最大限に活用でき、応答性が飛躍的に向上したユーザーエクスペリエンスと、AIアクセラレーター、モデル、IT環境の選択肢について今までにない自由度を提供します。
vLLM: 推論イノベーションの拡張
Red Hat AI Inference Serverは、2023年半ばにカリフォルニア大学バークレー校が開始した業界をリードするvLLMプロジェクトを基盤としています。このコミュニティプロジェクトは、高スループットのgen AI推論、大規模な入力コンテキストのサポート、マルチGPUモデル加速、継続的なバッチ処理のサポートなどを提供します。
vLLMは公開モデルを幅広くサポートしており、DeepSeek、Gemma、Llama、Llama Nemotron、Mistral、Phiなどの主要な最先端モデル、そしてLlama Nemotronのようなオープンなエンタープライズグレードの推論モデルを始めから統合していることから、将来的なAI推論イノベーションにおいて事実上の標準としての地位を確立しています。主要な最先端のモデルプロバイダーはますますvLLMを採用するようになっており、次世代のgen AIの未来を形作る上で不可欠なものになっています。
Red Hat AI Inference Serverについて
Red Hat AI Inference Serverでは、vLLMの主要なイノベーションをパッケージ化し、Red Hat AI Inference Serverのエンタープライズグレードの機能と統合しています。Red Hat AI Inference Serverは、スタンドアロンのコンテナ化された製品として、またはRHEL AIおよびRed Hat OpenShift AIの一部としてご利用いただけます。
Red Hat AI Inference Serverはユーザーに対し、どの導入環境においても、強化されサポートされたvLLMのディストリビューションとともに、以下の機能を提供します。
- 基礎AIモデルと微調整済みAIモデルのサイズを大幅に削減し、計算リソースの消費を最小限に抑えつつ、モデル精度を維持して、潜在的に向上させるインテリジェントなLLM圧縮ツール。
- 最適化されたモデルリポジトリが、Red Hat AIの組織がHugging Face上でホストするサービスとして提供されており、検証済みかつ最適化された主要なAIモデルのコレクションに即時アクセス可能です。これにより、モデル精度を損なうことなく、効率を2~4倍向上させることができます。
- Red Hatのエンタープライズサポートと、コミュニティプロジェクトを実際の現場に数十年にわたって導入してきた専門知識。
- サードパーティサポートによってさらに柔軟な展開が可能となり、Red Hatのサードパーティサポートポリシーに従って、Red Hat AI Inference ServerをRed Hat 以外のLinuxおよびKubernetesのプラットフォームに導入できます。
Red Hatのビジョン:あらゆるモデル、あらゆるアクセラレーター、あらゆるクラウド
AIの未来は、インフラのサイロ化に制約されることなく、無限の可能性によって定義されるべきです。Red Hatは、企業があらゆるモデルを、あらゆるアクセラレーター上で、あらゆるクラウドに導入し、莫大なコストをかけることなく、卓越した一貫性のあるユーザーエクスペリエンスを提供できる未来を見据えています。gen AI投資の真の可能性を引き出すために、企業にはユニバーサルな推論プラットフォームが必要です。そして、これは、現在および将来にわたって、よりシームレスで高性能なAIイノベーションの基準となるものです。
Red Hatは、Linuxを現代のITの基盤に変革して、オープンエンタープライズの先駆者となりましたが、現在では、AI推論の未来を設計する態勢を整えています。vLLMは、標準化されたAI推論の要となる可能性を秘めており、Red HatはvLLMコミュニティだけでなく、大規模な分散推論を実現するllm-dを含むエコシステムの構築に取り組んでいます。Red Hatのビジョンは明確です。AIモデル、基盤となるアクセラレーター、導入環境に関わらず、vLLMを新しいハイブリッドクラウドにおける推論の決定的なオープンスタンダードにすることを目指しています。
Red Hat Summit
Red Hat Summit の基調講演に参加して、Red Hat のエグゼクティブ、お客様、パートナーからの最新情報をお聞きください。
- Modernized infrastructure meets enterprise-ready AI(近代化されたインフラストラクチャ―とエンタープライズ対応のAI)— 5月20日(火)、東部夏時間午前8時~10時 (YouTube)
- Hybrid cloud evolves to deliver enterprise innovation (ハイブリッドクラウドの進化が企業のイノベーションを実現)— 5月21日(水)、東部夏時間午前8時~9時30分 (YouTube)
サポートコメント
Red Hat AI事業部バイスプレジデント兼ゼネラルマネージャー Joe Fernandes(ジョー・フェルナンデス)
「推論こそがgen AIの真のポテンシャルが発揮される領域です。ユーザーとのインタラクションに、特定のモデルには高速かつ正確なレスポンスを返すことが求められますが、効果的かつコスト効率の良い方法で提供されるべきです。Red Hat AI Inference Serverは、リソース需要を低く抑えつつ、大規模な環境で高性能かつ応答性の高い推論を提供するために、あらゆるモデルに対応し、あらゆるアクセラレーター上で実行する共通の推論レイヤーを提供します」
AMD AI製品管理担当 コーポレートバイスプレジデント Ramine Roane(ラミン・ローン)氏
「Red Hatとの協業により、AMDはエンタープライズにおける効率的なgen AIを実現する、すぐに使えるソリューションを提供します。AMD Instinct™ GPUを搭載したRed Hat AI Inference Serverは、完全に検証されたハードウェアアクセラレーターを基盤とした、エンタープライズグレードでコミュニティ主導型のAI推論機能を提供します」
シスコ シニアバイスプレジデント兼ゼネラルマネージャー Jeremy Foster(ジェレミー・フォスター)氏
「AIワークロードにはスピード、一貫性、柔軟性が不可欠であり、Red Hat AI Inference Serverは、まさにそれを実現するために設計されています。このイノベーションは、CiscoとRed HatがAI導入をよりアクセスしやすく、効率的かつスケーラブルにする方法を探求するチャンスをもたらし、組織が未来に備えるための支援となります」
インテル データセンター&AIソフトウェアソリューションズおよびエコシステム担当バイスプレジデント Bill Pearson(ビル・ピアソン)氏
「インテルとRed Hatの協力によって、Red Hat AI Inference Serverがインテル® Gaudi® アクセラレーター上で利用できるようになったことを嬉しく思います。今回の統合により、お客様にAI推論を効率化および拡張するための最適化されたソリューションを提供し、幅広いエンタープライズAIアプリケーションに高度なパフォーマンスと効率性をもたらします」
NVIDIA エンタープライズソフトウェア担当バイスプレジデント John Fanelli(ジョン・ファネッリ)氏
「高性能な推論によって、モデルとAIエージェントはただ回答するだけでなく、リアルタイムで推論し適応する ことができます。オープンでフルスタックのNVIDIAアクセラレーテッドコンピューティングとRed Hat AI Inference Serverを組み合わせることで、開発者はハイブリッドクラウド全体で効率的な推論処理を大規模に実行でき、新しいNVIDIA Enterprise AI検証済み設計を活用したRed Hat Inference Serverによって自信を持って導入できます」
その他のリソース
- Red Hat AI Inference Serverに関する技術的な詳細
- Red Hat AI Inference ServerについてRed Hatのエグゼクティブから詳しく聞く
- Red Hat AIについて
- Red Hat OpenShift AIについて
- Red Hat Enterprise Linux AIについて
- llm-dプロジェクトについて
- Red Hat AIの最新のアップデートについて
- Red Hat Summitについて
- Red Hat Summit newsroomで今週のRed Hatの発表を見る
- Xの@RedHatSummitまたは#RHSummitでイベントごとの最新情報をフォローする
その他のリンク
- レッドハット株式会社 について
- Red Hat newsroom について
- Red Hat blog を読む
- Red HatのX をフォローする
- Red HatのFacebook に参加する
- Red HatのYouTube動画 を視聴する
- Red HatのLinkedIn をフォローする
本件に関するお問い合わせ
- レッドハット株式会社 広報担当 [email protected] TEL:03-4590-7472
- Red Hatについて
エンタープライズ向けオープンソースソフトウェア・ソリューションのプロバイダーとして世界をリードするRed Hatは、コミュニティとの協業により高い信頼性と性能を備えるLinux、ハイブリッドクラウド、コンテナ、Kubernetesなどのテクノロジーを提供しています。お客様の新規および既存のITアプリケーションの統合、クラウドネイティブ・アプリケーションの開発、業界をリードする当社のオペレーティング・システムによる標準化、および複雑な環境の自動化/セキュリティ確保/管理をお手伝いします。受賞歴を誇るサポート、トレーニング、およびコンサルティング・サービスにより、Red Hatはフォーチュン500企業に対する信頼すべきアドバイザリーとなっています。クラウドプロバイダー、システムインテグレーター、アプリケーションベンダー、お客様、およびオープンソース・コミュニティの戦略的パートナーとして、デジタルの未来に備えるための準備を支援します。
- 将来の見通しに関する声明
ここに記載されている過去の事実に関する情報および討議を除き、本プレスリリースに含まれる表現は、1995年米国民事証券訴訟改革法(Private Securities Litigation Reform Act of 1995)が定める定義の範囲内で「将来の見通しに関する声明」に相当する場合があります。将来の見通しに関する声明は、将来の事業および業績に関する当社の現時点での仮定に基づいています。これらの声明には、様々なリスク、不確実性、その他の要因が含まれており、実際の結果は、そうした将来の見通しに関する声明で示されたものと実質的に異なる場合があります。このプレスリリースに掲載されている将来の見通しに関する声明は、その発行日時点の当社の見解を示したものです。法令により義務付けられる場合を除き、当社は、将来の見通しに関する声明を更新または訂正する義務を一切負いません。
###
Red Hat、Red Hat Enterprise Linux、Red Hat ロゴ、および OpenShiftは、米国およびその他の国々における Red Hat, Inc.またはその子会社の商標または登録商標です。Linux® は、Linus Torvalds の米国およびその他の国における登録商標です。