Red Hat AI Inference Server

Red Hat® AI Inference Server는 하이브리드 클라우드 환경에서 모델 추론을 최적화하여 더 빠르고 비용 효율적인 모델 배포를 지원합니다. 

Red Hat Inference Server 히어로 그래픽

추론 서버란?

추론 서버는 인공지능(AI) 애플리케이션이 대규모 언어 모델(LLM)과 통신하고 데이터를 기반으로 응답을 생성할 수 있도록 지원하는 소프트웨어입니다. 그리고 이러한 프로세스를 추론이라고 합니다. 바로 이러한 과정에서 비즈니스 가치가 발생하고 최종 결과가 제공됩니다.

효과적인 작업 수행을 위해 LLM에는 대규모 추론을 위한 대규모의 스토리지, 메모리, 인프라가 필요합니다. 그렇기 때문에 예산의 대부분이 소요될 수 있습니다. 

Red Hat AI 플랫폼의 일부인 Red Hat AI Inference Server는 전통적으로 높은 비용과 광범위한 인프라 문제를 해결하기 위해 추론 기능을 최적화합니다. 

Red Hat AI Inference Server를 통한 빠르고 비용 효율적인 AI 추론. (영상 길이: 2분 28초)

커맨드라인 인터페이스와

Red Hat AI Inference Server 소개

Red Hat AI Inference Server의 작동 원리

Red Hat AI Inference Server는 빠르고 비용 효율적인 추론을 대규모로 제공합니다. 이 소프트웨어는 오픈소스를 기반으로 하므로 어떠한 AI 가속기와 클라우드 환경에서도 모든 생성형 AI(생성 AI) 모델을 지원할 수 있습니다. 

vLLM 기반의 추론 서버는 GPU 활용을 극대화하고 응답 시간을 단축합니다. 이 서버가 LLM 압축기 기능과 결합되면 성능을 저해하지 않고도 추론 효율성을 높일 수 있습니다. vLLM은 교차 플랫폼 적응력을 갖추고 있고 기여자 커뮤니티가 확장하고 있어 생성 AI 추론의 Linux®로 부상하고 있습니다. 

50%

LLM 압축기를 사용한 일부 고객이 성능 저하 없이 50%의 비용 절감 효과를 봤습니다.* 

모델 선택의 유연성

Red Hat AI Inference Server는 모든 주요 오픈소스 모델을 지원하고 유연한 GPU 이식성을 유지합니다. 따라서 모든 생성 AI 모델을 사용할 수 있고, Red Hat이 최적화한 검증된 오픈소스 타사 모델 컬렉션에서 선택할 수 있습니다.  

또한 Red Hat AI Inference Server는 Red Hat AI의 일부로서 모든 Red Hat 제품에 사용될 수 있도록 인증되었습니다. 아울러 Red Hat의 타사 지원 정책에 따른 지원을 통해 다른 Linux 및 쿠버네티스 플랫폼에도 배포될 수 있습니다. 

Red Hat Inference Server 모델 선택 그래픽

vLLM을 통한 효율성 향상

vLLM을 통해 모든 AI 가속기에서 모든 생성 AI 모델의 배포를 최적화할 수 있습니다.

LLM 압축기

크기에 상관없이 모델을 압축하여 컴퓨팅 사용량과 관련 비용을 줄이는 동시에 모델 응답의 높은 정확도를 유지할 수 있습니다. 

하이브리드 클라우드 유연성

여러 GPU에서 이식성을 유지하고 온프레미스, 클라우드 또는 엣지에서 모델을 실행할 수 있습니다.

Red Hat AI 리포지토리

타사에서 검증하고 최적화한 모델을 언제든지 추론 배포에 사용할 수 있어 가치 창출 시간이 단축되고 비용을 절감할 수 있습니다.

Red Hat AI 지원

Red Hat은 최대 규모의 vLLM 기여 기업 중 하나로서 vLLM 기술에 대한 심도 깊은 이해를 갖추고 있습니다. Red Hat의 AI 컨설턴트는 vLLM에 대한 전문 지식을 바탕으로 기업의 AI 목표 달성을 지원합니다. 

Red Hat AI 화면 그래픽

구매 방법

Red Hat AI Inference Server는 독립형 제품으로 또는 Red Hat AI의 일부로 제공되며, Red Hat Enterprise Linux® AI와 Red Hat OpenShift® AI에 모두 포함되어 있습니다. 

Red Hat AI

파트너와 함께 배포

고객이 AI를 더욱 다양하게 활용할 수 있도록 전문가와 기술을 함께 제공합니다. Red Hat과 협력하여 솔루션의 상호 운용성을 인증하고 있는 파트너를 모두 살펴보세요. 

Dell Technologies 로고
Lenovo 로고
Intel 로고
Nvidia 로고
AMD 로고

자주 묻는 질문

Red Hat AI Inference Server를 사용하려면 Red Hat Enterprise Linux AI 또는 Red Hat OpenShift AI를 구매해야 하나요?

아니요. Red Hat AI Inference Server는 독립형 Red Hat 제품으로 구매할 수 있습니다. 

Red Hat Enterprise Linux AI를 사용하려면 Red Hat AI Inference Server를 구매해야 하나요?

아니요. Red Hat AI Inference Server는 Red Hat Enterprise Linux AI 또는 Red Hat OpenShift AI를 구매하면 포함된 기능으로 사용할 수 있습니다. 

Red Hat AI Inference Server는 Red Hat Enterprise Linux 또는 Red Hat OpenShift에서 실행이 가능한가요?

네, 실행 가능합니다. 아울러 Red Hat의 타사 계약에 따라 타사 Linux 환경에서도 실행될 수 있습니다.

Red Hat AI Inference Server의 가격은 어떻게 책정되나요?

가속기당 가격이 책정됩니다.

더 많은 AI 리소스 살펴보기

기업에서 AI를 시작하는 방법

AI를 위한 Red Hat Consulting 받기

오픈소스 모델로 AI 혁신 극대화

Red Hat Consulting: AI Platform Foundation

영업 팀에 문의하기

Red Hat AI에 대해 Red Hatter에게 문의하기