RSS 피드 구독하기

새로운 인공지능(AI) 기술의 구축과 평가는 기술의 장기적 성공에 매우 중요하지만 이것이 전부는 아닙니다. Red Hat도 재사용 가능한 패턴을 만들고 AI 모델을 사용할 수 있는 방법을 개선하는 데 많은 시간을 투자합니다. 이렇게 함으로써 Red Hat은 물론이고, 고객도 AI를 자신 있게 도입할 수 있기 때문입니다. 

아울러 Red Hat은 AI의 실용적인 측면을 고려하는 것도 잊지 않고 있습니다. 예를 들어 어떻게 하면 비용을 최소화하면서 모두에게 AI 모델에 대한 비공개 접근 권한을 제공할 수 있을까를 생각하고, '신 성장 동력'인 AI의 가치와 규모를 활용할 수 있을까를 고민합니다.

그래서 도달하게 된 한 가지 주요 해결책이 있습니다. 바로 서비스형 모델(Model-as-a-Service, MaaS)입니다.  

모든 사람이 AI 전문가가 되고 싶어 하지는 않습니다. 솔직히 어떤 조직에서도 모두가 자체 모델을 빌드할 필요는 없습니다. 현재로서는 AI를 현 상태로 되도록 많은 사람들이 사용할 수 있도록 지원하는 것이 목표가 되어야 합니다. 그래서 MaaS가 필요합니다.

서비스형 모델 설명

MaaS가 해결책으로 낙점된 배경은 다음과 같습니다. Red Hat 사용자는 크게 두 그룹으로 나뉩니다.

  1. AI 전문가 - AI 빌더, 개발자, 취미 개발자, 전문가 등 AI 기술을 깊이 있게 이해하고 활용하는 사용자들
  2. 일반 - AI 기술에 관한 깊이 있는 이해 없이 AI를 단순 활용하려는 사용자들

MaaS는 AI 모델을 API 엔드포인트 형태의 소비 가능한 리소스로 조직에 제공하는 접근 방식입니다. API 게이트웨이 뒤에서 모델을 서빙하여 개발자, 그리고 간접적으로는 모든 사용자가 일상 태스크에서 AI를 사용할 수 있도록 지원하는 것은 조직의 IT 팀 또는 AI 플랫폼 엔지니어입니다. 

이렇게 생각해 보세요. 거대 AI 기업들은 기업 하드웨어에 대한 액세스 권한을 아무에게나 제공하지 않습니다. 액세스가 가능한 부분은 그들의 애플리케이션이나 API 엔드포인트입니다. 그들이 제공하는 것은 MaaS입니다. 유일한 차이점은 이러한 상황에서는 그러한 기업들의 서비스를 빌리는 것이 아니라 자체 MaaS를 실행하여 비용, 액세스, 혁신의 속도에 대한 제어 권한을 유지한다는 것입니다. 

상당히 괜찮은 조건 아닌가요? 

실제로 Red Hat은 MaaS를 지금까지 약 1년간 내부적으로 실행해 오고 있습니다. 그 결과는 다음과 같습니다. 

비용 절감과 혁신 증진

새로운 모델이 릴리스될 때마다 수백 명의 Red Hatter가 즉각적으로 배포하려고 합니다. MaaS는 모델을 한 번 배포하여 예산을 절약하는 데 도움이 됩니다. 10개, 20개, 50개 이상의 GPU를 소싱하던 시절은 갔습니다. 10명, 20명, 50명 이상이 새로운 모델을 사용해 보고 싶어 하기 때문입니다.

이것이 바로 윈윈입니다. Red Hat 개발자들은 새로운 모델을 사용해 보고, 비용에 대한 부담을 주지 않으면서 새로운 툴을 개발하는 데 집중할 수 있습니다. 

혁신 가속화

Red Hat은 시장에 출시된 모든 신규 모델을 자체 일정에 따라 테스트할 수 있습니다. DeepSeek가 AI 시장을 뒤흔들었던 때를 기억하시나요? Red Hat은 DeepSeek R1을 릴리스 직후 구동하여 모든 사용자에게 제공했습니다. Granite, Llama 4, Phi도 동일한 방식으로 제공했습니다. 이제 상황이 이해되실 겁니다.

개인정보 보호 및 보안

중요한 데이터에는 철저하고 주의 깊은 관리가 필요합니다. MaaS를 사용하면 스스로가 프라이빗 AI 공급자가 되어 디지털 자산을 면밀하게 보호할 수 있습니다. 공용 API 엔드포인트를 사용할 의무는 없습니다. 실제로 Red Hat 고객의 상당수가 완전한 에어 갭 데이터 센터 환경에서 자체 모델을 운영하고 있습니다.

기업에서의 활용

MaaS의 기반이 되는 API 게이트웨이는 모든 직원과 연결하기 위해 필요한 확장성, 혁신의 속도에 대응하는 유연성, 그리고 원하는 방식에 따라 AI 모델을 효율적으로 배포하는 데 필요한 강화된 보안 및 관측성 툴을 제공합니다.

비용 절감

MaaS는 공유 리소스 모델을 직접 사용하여 비용을 절감합니다. 같은 결과를 달성하는 데 필요한 GPU가 줄어들고 GPU 활용 메트릭이 개선될 것입니다. 그리고 시간이 지나면서 모델 성능이 개선되고 크기가 작아짐에 따라 이 풋프린트에서 훨씬 더 많은 성과를 얻게 될 것입니다. 나아가 오픈소스 대규모 언어 모델(LLM) 압축 툴을 사용하여 자체 요구 사항에 부합하도록 모델 성능과 크기의 균형을 맞출 수도 있습니다. 다시 말해 MaaS는 풋프린트와 모델을 최적화하여 성과를 극대화하는 데 도움이 됩니다.

MaaS의 중요성은 미래를 준비하는 과정에서 그에 적합한 기반을 생성한다는 데 있습니다. AI 에이전트를 예로 들어보겠습니다. 에이전트는 1회에 한정되어 질문에 답하는 애플리케이션이 아닙니다. 요청에 따라 계속해서 답변을 찾습니다. 이는 무슨 의미일까요? 토큰이 많다는 것입니다. 매우 많은 토큰이 있다는 뜻입니다. 확장성과 더욱 정확한 비용 예측 능력을 원한다면 MaaS를 사내에서 실행해 보세요. 

AI는 계속해서 존재할 기술입니다. 이제 비용, 혁신 속도, 개인정보 보호에 대해 실질적으로 접근해야 할 때입니다. 서비스형 모델은 유망한 기술이며 Red Hat은 이 기술에 전념하고 있습니다. 지금까지 언급한 장점들이 조직의 우선순위와 일치한다면 MaaS를 고려해 볼 가치가 있습니다.

이 인터랙티브 데모를 보고 가상의 보험사인 Parasol이 MaaS를 사용하여 세 가지 AI 애플리케이션을 구동하는 방법을 확인하세요. AI 전문가들과 AI에 관심이 많은 애호가들은 MaaS GitHub 리포지토리도 확인해 보세요. 마지막으로, 올해 Red Hat Summit에 참석하시는 분들은 인공지능 성공 사례의 주역이 되는 방법 세션과 기업을 위한 서비스형 대규모 언어 모델: 고객 대규모 언어 모델 플랫폼 구축 세션에서 자세한 내용을 알아보세요.

resource

엔터프라이즈를 위한 AI 시작하기: 입문자용 가이드

이 입문자용 가이드에서 Red Hat OpenShift AI와 Red Hat Enterprise Linux AI로 AI 도입 여정을 가속화할 수 있는 방법을 알아보세요.

저자 소개

Karl Eklund is a Principal Architect aligning customer goals to solutions provided by the open source community and commercial vendors within the Red Hat OpenShift Data Science platform. Prior to joining Red Hat, Karl advised technology leaders on enterprise data and technology strategies and built machine learning models across multiple academic disciplines.

Read full bio
UI_Icon-Red_Hat-Close-A-Black-RGB

채널별 검색

automation icon

오토메이션

기술, 팀, 인프라를 위한 IT 자동화 최신 동향

AI icon

인공지능

고객이 어디서나 AI 워크로드를 실행할 수 있도록 지원하는 플랫폼 업데이트

open hybrid cloud icon

오픈 하이브리드 클라우드

하이브리드 클라우드로 더욱 유연한 미래를 구축하는 방법을 알아보세요

security icon

보안

환경과 기술 전반에 걸쳐 리스크를 감소하는 방법에 대한 최신 정보

edge icon

엣지 컴퓨팅

엣지에서의 운영을 단순화하는 플랫폼 업데이트

Infrastructure icon

인프라

세계적으로 인정받은 기업용 Linux 플랫폼에 대한 최신 정보

application development icon

애플리케이션

복잡한 애플리케이션에 대한 솔루션 더 보기

Virtualization icon

가상화

온프레미스와 클라우드 환경에서 워크로드를 유연하게 운영하기 위한 엔터프라이즈 가상화의 미래