Desenvolva, treine, teste e implante o machine learning na nuvem híbrida

O Red Hat® OpenShift® AI é uma plataforma de inteligência artificial (IA) que permite desenvolver, treinar e implantar modelos e aplicações de IA em escala em ambientes de nuvem híbrida. 

Visão geral da solução

O OpenShift AI oferece às empresas uma forma eficiente de implantar um conjunto integrado de ferramentas open source e de terceiros essenciais para realizar modelagem de inteligência artificial e machine learning (IA/ML). Quem adota essa solução recebe um conjunto de ferramentas open source colaborativo e uma plataforma para criar modelos experimentais sem se preocupar com a infraestrutura. Também é possível estender essa plataforma de base com ferramentas de parceiros para aumentar a capacidade. Os modelos podem ser fornecidos para ambientes de produção em formato pronto para containers, consistentemente e em ambientes de nuvem, on-premise e de edge. 

O OpenShift AI faz parte do Red Hat AI. Ele oferece às operações de TI um ambiente fácil de gerenciar, com configurações simples em uma plataforma comprovada, escalável e focada na segurança.

Disponível como uma solução de software tradicional ou como serviço em nuvem gerenciado, o OpenShift AI oferece suporte aos modelos fundamentais de IA generativa (gen IA) mais conhecidos, permitindo que você faça ajuste fino e forneça esses modelos pré-treinados para seus casos de uso específicos e com seus próprios dados. Você pode até mesmo distribuir cargas de trabalho entre vários clusters do Red Hat OpenShift, independentemente de sua localização. A plataforma é baseada no OpenShift e simplifica o uso de aceleração de hardware de IA, oferecendo suporte à infraestrutura baseada em unidade central de processamento (CPU) e unidade de processamento gráfico (GPU), como aceleradores NVIDIA, AMD e Intel.

Para quem está começando a usar modelos de gen IA, o OpenShift AI inclui componentes do Red Hat Enterprise Linux® AI, uma plataforma de modelos fundamentais que permite desenvolver, testar e executar Large Language Models (LLMs) da família Granite para potencializar aplicações empresariais. Além dos modelos da família Granite, o framework do Red Hat OpenShift AI é compatível com modelos do HuggingFace, do Stability AI e de outros repositórios.

Tabela 1. Funcionalidades e benefícios do Red Hat OpenShift AI

Destaques

Reduza custos na transição da fase de testes para a produção ao escalar e automatizar a infraestrutura. 

Melhore a eficiência operacional em projetos de IA e ML com uma experiência do usuário consistente, que facilita o trabalho de cientistas de dados, engenheiros de dados, desenvolvedores de aplicações e equipes de DevOps.

Obtenha a flexibilidade da nuvem híbrida criando, treinando, implantando e monitorando cargas de trabalho de inteligência artificial e machine learning on-premise, na nuvem ou na edge.

Funcionalidades

Benefícios

Ferramentas de desenvolvimento de modelo

Fornecem uma interface interativa e colaborativa baseada no JupyterLab para ciência de dados exploratória e treinamento, ajuste e disponibilização de modelos. Cientistas de dados têm acesso contínuo às principais bibliotecas de inteligência artificial e machine learning, frameworks amplamente utilizados e uma variedade de imagens e workbenches predefinidas e fornecidas pelo cliente para acelerar a experimentação de modelos.

Projetos de treinamento de modelos

Permitem que usuários organizem arquivos de desenvolvimento de modelos, conexões de dados e outros artefatos necessários para um determinado projeto, simplificando a experimentação e melhorando a colaboração.

Cargas de trabalho distribuídas de treinamento de modelos

Usam diversos nós de cluster simultaneamente para treinar e ajustar modelos de IA preditiva e generativa mais eficientemente, oferecendo escalabilidade para lidar com tarefas que seriam inviáveis do ponto de vista computacional.

GPUs e aceleradores

 

Oferecem acesso por self-service à GPU pela equipe de ITOps para predefinir seu ambiente de recursos de GPU, tanto on-premise quanto na nuvem. Assim, fica mais fácil para cientistas de dados e desenvolvedores de aplicações selecionarem as configurações para as tarefas do projeto.

Pipelines de ciência de dados

Permitem que cientistas de dados e engenheiros de IA automatizem as etapas para entregar e testar modelos em desenvolvimento e produção. Os pipelines podem ser controlados por versão, rastreados e gerenciados para reduzir erros do usuário, além de simplificar os fluxos de trabalho de experimentação e produção. 

Model serving

Oferece modelos de provedores e frameworks como Hugging Face, ONNX, PyTorch, TensorFlow e outros, além de runtimes mais conhecidos para disponibilização, como vLLM. É possível escalar os recursos de cluster, como CPUs e GPUs, em vários nós conforme a necessidade das cargas de trabalho.

Monitoramento de modelos

Monitora métricas como o número de solicitações de inferência bem-sucedidas e malsucedidas, tempos médios de resposta de inferência e usos de computação para ajustar recursos proativamente, se necessário.

Detecção de desvios

Monitora alterações na distribuição de dados de entrada para modelos de ML em produção, identificando quando os dados em tempo real divergem significativamente dos utilizados no treinamento.

Detecção de vieses

Oferece ferramentas para monitorar se os modelos se mantêm justos e imparciais, tanto durante o treinamento quanto nas implantações em ambientes reais.

Medidas de segurança de IA

Filtram discursos de ódio, abusivos ou ofensivos, informações de identificação pessoal, informações da concorrência ou outras restrições específicas do domínio.

Avaliação do modelo

Fornece informações importantes sobre a qualidade do modelo LLM e compara o desempenho dos modelos LLM em uma variedade de tarefas.

Registro de modelos

Oferece um ambiente centralizado para visualizar e gerenciar modelos registrados, o que ajuda os cientistas de dados a compartilhar, implantar, monitorar e controlar versões de artefatos de modelo, metadados e modelos de IA preditiva e generativa.

Ambientes e edge desconectados

Simplificam a implantação de clusters desconectados em uma rede restrita, geralmente atrás de um firewall, dando suporte a setores onde a segurança e a conformidade regulatória exigem implantações isoladas.

Além dos recursos fornecidos no OpenShift AI, muitas soluções de parceiros de tecnologia foram integradas à interface de usuário (IU). Elas incluem Starburst para acesso distribuído a dados em diversos conjuntos de dados, HPE para linhagem e controle de versão de dados, NVIDIA para gerenciamento de desempenho de GPUs, Intel para inferência de alto desempenho em hardware Intel e Elastic para banco de dados vetorial com aplicações de geração aumentada de recuperação (RAG).

Próximas etapas:

Conheça o Red Hat OpenShift AI e assista ao vídeo informativo.

Faça um teste gratuito no sandbox do desenvolvedor