Desenvolva, treine, teste e implante o machine learning na nuvem híbrida
O Red Hat® OpenShift® AI é uma plataforma de inteligência artificial (IA) que permite desenvolver, treinar e implantar modelos e aplicações de IA em escala em ambientes de nuvem híbrida.
Visão geral da solução
O OpenShift AI oferece às empresas uma forma eficiente de implantar um conjunto integrado de ferramentas open source e de terceiros essenciais para realizar modelagem de inteligência artificial e machine learning (IA/ML). Quem adota essa solução recebe um conjunto de ferramentas open source colaborativo e uma plataforma para criar modelos experimentais sem se preocupar com a infraestrutura. Também é possível estender essa plataforma de base com ferramentas de parceiros para aumentar a capacidade. Os modelos podem ser fornecidos para ambientes de produção em formato pronto para containers, consistentemente e em ambientes de nuvem, on-premise e de edge.
O OpenShift AI faz parte do Red Hat AI. Ele oferece às operações de TI um ambiente fácil de gerenciar, com configurações simples em uma plataforma comprovada, escalável e focada na segurança.
Disponível como uma solução de software tradicional ou como serviço em nuvem gerenciado, o OpenShift AI oferece suporte aos modelos fundamentais de IA generativa (gen IA) mais conhecidos, permitindo que você faça ajuste fino e forneça esses modelos pré-treinados para seus casos de uso específicos e com seus próprios dados. Você pode até mesmo distribuir cargas de trabalho entre vários clusters do Red Hat OpenShift, independentemente de sua localização. A plataforma é baseada no OpenShift e simplifica o uso de aceleração de hardware de IA, oferecendo suporte à infraestrutura baseada em unidade central de processamento (CPU) e unidade de processamento gráfico (GPU), como aceleradores NVIDIA, AMD e Intel.
Para quem está começando a usar modelos de gen IA, o OpenShift AI inclui componentes do Red Hat Enterprise Linux® AI, uma plataforma de modelos fundamentais que permite desenvolver, testar e executar Large Language Models (LLMs) da família Granite para potencializar aplicações empresariais. Além dos modelos da família Granite, o framework do Red Hat OpenShift AI é compatível com modelos do HuggingFace, do Stability AI e de outros repositórios.
Tabela 1. Funcionalidades e benefícios do Red Hat OpenShift AI
Destaques
Reduza custos na transição da fase de testes para a produção ao escalar e automatizar a infraestrutura.
Melhore a eficiência operacional em projetos de IA e ML com uma experiência do usuário consistente, que facilita o trabalho de cientistas de dados, engenheiros de dados, desenvolvedores de aplicações e equipes de DevOps.
Obtenha a flexibilidade da nuvem híbrida criando, treinando, implantando e monitorando cargas de trabalho de inteligência artificial e machine learning on-premise, na nuvem ou na edge.
Funcionalidades | Benefícios |
Ferramentas de desenvolvimento de modelo | Fornecem uma interface interativa e colaborativa baseada no JupyterLab para ciência de dados exploratória e treinamento, ajuste e disponibilização de modelos. Cientistas de dados têm acesso contínuo às principais bibliotecas de inteligência artificial e machine learning, frameworks amplamente utilizados e uma variedade de imagens e workbenches predefinidas e fornecidas pelo cliente para acelerar a experimentação de modelos. |
Projetos de treinamento de modelos | Permitem que usuários organizem arquivos de desenvolvimento de modelos, conexões de dados e outros artefatos necessários para um determinado projeto, simplificando a experimentação e melhorando a colaboração. |
Cargas de trabalho distribuídas de treinamento de modelos | Usam diversos nós de cluster simultaneamente para treinar e ajustar modelos de IA preditiva e generativa mais eficientemente, oferecendo escalabilidade para lidar com tarefas que seriam inviáveis do ponto de vista computacional. |
GPUs e aceleradores
| Oferecem acesso por self-service à GPU pela equipe de ITOps para predefinir seu ambiente de recursos de GPU, tanto on-premise quanto na nuvem. Assim, fica mais fácil para cientistas de dados e desenvolvedores de aplicações selecionarem as configurações para as tarefas do projeto. |
Pipelines de ciência de dados | Permitem que cientistas de dados e engenheiros de IA automatizem as etapas para entregar e testar modelos em desenvolvimento e produção. Os pipelines podem ser controlados por versão, rastreados e gerenciados para reduzir erros do usuário, além de simplificar os fluxos de trabalho de experimentação e produção. |
Model serving | Oferece modelos de provedores e frameworks como Hugging Face, ONNX, PyTorch, TensorFlow e outros, além de runtimes mais conhecidos para disponibilização, como vLLM. É possível escalar os recursos de cluster, como CPUs e GPUs, em vários nós conforme a necessidade das cargas de trabalho. |
Monitoramento de modelos | Monitora métricas como o número de solicitações de inferência bem-sucedidas e malsucedidas, tempos médios de resposta de inferência e usos de computação para ajustar recursos proativamente, se necessário. |
Detecção de desvios | Monitora alterações na distribuição de dados de entrada para modelos de ML em produção, identificando quando os dados em tempo real divergem significativamente dos utilizados no treinamento. |
Detecção de vieses | Oferece ferramentas para monitorar se os modelos se mantêm justos e imparciais, tanto durante o treinamento quanto nas implantações em ambientes reais. |
Medidas de segurança de IA | Filtram discursos de ódio, abusivos ou ofensivos, informações de identificação pessoal, informações da concorrência ou outras restrições específicas do domínio. |
Avaliação do modelo | Fornece informações importantes sobre a qualidade do modelo LLM e compara o desempenho dos modelos LLM em uma variedade de tarefas. |
Registro de modelos | Oferece um ambiente centralizado para visualizar e gerenciar modelos registrados, o que ajuda os cientistas de dados a compartilhar, implantar, monitorar e controlar versões de artefatos de modelo, metadados e modelos de IA preditiva e generativa. |
Ambientes e edge desconectados | Simplificam a implantação de clusters desconectados em uma rede restrita, geralmente atrás de um firewall, dando suporte a setores onde a segurança e a conformidade regulatória exigem implantações isoladas. |
Além dos recursos fornecidos no OpenShift AI, muitas soluções de parceiros de tecnologia foram integradas à interface de usuário (IU). Elas incluem Starburst para acesso distribuído a dados em diversos conjuntos de dados, HPE para linhagem e controle de versão de dados, NVIDIA para gerenciamento de desempenho de GPUs, Intel para inferência de alto desempenho em hardware Intel e Elastic para banco de dados vetorial com aplicações de geração aumentada de recuperação (RAG).
Próximas etapas:
Conheça o Red Hat OpenShift AI e assista ao vídeo informativo.