2
Jump to section

Modelos validados pelo Red Hat AI

Os modelos validados pelo Red Hat® AI oferecem confiança, previsibilidade e flexibilidade na implantação de modelos de IA generativa de terceiros nessa plataforma.

pilhas de cubos que saem de uma elipse com uma nuvem e faíscas flutuando

Visão geral

O mercado tem disponíveis inúmeras opções de Large Language Models (LLMs), configurações de servidor de inferência e aceleradores de hardware. Por isso, é essencial avaliar com cuidado a combinação certa desses elementos com base nas suas necessidades para encontrar o equilíbrio perfeito entre desempenho, precisão e custo para seu caso de uso.

Para tornar isso possível, o Red Hat AI oferece acesso a um repositório de modelos de terceiros validados e totalmente compatíveis com nossa plataforma. Esse conjunto de modelos oferecidos por líderes do setor passam por simulações em cenários de planejamento orientados à capacidade. Assim, você pode tomar melhores decisões ao escolher a combinação certa de modelos, configurações de implantação e aceleradores de hardware para os seus casos de uso específicos.

Modelos de IA validados com o Red Hat AI Duração do vídeo: 2:19

Funcionalidades e benefícios

Maior flexibilidade

Acesse o conjunto de modelos validados, otimizados e prontos para inferênciadisponíveis no Hugging Face. Eles reduzem o time to value, promovem a consistência e aumentam a confiabilidade das soluções de IA.

Inferência otimizada

Otimize a infraestrutura de IA escolhendo o modelo, as configurações de implantação e os aceleradores de hardware certos. Isso possibilita uma implantação eficiente e econômica, alinhada aos casos de uso da sua empresa.

Mais confiança

Acesse benchmarks do setor, avaliações de precisão e ferramentas de otimização de modelos para verificar, comprimir e validar modelos de terceiros em diversos cenários de implantação.

Faça mais com seus modelos

A validação de modelos do Red Hat AI é realizada com ferramentas open source como oGuideLLM, Language Model Evaluation Harness e vLLM para garantir a reprodutibilidade para os clientes.

Modelos validados

Não estamos falando de qualquer LLM. Testamos modelos de terceiros em cenários realistas para prever exatamente seu desempenho. Utilizamos ferramentas especializadas para avaliar o desempenho do LLM em uma variedade de hardware.

  • O GuideLLM avalia o desempenho e o custo em diferentes configurações de hardware.
  • O LM Evaluation Harness testa a generalização dos modelos em diferentes tarefas.

Modelos otimizados

Passam por compressão para assegurar a alta velocidade e eficiência. Esses LLMs são projetados para ter execução mais rápida e usar menos recursos sem prejudicar a precisão, quando implantados no vLLM. 

  • LLM Compressor é uma biblioteca open source que reúne as pesquisas mais recentes em compressão de modelos em uma única ferramenta, permitindo gerar modelos compactos com mínimo esforço.
  • O vLLM é o principal mecanismo open source de inferência e disponibilização do setor. Ele oferece alto desempenho, aumenta a eficiência no uso de memória e otimiza os LLMs.

Crie as soluções de que você precisa com o Red Hat AI

O Red Hat AI é a plataforma de IA open source que funciona do seu jeito. Reduza custos com modelos eficientes e personalize-os com seus dados e expertise técnica. Implante e gerencie cargas de trabalho com consistência em qualquer infraestrutura. Tudo isso com ferramentas desenvolvidas para ajudar as equipes a colaborar e escalar.

Imagem da interface do console

Perguntas frequentes

Onde encontro os modelos validados?

Os modelos validados estão disponíveis no Red Hat AI Ecosystem Catalog e no repositório do Red Hat AI no Hugging Face. Nesse repositório, você também encontra informações completas sobre os modelos, pesos do SafeTensor e comandos para acelerar as implantações no Red Hat AI Inference Server, RHEL AI e Red Hat OpenShift AI.

Com que frequência vocês disponibilizam novos modelos validados?

A intenção da Red Hat é disponibilizar um novo conjunto de modelos validados por mês, acompanhando a frequência dos lançamentos upstream do vLLM. A Red Hat se reserva o direito de interromper a validação de modelos por qualquer motivo.

Como é o ciclo de vida dos modelos validados?

A intenção é manter a validação dos modelos selecionados por pelo menos duas versões menores futuras do vLLM (n+2). Cada modelo validado em uma versão do vLLM será compatível com, no mínimo, as duas versões seguintes.

Os modelos validados e otimizados recebem suporte completo da equipe do Red Hat Support?

A Red Hat não oferece suporte, indenizações, certificações ou garantias para modelos de terceiros. Além disso, as orientações de capacidade são apenas recomendações, e não uma garantia de desempenho ou precisão. Para mais informações sobre licenças de modelos específicos, contate o fornecedor.

Como faço para receber orientações sobre implantação de LLMs, configurações e aceleradores de hardware com base no caso de uso da minha empresa?

Envie um e-mail a [email protected] para receber mais informações.

Continue seu aprendizado

Como adotar a IA na sua empresa

Acelere a inovação em IA com modelos open source

Quatro critérios para escolher o modelo de IA certo