Sviluppa, addestra, testa e distribuisci il machine learning nel cloud ibrido
Red Hat® OpenShift® AI è una piattaforma di intelligenza artificiale (IA) che consente di sviluppare, addestrare e distribuire i modelli e le applicazioni di IA su larga scala negli ambienti di cloud ibrido.
Panoramica sul prodotto
OpenShift AI offre alle organizzazioni un modo efficace per distribuire un set integrato di strumenti open source e di terze parti comunemente usati per la creazione di modelli di intelligenza artificiale e machine learning (AI/ML). Questa soluzione ti mette a disposizione un set di strumenti open source collaborativo e una piattaforma per realizzare modelli sperimentali senza i problemi legati all'infrastruttura. In seguito, puoi ampliare tale piattaforma di base con gli strumenti dei partner per ottenere una maggiore capacità. I modelli possono essere distribuiti negli ambienti di produzione in un formato predisposto per i container, in modo analogo, in ambienti cloud, on premise o all'edge.
OpenShift AI è parte di Red Hat AI. Fornisce un ambiente semplice da gestire per le tue operazioni IT, grazie a configurazioni intuitive su una piattaforma solida, incentrata sulla sicurezza e scalabile.
Disponibile sia come prodotto software tradizionale sia come servizio cloud gestito, OpenShift AI supporta i modelli fondativi per l'IA generativa (IA gen) più diffusi, così da consentire il fine tuning e l'impiego di questi modelli preaddestrati nei tuoi scenari di utilizzo e con i tuoi dati. Puoi persino distribuire i carichi di lavoro su più cluster Red Hat OpenShift, a prescindere dalla loro posizione. La piattaforma si aggiunge a OpenShift e rende più facile sfruttare l'accelerazione dell'hardware IA, incluse la CPU (Central Processing Unit) e l'infrastruttura hardware supportata da GPU (Graphics Processing Unit), tra cui gli acceleratori NVIDIA, AMD e Intel.
Per chi si sta avvicinando al mondo dell'IA gen, OpenShift AI include i componenti di Red Hat Enterprise Linux® AI, una piattaforma per modelli fondativi con cui sviluppare, testare ed eseguire i modelli linguistici di grandi dimensioni (LLM) della famiglia Granite per applicazioni aziendali. Oltre ai modelli Granite presenti in Red Hat OpenShift AI, il framework supporta anche i modelli di HuggingFace, Stability AI e altri repository.
Tabella 1. Caratteristiche e vantaggi di Red Hat OpenShift AI
Punti chiave
Costi inferiori del passaggio dalla sperimentazione alla produzione grazie alla scalabilità e all'automazione dell'infrastruttura.
Maggiore efficienza operativa dell'AI/ML grazie a un'esperienza utente omogenea che semplifica la collaborazione tra data scientist, data engineer, sviluppatori di applicazioni e team DevOps.
Maggiore flessibilità nel cloud ibrido perché la piattaforma permette di creare, addestrare, distribuire e monitorare i carichi di lavoro dell'AI/ML on premise, nel cloud e all'edge.
Caratteristiche | Vantaggi |
Strumenti per lo sviluppo di modelli | Offre un'interfaccia interattiva e collaborativa, basata su JupyterLab, per l'analisi dei dati esplorativa e per l'addestramento, l'ottimizzazione e la distribuzione dei modelli. I data scientist hanno accesso continuo alle principali librerie di AI/ML, ai framework più comuni e a un'ampia gamma di immagini e workbench predefiniti e forniti dagli utenti con cui accelerare la sperimentazione sui modelli. |
Progetti di addestramento dei modelli | Consentono agli utenti di organizzare i file di sviluppo dei modelli, le connessioni dei dati e altri componenti necessari per un determinato progetto, semplificando la sperimentazione e ottimizzando la collaborazione. |
Carichi di lavoro distribuiti per l'addestramento dei modelli | Consentono di usare più nodi del cluster contemporaneamente per addestrare e ottimizzare in modo più efficiente i modelli di IA predittiva e generativa, offrendo la scalabilità necessaria per gestire le operazioni altrimenti infattibili a livello di elaborazione. |
GPU e acceleratori
| Offrono l'accesso autonomo alle GPU ai team ITOps perché possano definire in anticipo l'ambiente delle risorse GPU, sia on premise che nel cloud, così da facilitare a data scientist e sviluppatori la selezione delle configurazioni delle attività di progetto. |
Pipeline di data science | Consentono a data scientist e ingegneri dell'IA di automatizzare i passaggi di distribuzione e test dei modelli in fase di sviluppo e produzione. È possibile creare versioni delle pipeline, monitorarle e gestirle per ridurre gli errori degli utenti e semplificare i workflow di sperimentazione e produzione. |
Distribuzione dei modelli | Distribuisce modelli forniti dai provider e framework come Hugging Face, ONNX, PyTorch, TensorFlow, ma anche runtime noti come vLLM. Le risorse del cluster, come CPU e GPU, possono essere estese a più nodi, a seconda delle esigenze legate ai carichi di lavoro. |
Monitoraggio dei modelli | Monitora metriche come il numero delle richieste di inferenza riuscite e non, i tempi di risposta medi dell'inferenza e l'uso della potenza di calcolo per adeguare le risorse in modo proattivo, se necessario. |
Rilevamento del drift | Rileva le deviazioni nelle distribuzioni di dati di input per i modelli di ML distribuiti per individuare il momento in cui i dati in tempo reale utilizzati per l'inferenza iniziano a discostarsi in modo significativo dai dati su cui è stato addestrato il modello. |
Rilevamento di bias | Include strumenti per il monitoraggio dei modelli volti a garantirne l'equità e l'imparzialità, non solo rispetto ai dati per l'addestramento ma anche nei deployment in contesti reali. |
AI Guardrails | Aiuta a eliminare linguaggio d'odio, offensivo o volgare, informazioni personali o concorrenziali e altre informazioni che deviano dai requisiti specifici del dominio. |
Valutazione dei modelli | Offre informazioni essenziali sulla qualità del modello linguistico di grandi dimensioni e ne valuta le prestazioni in un'ampia varietà di operazioni. |
Registro dei modelli | Offre uno spazio centralizzato dove visualizzare e gestire i modelli registrati. Qui i data scientist possono condividere, gestire le versioni, distribuire e tenere traccia dei modelli di IA generativa e predittiva, dei metadati e dei componenti dei modelli. |
Edge e ambienti disconnessi | Semplificano la distribuzione di cluster disconnessi in una rete limitata, spesso dietro un firewall, per i settori in cui sono necessarie distribuzioni air gap a causa dei requisiti normativi e di sicurezza. |
Oltre alle funzionalità incluse in OpenShift AI, nell'interfaccia utente sono stati integrati anche i prodotti di molti partner tecnologici. Sono inclusi Starburst per l'accesso ai dati distribuiti in diversi dataset, HPE per il data lineage e la gestione delle versioni, NVIDIA per la gestione delle prestazioni delle GPU, Intel per l'inferenza ad alte prestazioni sull'hardware Intel ed Elastic per i database vettoriali con applicazioni RAG (Retrieval Augmented Generation).
Passaggi successivi:
Scopri di più su Red Hat OpenShift AI e guarda il video informativo.