High Performance Computing con Red Hat
Per risolvere le problematiche complesse che richiedono decisioni basate sui dati, le organizzazioni moderne fanno sempre più affidamento su capacità di High Performance Computing (HPC). L'adozione massiccia di tecnologie di intelligenza artificiale (IA) su larga scala sta però mettendo a dura prova le architetture HPC esistenti. I nuovi carichi di lavoro richiedono infatti maggiori capacità HPC, ottenibili ad esempio abbandonando i deployment bare metal tradizionali in favore delle piattaforme applicative di cloud ibrido.
Queste soluzioni di High Performance Computing moderne si possono adottare on premise, all'edge e nel cloud.
Cos'è l'High Performance Computing?
Con High Performance Computing (HPC) si intende l'elaborazione di calcoli complessi a velocità elevate su più server in parallelo. Questi gruppi di server prendono il nome di cluster e sono composti da centinaia o migliaia di server di elaborazione collegati mediante una rete.
High Performance Computing (HPC) con Red Hat
Scenari di utilizzo dell'High Performance Computing
Benché la sua architettura sia rimasta pressoché invariata fino a non molto tempo fa, gli scenari di utilizzo dell'High Performance Computing sono cresciuti fino a includere l'AI/ML e si sono estesi a tutti i settori. Grazie all'orchestrazione dei container negli ambienti di cloud ibrido, le nuove architetture sono oggi capaci di far fronte ai numerosi scenari di utilizzo. L'approccio di Red Hat all'High Performance Computing si concentra su tre ambiti.
Supercomputing
Linux® è il sistema operativo più utilizzato per l'High Performance Computing secondo la TOP500, una classifica che tiene traccia dei sistemi informatici più potenti al mondo. Tutti i supercomputer della TOP500 eseguono Linux e molti tra i migliori eseguono Red Hat® Enterprise Linux.
Red Hat Enterprise Linux è il sistema operativo più diffuso nei siti HPC. Lo utilizzano anche alcuni dei migliori supercomputer al mondo.
Enti governativi e ricerca accademica
I ricercatori impegnati in vari ambiti, tra cui scienza fondamentale, meteorologia, clima e difesa, impiegano l'High Performance Computing per analizzare grandi quantità di dati e in base ai risultati prodotti da questa analisi elaborare delle conclusioni. I cluster HPC sono un valido alleato per attività come modellazione, simulazione e analisi avanzata.
Da sempre ubicata nelle strutture di ricerca governative e universitarie, l'High Performance Computing sta oggi lasciando le architetture di datacenter per espandersi verso il cloud ibrido.
Industria e impresa
L'High Performance Computing offre vantaggi alle aziende che operano in svariati settori, tra cui:
- Bioscienze
- Energia
- Finanza
- Settore manifatturiero
- Media e intrattenimento
Le aziende utilizzano i cluster di High Performance Computing per sostenere le iniziative di elaborazione tecnica nelle attività di progettazione e modellazione predittiva applicate alla scienza e alla finanza.
Soluzioni Red Hat per l'High Performance Computing
Il portafoglio di soluzioni Red Hat per l'High Performance Computing permette di ottenere carichi di lavoro HPC ad elevata efficienza grazie ai comprovati vantaggi delle nostre piattaforme open source di livello enterprise.
Un sistema operativo che offre una base coerente e flessibile creata per eseguire carichi di lavoro ad alte prestazioni. Red Hat Enterprise Linux è il sistema operativo di El Capitan, il primo supercomputer exascale della National Nuclear Security Administration (NNSA) statunitense.
Una piattaforma applicativa moderna che offre un'esperienza affidabile, completa e coerente. Favorisce l'innovazione di organizzazioni e ambienti IT grazie alle sue funzionalità per lo sviluppo e la distribuzione di applicazioni scalabili e orientate alla sicurezza.
Un prodotto per la gestione dell'infrastruttura progettato per garantire il funzionamento ottimale ed efficiente di Red Hat Enterprise Linux.
Una soluzione storage open source semplificata e altamente scalabile pensata per le pipeline di dati moderne.
Novità sull'High Performance Computing
- Red Hat getta le basi per il futuro del supercomputing con il Lawrence Livermore National Laboratory
- Red Hat collabora con il Department of Energy Laboratories degli Stati Uniti per colmare il divario tra l'High Performance Computing e gli ambienti cloud
- Red Hat OpenShift estende l'infrastruttura di High Performance Computing (HPC) dall'edge all'exascale
- Red Hat getta le basi per il futuro del supercomputing con Red Hat Enterprise Linux
Approfondimenti
- Amplia i cluster HPC con Red Hat e Microsoft
- Realizza una base affidabile per l'HPC
- Come ampliare le capacità di Podman per il deployment di container in formato SIF
- Podman apre la strada all'esecuzione di applicazioni HPC containerizzate su supercomputer exascale
- Le capacità di OpenShift al servizio dei carichi di lavoro HPC scientifici
Inizia subito
Sfrutta nuove opportunità con le soluzioni Red Hat per l'HPC