Rispondere ai problemi odierni del mondo IT è certamente importante: al Red Hat Summit e all'AnsibleFest abbiamo presentato le nostre soluzioni pensate per un'ampia gamma di richieste tecnologiche, dalla fornitura di una piattaforma open source per modelli fondativi di IA alle nuove Policy as Code. Tuttavia, il tempo passa in fretta e nuove sfide si profilano già all'orizzonte, ma come possiamo risolverle prima ancora che si presentino? Per fortuna, possiamo contare su risorse collaudate che ci consentono non solo di fare progetti per l'avvenire, ma anche plasmare il futuro, ovvero le community e i progetti open source.
Oggi le soluzioni AI/ML sono spesso considerate una soluzione da utilizzare in futuro. Molte organizzazioni sono ancora nella fase di sviluppo di queste tecnologie: pianificano, studiano strategie, propongono grandi idee. Il passaggio al deployment e alla produzione sembra ancora lontano. Nell'ambito open source, invece, stiamo già pensando a come rispondere alle prossime richieste relative all'IA.
Potremmo dedicare un'intera conferenza al futuro dell'IA, ma mi concentrerò su tre aree precise di cui si occupano i progetti open source:
- Democratizzazione
- Sostenibilità
- Affidabilità
Se risolviamo (o iniziamo a risolvere) questi problemi, forse progredire nello sviluppo di una strategia di IA non sembrerà così difficile.
Democratizzazione
Diciamo la verità: spesso rimaniamo perplessi quando abbiamo a che fare con modelli di IA definiti "open" o "aperti" ma accompagnati da virgolette o un asterisco. Specifico che questi modelli "open" sono fondamentali nel campo dell'IA, ma non sono open source. Sono aperti all'uso, spesso con diversi tipi restrizioni o regole, ma a volte non consentono contributi esterni e non c'è trasparenza sui dati di addestramento o i pesi utilizzati.
Ci stiamo già occupando di questo problema, e continueremo a farlo in collaborazione con IBM Research. Oltre a InstructLab, IBM Research sta applicando una licenza open source Apache al linguaggio e ai modelli di codice Granite. Questa è novità importantissima, e non perché i modelli sono governati da una licenza open source, ma perché ora chiunque, tramite InstructLab, può contribuire a migliorarli.
Inoltre, ora potrai creare il TUO modello di IA. Vuoi creare un chatbot incentrato sulla pesca? Mettiti alla prova, fai la tua parte e crea ChatGoFish. Vuoi dedicare un bot alla risoluzione di problemi tecnologici molto di nicchia? Ora puoi farlo con InstructLab. Quando i principi dell'open source vengono davvero applicati ai modelli di IA, le possibilità diventano illimitate, e questo è entusiasmante.
Sostenibilità
Andiamo subito al punto: l'addestramento dei modelli e l'inferenza dell'IA necessitano di un'enorme quantità di risorse. Entro il 2026, l'Agenzia internazionale per l'energia prevede che la domanda da parte del settore dell'IA aumenterà di 10 volte. Cosa significa, a parte il fatto che i miner di criptovalute hanno un rivale nel settore energetico?
Dobbiamo sfruttare il software open source per affrontare questa sfida. Iniziare a utilizzare l'intelligenza artificiale richiede quasi sempre un'elevata quantità di energia, ma possiamo gestire il problema in modo intelligente. Abbiamo già intrapreso iniziative in tal senso con l'IT enterprise moderno tramite il progetto Kepler, che aiuta a fornire informazioni dettagliate sulle emissioni di CO2 e sull'efficienza energetica delle applicazioni e dell'infrastruttura cloud native. Attualmente è disponibile come anteprima tecnologica in Red Hat OpenShift 4.15.
Ma cosa succederebbe se, sfruttando la potenza dell'innovazione open source, riuscissimo a trasformare Kepler in uno strumento in grado di monitorare il consumo energetico non solo delle CPU, ma anche delle GPU?
Ebbene, ci stiamo occupando proprio di questo: utilizziamo Kepler per misurare il consumo energetico dei modelli di ML sia per l'addestramento che per l'inferenza. In questo modo abbiamo una visione completa del consumo energetico dell'IT tradizionale e dell'ambiente AI, sempre grazie all'open source.
Affidabilità
Come avviene per ogni nuova tecnologia, dobbiamo essere in grado di proteggere e applicare in modo efficace il profilo di sicurezza dei carichi di lavoro, dei modelli e delle piattaforme di IA. L'innovazione senza sicurezza rappresenta un rischio, che sia le aziende che le community open source vogliono ridurre al minimo.
La catena di distribuzione e la provenienza del software sono fondamentali per garantire un'esperienza più sicura. Bisogna quindi avere un'idea chiara della provenienza dei bit, di chi li ha codificati e di chi li ha utilizzati prima di impiegarli in produzione. Il progetto sigstore guidato da Red Hat aiuta a dimostrare la veridicità del codice open source utilizzato in tutte le fasi dello sviluppo applicativo.
Naturalmente, dobbiamo applicare lo stesso livello di previdenza, disciplina e rigore ai modelli di IA, ed è ciò che Red Hat e la community open source stanno facendo per creare una distinta base per l'IA, che offre maggiori garanzie sulla creazione di modelli tramite il nostro strumento sicuro per la catena di distribuzione.
Il concetto di sicurezza è collegato a doppio filo a quello di fiducia: come facciamo a sapere che i modelli e i carichi di lavoro basati sull'IA saranno affidabili anche in futuro? È qui che entra in gioco TrustyAI, che aiuta i team tecnologici a comprendere le giustificazioni dei modelli di IA e a segnalare comportamenti potenzialmente problematici.
Spero che questi esempi siano serviti a spiegare quali azioni vengono intraprese nell'ambito dell'open source per portare in futuro più accessibilità, sostenibilità, sicurezza e affidabilità nel settore dell'IA. Red Hat è orgogliosa di essere all'avanguardia nel promuovere tutte queste tecnologie, che non sarebbero possibili senza la collaborazione stimolante della community open source.
Sull'autore
Chris Wright is senior vice president and chief technology officer (CTO) at Red Hat. Wright leads the Office of the CTO, which is responsible for incubating emerging technologies and developing forward-looking perspectives on innovations such as artificial intelligence, cloud computing, distributed storage, software defined networking and network functions virtualization, containers, automation and continuous delivery, and distributed ledger.
During his more than 20 years as a software engineer, Wright has worked in the telecommunications industry on high availability and distributed systems, and in the Linux industry on security, virtualization, and networking. He has been a Linux developer for more than 15 years, most of that time spent working deep in the Linux kernel. He is passionate about open source software serving as the foundation for next generation IT systems.
Ricerca per canale
Automazione
Novità sull'automazione IT di tecnologie, team e ambienti
Intelligenza artificiale
Aggiornamenti sulle piattaforme che consentono alle aziende di eseguire carichi di lavoro IA ovunque
Hybrid cloud open source
Scopri come affrontare il futuro in modo più agile grazie al cloud ibrido
Sicurezza
Le ultime novità sulle nostre soluzioni per ridurre i rischi nelle tecnologie e negli ambienti
Edge computing
Aggiornamenti sulle piattaforme che semplificano l'operatività edge
Infrastruttura
Le ultime novità sulla piattaforma Linux aziendale leader a livello mondiale
Applicazioni
Approfondimenti sulle nostre soluzioni alle sfide applicative più difficili
Virtualizzazione
Il futuro della virtualizzazione negli ambienti aziendali per i carichi di lavoro on premise o nel cloud