Iscriviti per attivare i feed RSS

Nelle recenti conversazioni con i clienti Red Hat, quando la chat si rivolge inevitabilmente all'intelligenza artificiale, mi sono ritrovato a ripetere spesso lo stesso mantra: piccolo può essere meglio. 

Mi spiego meglio. Pensare in grande quando si parla di IA non fa male. Le opportunità offerte da questa tecnologia sono enormi. I clienti sono pienamente giustificati se hanno piani audaci e ambiziosi per cogliere queste opportunità. 

Proprio per questo, Aramco, una delle più grandi aziende integrate nel settore energetico e chimico del mondo, sta esplorando insieme a Red Hat opportunità come questa. Attraverso un Memorandum d'Intesa, esploreremo insieme come l'IA può fornire iniziative di formazione e sviluppo delle competenze per i talenti locali. Ciò si aggiunge ad altre opportunità, come l'intelligenza artificiale che può migliorare le prestazioni e l'utilizzo delle risorse degli strumenti dell'infrastruttura e nuove strategie per migliorare le misure di sicurezza informatica delle applicazioni containerizzate.

Allo stesso tempo, vedo che molte aziende ottengono rapidamente risultati con l'intelligenza artificiale rivolgendo la propria attenzione a obiettivi specifici e pensando in piccolo. Ciò che accomuna queste aziende è l'attenzione su problematiche specifiche dell'ambiente di lavoro, che affrontano utilizzando i modelli linguistici di piccole dimensioni, noti come Small Language Model (SLM)

Nel contesto dell'IA, il termine "piccolo" è relativo. Mentre un Large Language Model (LLM) può vantare centinaia o addirittura migliaia di miliardi di parametri, un SLM può comunque variare da qualche milione ad alcuni miliardi di parametri. In altre parole, non è così piccolo. Per questo motivo, sono più propenso a pensare a un SLM come a un modello linguistico focalizzato, o FLM, se posso coniare un nuovo termine. 

Data la loro dimensione, gli SLM sono più facilmente personalizzabili tramite il fine tuning, grazie al quale vengono addestrati su un set di dati limitato, relativo alle competenze specifiche del settore o dell'azienda. Adottando questo approccio, i dipendenti delle aziende innovative possono risolvere più rapidamente un problema aziendale e ottenere informazioni più approfondite su come l'IA potrebbe essere applicata per risolvere altre problematiche dei processi aziendali che essi o i loro colleghi potrebbero incontrare.

Qualunque sia il loro nome, gli SLM possono eccellere in domini specifici e mirati. Ad esempio, un provider di servizi finanziari potrebbe utilizzare un SLM addestrato sui dati normativi per individuare le transazioni non conformi. Un operatore sanitario potrebbe utilizzare un chatbot basato su un SLM addestrato su set di dati medici per inserire le conoscenze specifiche del dominio nelle risposte alle domande dei pazienti sulle loro condizioni. 

Si tratta di un approccio estremamente efficiente, perché non è necessario addestrare un SLM su dati che non sono direttamente pertinenti allo scenario di utilizzo per il quale è stato progettato. Non è necessario perdersi in informazioni irrilevanti. Inoltre, non è previsto che un SLM interpreti e risponda a query molto generiche su una grande varietà di argomenti. 

Questo è il compito di un LLM, motivo per il quale è un tipo di modello molto complesso che richiede un numero elevato di risorse. Al contrario, il tempo necessario per l'addestramento e il fine tuning di un SLM è più breve, i suoi requisiti hardware sono molto inferiori e la sua propensione a restituire risposte errate o irrilevanti è notevolmente ridotta.

L'IA può colmare il divario di competenze

Con l'arrivo del 2025, ritengo che gli SLM abbiano un ruolo prezioso da svolgere nell'affrontare molti dei problemi aziendali odierni. Un esempio che viene subito in mente è la persistente crisi delle competenze, esacerbata dall'avvicinarsi dell'età pensionabile per i membri senior della forza lavoro europea in rapido invecchiamento. 

Un SLM si presta in modo eccellente ad affrontare alcune delle attività svolte da dipendenti esperti e di lunga data, ad esempio l'analisi di documenti legali o normativi o l'analisi dei feedback dei clienti per individuare le tipologie di reclamo ricorrenti su un determinato prodotto o servizio. Laddove le competenze ingegneristiche sono fondamentali, gli SLM possono essere implementati per analizzare i dati raccolti da sensori e dispositivi intelligenti installati in macchinari e apparecchiature al fine di prevedere le esigenze di manutenzione. 

In breve, gli SLM potrebbero essere un buon modo per le aziende di compiere importanti passi avanti con l'IA nel 2025 in modo efficiente, accessibile, altamente personalizzabile e in grado di ottenere un ritorno più rapido sui loro sforzi. 

Utilizzando la tecnologia open source, nel frattempo, possono semplificare ulteriormente l'esperienza, utilizzando tecnologie sviluppate secondo un approccio open source, attraverso uno sforzo collaborativo. Ciò significa che non devono partire da zero per ogni progetto di IA che intraprendono e possono trarre vantaggio dalle informazioni e dalle sfide che altri team hanno sperimentato con gli SLM. 

Inoltre, hanno la flessibilità necessaria per creare un SLM personalizzato, altamente ottimizzato, addestrato su dati e conoscenze specifiche della loro azienda e in grado di supportare lo scenario di utilizzo aziendale esattamente nel modo desiderato. 


Sull'autore

Hans Roth is senior vice president and general manager for Europe, Middle East, and Africa (EMEA) at Red Hat where is he focused on developing and executing the company’s business strategy across EMEA including commercial, enterprise and channel sales, professional service, telecommunications, media and entertainment, consulting and training services, marketing, legal and people team functions. 
 
Roth has held previous EMEA and global leadership roles at Red Hat. He led the company’s EMEA services business between 2016-2019, before being promoted to senior vice president and general manager of Red Hat’s global services and technical enablement division where he was responsible for a global organization of more than 2,000 professionals across consulting and training services, as well as technical and business partner enablement. 
 
Prior to joining Red Hat he was vice president of the service delivery unit for Hewlett-Packard Enterprise for central Europe, and for 20+ years held leadership roles in business process management, IT strategy, system integration and strategic outsourcing.
Read full bio
UI_Icon-Red_Hat-Close-A-Black-RGB

Ricerca per canale

automation icon

Automazione

Novità sull'automazione IT di tecnologie, team e ambienti

AI icon

Intelligenza artificiale

Aggiornamenti sulle piattaforme che consentono alle aziende di eseguire carichi di lavoro IA ovunque

open hybrid cloud icon

Hybrid cloud open source

Scopri come affrontare il futuro in modo più agile grazie al cloud ibrido

security icon

Sicurezza

Le ultime novità sulle nostre soluzioni per ridurre i rischi nelle tecnologie e negli ambienti

edge icon

Edge computing

Aggiornamenti sulle piattaforme che semplificano l'operatività edge

Infrastructure icon

Infrastruttura

Le ultime novità sulla piattaforma Linux aziendale leader a livello mondiale

application development icon

Applicazioni

Approfondimenti sulle nostre soluzioni alle sfide applicative più difficili

Virtualization icon

Virtualizzazione

Il futuro della virtualizzazione negli ambienti aziendali per i carichi di lavoro on premise o nel cloud