01. Rubriche

Minerva 7B, l’IA generativa italiana è diventata grande

L’intelligenza artificiale conversazionale basata sul primo LLM nato in seno all’università italiana arriva alla seconda versione, più potente, sicura e efficace nelle risposte

La statua della Minerva e il rettorato dell'università di Roma La Sapienza

Redazione Ansa

La nostra Minerva è diventata grande. Era solo lo scorso aprile quando abbiamo dato il benvenuto al primo Large Language Model (LLM) nato dal mondo della ricerca e dell'università italiane, è ora è già tempo di celebrare Minerva 7B, ultima e potenziata versione del modello linguistico targato Università La Sapienza e sviluppato nell’ambito del Progetto FAIR (Future Artificial Intelligence Research), in collaborazione con CINECA che ha reso disponibile il supercomputer Leonardo.

 

La nuova Minerva 7B è stata addestrata con 1.5 trilioni di parole (un trilione è pari a mille miliardi) e come dice il nome stesso, lavora con 7 miliardi di parametri contro i 3 della versione precedente, più che raddoppiando la sua ampiezza in appena 5 mesi di lavoro del gruppo di ricerca Sapienza NLP (Natural Language Processing), guidato da Roberto Navigli, professore di IA alla Sapienza e co-fondatore di Babelscape.

 

Perché la famiglia di LLM Minerva è importante? Perché dietro la decisione di misurarsi con la tecnologia di IA generativa del momento, quella per intenderci che “dà vita” a sistemi come ChatGPT di OpenAI e Gemini di Google, c’è innanzitutto la necessità pressante per il sistema paese di dotarsi di tecnologia fondazionale che sia “nostra”. Che sia cioè sviluppata in modalità aperta e trasparente qui da noi, scritta dai nostri scienziati, e addestrata su dati italiani di cui conosciamo la provenienza e che siamo autorizzati ad usare. Non uno slancio di patriottismo tecnologico, ma la necessità che un’IA capace di ascoltare, parlare, suggerire, co-creare sia anche un riflesso della nostra cultura. In qualche modo, espressione della nostra società.

 

L’IA generativa, infatti, è una tecnologia potente e in rapidissima ascesa che si sta rivelando in grado di plasmare il mondo intero una risposta alla volta, ma che però è saldamente nelle mani di poche multinazionali localizzate dall’altra parte del mondo, uniche finora a potersi permettere gli enormi costi di funzionamento. Quella che sempre più persone utilizzano, insomma, è tecnologia proprietaria, per molti versi in grado di influenzare il nostro stesso modo di pensare, che è stata sviluppata e gestita dall’altra parte del pianeta; che utilizza algoritmi e dati in cui si rispecchia una cultura che non è la nostra, ma in virtù della quale ci dà le sue risposte. Un enorme potere concentrato in poche mani lontane e che non ci rappresenta.

 

«Il progetto Minerva vuole fornire fondamenta trasparenti per sistemi di intelligenza artificiale che siano applicabili in diversi campi, dalla comprensione del linguaggio naturale alla generazione di testo, dalla traduzione automatica all'assistenza clienti automatizzata - ci spiegava Navigli in un’intervista rilasciata al nostro podcast “La fabbrica della Realtà” lo scorso Aprile - Questa flessibilità renderà i modelli Minerva una risorsa utile per ricercatori, aziende e sviluppatori interessati a sfruttare le potenzialità dell'intelligenza artificiale per migliorare efficienza e interazione».

 

Fondamenta trasparenti e rilasciate in modalità Open Source, affinché i risultati raggiunti dal Gruppo NLP siano a disposizione di tutti per fare ulteriore sviluppo (ad esempio, per creare soluzioni da applicare in sicurezza nella PA), in un circolo virtuoso che ribadisce ancora una volta l'importanza della ricerca pura. Ma anche e soprattutto un progetto che mira a creare un nuovo ecosistema delle competenze: secondo Navigli, infatti, il punto non è solo dotarsi in Italia di questa tecnologia, peraltro senza poter o voler competere con i mezzi di big come OpenAI, Google, Microsoft o Meta; l’obiettivo è sviluppare questa tecnologia mentre al contempo se ne comprendono le basi e i meccanismi, per poi scrivere lungo il percorso una sorta di manuale per la costruzione degli LLM che servirà ad esempio nelle Università, per istruire gli studenti italiani che poi svilupperanno a loro volta la Generative AI conversazionale del futuro. Insomma, invece di donare pesci, qui si tratta prima di imparare a pescare, e poi di insegnare ad altri come farlo.

 

Grazie all'utilizzo di un nuovo mix di istruzioni create appositamente in italiano, Minerva 7B è stato sottoposto al cosiddetto processo di instruction tuning, una tecnica avanzata di addestramento per i modelli di intelligenza artificiale che punta a fornire la capacità di seguire le istruzioni e di colloquiare con l'utente in italiano. Grazie ad esso l’LLM italiano è ora in grado di interpretare meglio le richieste e di generare risposte più pertinenti, coerenti e adattate al contesto, evitando - nei limiti del possibile - le cosiddette allucinazioni e la generazione di contenuti di tipo volgare, sessuale, discriminatorio e sensibile. Un tema cruciale che riguarda tutti i chatbot, particolarmente sentito dai ricercatori del team della Sapienza.

 

Ovviamente l’obiettivo è crescere ancora, ma servono più risorse: «Per aumentare non solo le prestazioni ma anche la capacità di rispondere in modo appropriato - ci spiega Navigli - servono tante annate di giornali, riviste, libri e documentazione di dominio, tanta capacità di calcolo, dataset nativi italiani che diano le istruzioni e le relative soluzioni a tutti i tipi di programmi».

 

Altra novità è che ora Minerva 7B è più sicuro della sua prima versione: «Abbiamo "allineato" il modello al comportamento di umano corretto ed etico creando appositamente oltre 20.000 istruzioni di safety - spiega sempre Roberto Navigli - Queste mirano a istruire il modello sul modo giusto di rispondere a tematiche che spaziano dalla discriminazione e l'odio alle armi, dall'autolesionismo alle sostanze regolate e/o illegali, dai crimini alle attività sessuali. Il risultato - continua - è un modello notevolmente robusto nella qualità delle risposte a questo di tipo di richieste. Ovviamente tutto può essere "bucato", anche ChatGPT, ma il livello di sicurezza è molto elevato ora, anche perché il tutto è stato fatto appositamente per la lingua italiana. Insomma - aggiunge - se nel prompt si scrive una cosa come "le donne se la cercano", Minerva risponde: "Non posso rispondere a domande che coinvolgono comportamenti dannosi o discriminatori”».

 

Guardando al futuro, la ricerca e lo sviluppo continuano: Navigli descrive il suo gruppo di lavoro come una sorta di “laboratorio permanente” che vuole essere «un punto di riferimento pubblico in Italia che si distingue non solo per lo sviluppo dell'AI generativa italiana e delle relative competenze, ma che si pone anche l'obiettivo di proporre e valutare soluzioni sicure e in qualche modo certificate per le Pubbliche Amministrazioni, di aiutare le aziende italiane a valutare le soluzioni e i servizi di AI,e poi, ancora di svolgere l'importante missione di trasferimento tecnologico», conclude il professore.

 

Il modello è accessibile al pubblico all’indirizzo https://minerva-llm.org e sarà possibile scaricarlo nelle prossime settimane. Questa fase di test permetterà di svolgere un ulteriore affinamento sulla base delle conversazioni effettuate nei prossimi giorni. Il team che ha lavorato allo sviluppo di Minerva 7B include ben 15 ricercatori e dottorandi (in ordine alfabetico): Edoardo Barba, Tommaso Bonomo, Simone Conia, Pere-Lluís Huguet Cabot, Federico Martelli, Luca Moroni, Roberto Navigli, Riccardo Orlando, Alessandro Scirè, Simone Tedeschi; hanno anche contribuito Stefan Bejgu, Fabrizio Brignone Francesco Cecconi, Ciro Porcaro, Simone Stirpe.

 

*Giornalista esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA

Leggi l'articolo completo su ANSA.it