Si chiama Minerva 7B, dove 7B sta per i 7 miliardi di parametri che ne sono il cuore, ed è la risposta italiana all’Intelligenza Artificiale capace di produrre testi e comunicare, proprio come ChatGpt ma interamente addestrata da zero in italiano. A svilupparla è stato il gruppo di ricerca Sapienza Nlp guidato da Roberto Navigli, nell'ambito del Future Artificial Intelligence Research, il progetto che realizza la strategia nazionale sull’intelligenza artificiale grazie ai fondi Pnrr, e in collaborazione con Cineca che ha reso disponibile il supercomputer Leonardo.
“Oggi presentiamo un nuovo passo importante del primo modello pre-addestrato in lingua italiana stile ChatGpt, quindi un modello linguistico, che si chiama Minerva 7B, ossia sviluppato usando ben 7 miliardi di parametri”, ha detto Navigli in occasione della presentazione che si è svolta alla Sapienza. Minerva è una famiglia di modelli linguistici, gli Llm come Llama3, Gemini e ChatGpt, che a differenza dei suoi predecessori è interamente aperto, ossia è possibile analizzarne liberamente il codice, così da studiarlo o migliorarlo. “Inoltre abbiamo fatto un lavoro importante sulla sicurezza, la cosiddetta safety, cioè la capacità del modello di evitare e rispondere a domande che potrebbe portare alla generazione di contenuti indesiderati o malevoli”, ha aggiunto.
Minerva 7B è un importante passo in avanti dopo i primi modelli presentati lo scorso aprile che può essere oggi usata da chiunque registrandosi alla pagina https://minerva-llm.org/auth. Oltre 5 mesi di lavoro in cui il modello è stato sottoposto al cosiddetto processo di instruction tuning, una tecnica avanzata di addestramento per i modelli di IA che mira a fornire la capacità di seguire le istruzioni e di colloquiare con l'utente in italiano, evitare il più possibile eventuali ‘allucinazioni’ e la generazione di contenuti di tipo volgare, sessuale, discriminatorio e sensibile.
A causa delle sue dimensioni relativamente ridotte, appena 7 miliardi di parametri contro le varie decine di ChatGpt, Minerva non può essere considerato un vero e proprio competitor degli Llm più noti e usati ma in un contesto in cui ogni paese sta identificando progetti di IA di rilevanza nazionale, ad esempio la IA sviluppata da Mistral in Francia, “crediamo che il nostro campione nazionale possa essere Minerva”, ha detto Giuseppe Di Pietro, presidente di Fair. Un progetto che dunque possa essere la base per lo sviluppo di un ecosistema di IA tutto italiano. “Inoltre – ha aggiunto Di Pietro – crediamo davvero che Minerva abbia tutte le potenzialità per diventare il Large Language Model di riferimento per la Pubblica Amministrazione e lavoreremo come Fondazione per valorizzarlo”.
Leggi l'articolo completo su ANSA.it