/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Da Minerva 7B la risposta italiana a ChatGpt

Da Minerva 7B la risposta italiana a ChatGpt

Campione italiano dei modelli linguistici, ideale per la PA

27 novembre 2024, 10:51

di Leonardo De Cosmo

ANSACheck
Da Minerva 7B la risposta italiana a ChatGpt.  Foto di Gerd Altmann da Pixabay - RIPRODUZIONE RISERVATA

Da Minerva 7B la risposta italiana a ChatGpt. Foto di Gerd Altmann da Pixabay - RIPRODUZIONE RISERVATA

Si chiama Minerva 7B, dove 7B sta per i 7 miliardi di parametri che ne sono il cuore, ed è la risposta italiana all’Intelligenza Artificiale capace di produrre testi e comunicare, proprio come ChatGpt ma interamente addestrata da zero in italiano. A svilupparla è stato il gruppo di ricerca Sapienza Nlp guidato da Roberto Navigli, nell'ambito del Future Artificial Intelligence Research, il progetto che realizza la strategia nazionale sull’intelligenza artificiale grazie ai fondi Pnrr, e in collaborazione con Cineca che ha reso disponibile il supercomputer Leonardo.

“Oggi presentiamo un nuovo passo importante del primo modello pre-addestrato in lingua italiana stile ChatGpt, quindi un modello linguistico, che si chiama Minerva 7B, ossia sviluppato usando ben 7 miliardi di parametri”, ha detto Navigli in occasione della presentazione che si è svolta alla Sapienza. Minerva è una famiglia di modelli linguistici, gli Llm come Llama3, Gemini e ChatGpt, che a differenza dei suoi predecessori è interamente aperto, ossia è possibile analizzarne liberamente il codice, così da studiarlo o migliorarlo. “Inoltre abbiamo fatto un lavoro importante sulla sicurezza, la cosiddetta safety, cioè la capacità del modello di evitare e rispondere a domande che potrebbe portare alla generazione di contenuti indesiderati o malevoli”, ha aggiunto. 

Minerva 7B è un importante passo in avanti dopo i primi modelli presentati lo scorso aprile che può essere oggi usata da chiunque registrandosi alla pagina https://minerva-llm.org/auth. Oltre 5 mesi di lavoro in cui il modello è stato sottoposto al cosiddetto processo di instruction tuning, una tecnica avanzata di addestramento per i modelli di IA che mira a fornire la capacità di seguire le istruzioni e di colloquiare con l'utente in italiano, evitare il più possibile eventuali ‘allucinazioni’ e la generazione di contenuti di tipo volgare, sessuale, discriminatorio e sensibile. 

 A causa delle sue dimensioni relativamente ridotte, appena 7 miliardi di parametri contro le varie decine di ChatGpt, Minerva non può essere considerato un vero e proprio competitor degli Llm più noti e usati ma in un contesto in cui ogni paese sta identificando progetti di IA di rilevanza nazionale, ad esempio la IA sviluppata da Mistral in Francia, “crediamo che il nostro campione nazionale possa essere Minerva”, ha detto Giuseppe Di Pietro, presidente di Fair. Un progetto che dunque possa essere la base per lo sviluppo di un ecosistema di IA tutto italiano. “Inoltre – ha aggiunto Di Pietro – crediamo davvero che Minerva abbia tutte le potenzialità per diventare il Large Language Model di riferimento per la Pubblica Amministrazione e lavoreremo come Fondazione per valorizzarlo”.

 

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza