(ANSA) - ROMA, 27 NOV - Minerva, la risposta italiana
all'Intelligenza Artificiale come ChatGpt, cresce e diventa più
sicura: si chiama Minerva7B, dove 7B sta per 7 miliardi di
parametri, più del doppio di quella precedente. L'ultima
versione dell'Intelligenza Artificiale interamente addestrata da
zero in italiano, sotto la guida di Roberto Navigli del Natural
Language Processing dell'Università Sapienza di Roma, è stata
presentata oggi nella stessa università.
Accessibile per tutti all'indirizzo https://minerva-llm.org
, Minerva7B è un progetto sviluppato dal gruppo di ricerca
Sapienza Nlp all'interno del Future Artificial Intelligence
Research, il progetto che realizza la strategia nazionale
sull'intelligenza artificiale grazie ai fondi Pnrr, e in
collaborazione con Cineca che ha reso disponibile il
supercomputer Leonardo.
"Oggi presentiamo il primo modello pre-addestrato in
lingua italiana stile ChatGpt, quindi un modello linguistico,
che si chiama Minerva 7B", ha detto Navigli. "E' un modello che
è addestrato anche per rispondere a domande e istruzioni,
comandi ed è particolarmente interessante perché abbiamo fatto
un lavoro importante sulla sicurezza del modello, la cosiddetta
safety, cioè la capacità del modello di evitare e rispondere a
domande che potrebbe portare alla generazione di contenuti
indesiderati o malevoli".
Evoluzione e miglioramento del precedente modello che
contava 3 miliardi di parametri, Minerva 7B ha una maggior
capacità di memorizzazione e rielaborazione dei testi, sempre
basata su fonti aperte di dati che spaziano da Wikipedia e
grandi archivi aperti di libri come il progetto Gutemberg. "A
differenza di ChatGpt o Gemini, che sono modelli chiusi così
come anche Mistral o Llama3 che sono scaricabili, Minerva
appartiene a quella ristretta famiglia di modelli aperti, ossia
che è possibile analizzare liberamente", ha aggiunto Navigli. .
(ANSA).
Minerva 7B, nuova versione della risposta italiana a ChatGpt
Ha 7 miliardi di parametri, più del doppio di quella precedente