L'Intelligenza Artificiale alla base dei grandi modelli linguistici, i cosiddetti Large Language Model come ChatGpt, è scollegata dalla realtà, e dunque non comprende davvero il mondo nel quale viviamo: ciò significa che può facilmente commettere errori grossolani, quelli che vengono chiamati 'allucinazioni'. Lo sottolinea Roberto Navigli, professore dell'Università Sapienza di Roma che si occupa di elaborazione del linguaggio.
Il ricercatore è intervenuto al convegno sull'impatto dell'IA sull'industria degli audiovisivi e della fotografia, organizzato a Roma dall'ANSA in collaborazione con Deloitte Italia. L'evento è stato realizzato insieme ad Anica (Associazione Nazionale Industrie Cinematografiche, Audiovisive e Digitali), e Airf (Associazione Italiana Reporters Fotografi).
"I modelli linguistici non ragionano come gli esseri umani, questo è il tema più importante", dice Navigli. "Un altro tema fondamentale è quello dei dati: "Gli Llm hanno bisogno di leggere migliaia di miliardi di parole: per fare un confronto, un buon lettore può leggere circa 200mila parole a settimana - afferma il ricercatore - quindi meno di un miliardo in un tutta la vita. Gli Llm, inoltre, parlano di cose che non hanno mai visto e vissuto: noi, invece, dobbiamo collegare il linguaggio alla nostra esperienza".
Gli altri punti chiave sottolineati riguardano la tutela del diritto d'autore, la sostenibilità e la sicurezza, cioè la capacità di questi modelli di generare testi o immagini indesiderabili. "Noi veniamo da un'IA che sa svolgere un solo compito, mentre stiamo andando verso un'IA che sa svolgere tanti compiti - aggiunge Navigli - Siamo ancora a metà strada di questo percorso".