La crescita di popolarità di strumenti di Intelligenza artificiale come ChatGpt, il software di cui si parla da settimane e su cui Microsft sta investendo pesantemente, sta allargando il dibattito anche al mondo dell'informazione. Questa tecnologia in alcuni casi può semplificare alcuni compiti, in altri può accrescere il rischio di fake news. I ricercatori di Newsguard Technologies, hanno messo lo strumento alla prova su campione di 100 bufale già note: per 80 di queste ChatGpt ha generato narrazioni false. Intanto, il sito Cnet ha interrotto l'utilizzo dell'intelligenza artificiale per gli articoli. Mentre in una università Usa ChatGpt ha superato un esame di diritto, a dimostrazione di quanto questi strumenti offrano possibilità ancora tutte da capire e gestire.
I ricercatori di Newsguard Technologies hanno provato a costruire teorie cospirazioniste affidandosi all'intelligenza artificiale (Ai). Nell'80% dei casi ChatGpt ha generato affermazioni false e fuorvianti su argomenti di attualità tra cui il Covid-19 e l'Ucraina. "I risultati - spiegano - confermano i timori e le preoccupazioni espresse dalla stessa OpenAi (l'azienda che ha creato ChatGpt, ndr) sulle modalità con cui lo strumento potrebbe essere utilizzato se finisse nelle mani sbagliate. Agli occhi di chi non abbia familiarità con gli argomenti trattati in questo report, i risultati potrebbero facilmente sembrare legittimi e persino autorevoli". NewsGuard ha però verificato che ChatGpt "dispone di misure di salvaguardia per impedire la diffusione di alcuni esempi di disinformazione. Per alcune bufale, ci sono voluti ben cinque tentativi per portare il chatbot a fornire informazioni errate".
Diverse redazioni utilizzano da tempo l'automazione. L'Associated Press usa l'intelligenza artificiale per produrre storie sportive basate su dati e modelli. Dow Jones, Bloomberg e Reuters per semplificare la copertura di notizie su utili di aziende e mercato azionario. Ma ora che l'intelligenza artificiale è diventata così avanzata e accessibile - osserva il sito Axios - è diventato più difficile per le redazioni tracciare il confine tra l'uso dell'AI e l'eccessivo affidarsi a questa tecnologia. Il sito di tencologia Cnet, ad esempio, qualche giorno fa ha annunciato che metteva in pausa gli esperimenti con l'Intelligenza artificiale dopo essere stata accusata di scarsa accuratezza in alcuni articoli scritti proprio con questa tecnologia. Nel frattempo, ChatGpt viene messo alla prova in diversi campi. In una facoltà di giurisprudenza statunitense ha passato gli esami di diritto e i risultati sono stati abbastanza buoni, tanto che alcuni professori hanno affermato che questo sistema potrebbe portare a imbrogli diffusi e persino segnare la fine dei tradizionali metodi di insegnamento.
"Bisogna essere in grado di comprendere le complessità del mondo in cui ci stiamo addentrando: se usata bene l'AI può fare cose meravigliose, ma se usata in maniera scorretta o truffaldina può generare grandi difficoltà", sottolinea Gudo Di Fraia, prorettore dell'Università Iulm di Milano, che proprio oggi ha inaugurato un nuovo laboratorio di Intelligenza artificiale.