di Alessio Jacona*
L'immagine dell’ex presidente Donald Trump che marcia alla testa di un’immensa folla osannante tra bandiere a stelle e strisce, e quelle del suo rocambolesco arresto durante il quale viene trascinato via con la forza. Lo scatto che ritrae il presidente francese Emmanuel Macron nel mezzo degli scontri di piazza a Parigi contro la riforma delle pensioni, e quelli in cui il presidente russo Vladimir Putin si vede ferito a terra, sul terreno di battaglia, oppure in ginocchio, nell’atto di baciare la mano del presidente della Repubblica Popolare Cinese Xi Jinping. E poi, ancora, il reportage dall’Ucraina devastata dalla guerra, tanto bello quanto falso, di Barbara Zanon, fotografa veneziana che ha creato le immagini per rilanciare il dibattito su rischi e opportunità legati all’uso dell’IA.
I rischi delle IA generative
Tutte queste “foto”, insieme con la miriade che ritraggono Papa Francesco vestito con capi alla moda, a ballare in discoteca o persino a fare parkour, hanno almeno tre cose in comune: sono false, ma sono abbastanza realistiche da poter ingannare il pubblico, specie se fruite sui social, magari condivise senza commenti da un contatto di cui ci si fida; sono state create con intelligenze artificiali generative come DALL-E, Stable Diffusion e soprattutto Midjourney, giunto alla potentissima versione 5; soprattutto, possono essere potenzialmente utilizzate per manipolare, orientare o anche solo confondere l’opinione pubblica. Di fatto, siamo entrati in una nuova era della propaganda.
Più fake news per tutti
Certo, il problema della fake news, delle notizie e dei contenuti falsi creati ad arte per ingannare le persone, non è cosa di oggi, ed è anzi vecchio come la comunicazione stessa. Ma è la prima volta nella storia dell'umanità che per crearne si dispone di strumenti così potenti e allo stesso tempo così facili da usare, accessibili praticamente da chiunque abbia una connessione in rete e la disponibilità per pagare un piccolo abbonamento mensile. E, soprattutto, utilizzabili senza bisogno di avere alcuna competenza informatica: nella maggior parte dei casi basta scrivere un “prompt”, cioè un testo che descrive quali caratteristiche deve avere l’immagine, darlo in pasto all’IA, ed il gioco è fatto. Non serve neanche sapere l’inglese, perché questi sistemi riconoscono e comprendono già decine di lingue, italiano compreso.
Una questione politica
Le foto false dell’arresto di Trump - create per gioco da Eliot Higgins, fondatore della piattaforma di giornalismo investigativo Bellingcat, e subito diventate virali - hanno scaldato gli animi di molti suoi sostenitori nei giorni precedenti al sua sua incriminazione (questa volta reale) per 34 capi d’accusa, inclusi i pagamenti illegali di 130 mila dollari per comprare il silenzio della pornostar Stormy Daniels durante la sua campagna elettorale. Quelle del Papa “viveur” e amante della vita mondana hanno in parte divertito, in parte scandalizzato quanti le hanno scambiate inizialmente per vere. Prevedibilmente, sono state rilanciate dai suoi detrattori, nell’intento di minarne l’immagine e indebolirne l’autorità di fronte a un pubblico mediamente impreparato a riconoscere l’inganno. Sono solo due esempi, che tuttavia spiegano bene quanto la diffusione rapidissima di queste tecnologie - che pure consentono di fare meraviglie - possa rivelarsi estremamente pericolosa se non governata, in quanto capace di avere un impatto significativo sulla vita economica, sociale e politica di un paese.
C’è ancora (un po’ di) tempo
La buona notizia è che abbiamo ancora un po’ di tempo per prendere provvedimenti, definire regole, impostare una vasta operazione culturale che renda tutti i cittadini più consapevoli nell’uso degli strumenti di IA, perché queste tecnologie sono ancora imperfette e possono ancora essere smascherate. È successo ad esempio con la falsa immagine di Trump che marcia alla testa dei suoi elettori: condivisa dal figlio Eric su Twitter, accompagnata dalla frase “Unico nel suo genere” (One of a Kind) senza nessun'altra spiegazione, all’8 di aprile è stata vista quasi 10 milioni di volte, ritwittata 23mila volte e commentata da quasi 26mila persone. Leggendo le reazioni, si scopre sia che molti commenti sono critici o di scherno, perché ad esempio i volti delle persone nella folla sono deformi e quindi chiaramente frutto di un errore dell’IA generativa, sia che non mancano coloro che hanno scambiato l’immagine per vera o che si limitano a rilanciarla per sostenere Trump, contribuendo alla sua diffusione.
In continua evoluzione
La domanda è cosa accadrà con la prossima versione di queste IA, o con quella successiva, quando saranno cioè in grado di generare immagini quasi perfette. Ed è questione di mesi, non di anni: la versione 5 di ChatGPT - che secondo alcuni esperti potrebbe essere indistinguibile dall’uomo - dovrebbe essere rilasciata il prossimo inverno, mentre Midjourney 6 potrebbe arrivare entro fine anno. In barba agli appelli a frenare per sei mesi lo sviluppo dell’Intelligenza artificiale - firmati dai protagonisti del settore e persino da Elon Musk - e nonostante l’intervento del Garante per la Privacy italiano, che per il momento ha fatto bloccare in Italia l’accesso a ChatGPT, il Large Language Model di OpenAI, chiedendo maggiori garanzie per i dati degli utenti e ispirando anche altri paesi come Canada, Germania, Francia e Irlanda.
Oltre le foto: la voce (e poi il video)
E se ciò che si può fare con le immagini preoccupa, discorso a parte merita la questione dell’audio, o meglio della voce, e di come essa possa essere contraffatta in maniera già oggi praticamente perfetta. Sono già numerosi, infatti, i servizi online basati su intelligenza artificiale che sono in grado di clonare una voce qualsiasi, completa di tono, timbro e cadenza, basandosi su pochi minuti di registrato. Nati per scopi più che encomiabili, tra cui restituire la voce a chi l’ha persa (come all’attore Val Kilmer in “Top Gun: Maverick”), oppure consentire ad un attore di “leggere” ad alta voce decine di libri in pochi minuti, questi servizi possono facilmente essere sfruttati per scopi criminali o per nuocere ai propri nemici.
È già successo anche questo: quando, lo scorso gennaio, l’azienda IIElevenLabs ha aperto al pubblico in beta la sua piattaforma di sintesi vocale, subito qualcuno ha pensato di sfruttarla per far leggere a Hillary Clinton un testo transfobico, far dire Bill Gates che il vaccino contro la COV1D-19 causa l'AIDS e poi, ancora, per far leggere all'attrice Emma Watson, (l’Hermione di Harry Potter), il Mein Kampf di Adolf Hitler. Del resto, una voce creata dall’IA legge qualsiasi testo gli si dà in pasto, senza fare domande.
Non fermare, ma governare l’IA
È impossibile fermare il progresso dell’intelligenza artificiale, almeno tanto quanto lo è fermare il vento con le mani. I sistemi esistenti si evolveranno in nuovi ancora più potenti, entreranno in gioco altri player (come Google con il suo Bard), e con dei semplici prompt sarà presto possibile creare non solo immagini, ma anche video credibili (anche se quest’ultima tecnologia è ancora indietro rispetto alle altre). La nostra capacità di usare queste tecnologie potentissime come strumenti di progresso o di distruzione (del lavoro, della conoscenza, della fiducia) dipende dalle scelte che faremo adesso per governarne l’evoluzione e indirizzarne l’uso. Scelte che dovremo fare in fretta e con cautela, prima di ritrovarci in un mondo in cui non basta più vedere (e persine ascoltare) per credere.
*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale
Leggi l'articolo completo su ANSA.it