Di Alessio Jacona*
L’intelligenza artificiale è qui per aiutare l’umanità oppure per distruggerla? Con il successo e la diffusione crescenti di questa tecnologia, il dibattito sul suo utilizzo sembra sempre più polarizzato tra pro e contro, tra entusiasti e catastrofici. Ma la questione è davvero così semplice? «Contrariamente agli avvertimenti apocalittici dei magnati della tecnologia, l'IA non è un nemico fantascientifico che vuole distruggere il suo creatore - spiega Andrew McIntyre ricercatore post-dottorato presso l'Università di Amsterdam (UvA) e membro del Progetto SOLARIS - Piuttosto, l'IA riflette e amplifica lo stato di fragilità della nostra società e queste paure esagerate non fanno altro che distrarre dai problemi reali e complessi che la tecnologia pone: dai pregiudizi alla discriminazione, dalla disinformazione al disimpegno democratico».
SOLARIS è un progetto di ricerca europeo, di cui fa parte anche ANSA, che nei prossimi tre anni punta e definire metodi e strategie per gestire i rischi, le minacce ma anche le opportunità che le intelligenze artificiali generative portano alla democrazia, all'impegno politico e alla cittadinanza digitale. Come ricercatore, McIntyre studia l’impatto culturale dell'arte e dei media generati dall'intelligenza artificiale; nell’ambito specifico di SOLARIS, dove lavora a fianco di Federica Russo, la sua ricerca si concentra sulle sfide e le opportunità democratiche che i media generati dall'IA possono presentare, in particolare i deepfakes.
«L'intelligenza artificiale non è un semplice problema tecnologico - spiega - ma piuttosto un problema sociale ricco di sfumature e per risolverlo abbiamo bisogno di un dibattito e di una discussione pubblica più articolati. Tra i tanti progetti di ricerca, Solaris sta cercando di contribuire a questa discussione sviluppando una comprensione più dettagliata dell'IA generativa che comprenda i vari fattori sociali, culturali e politici in gioco».
Il progetto durerà tre anni ed è appena iniziato: su cosa vi state concentrando in questa fase?
Poiché Solaris è ancora agli inizi, stiamo lavorando per comprendere i fattori che possono influenzare le modalità di produzione, circolazione e ricezione dei deepfakes. Si tratta di una serie di fattori eterogenei, tra cui le qualità tecniche, i quadri giuridici e le influenze sociali, politiche e psicologiche. All'UvA stiamo lavorando per riunire tutti questi diversi fattori in un nuovo approccio di sistema, in modo da poter capire esattamente perché le persone sono più o meno propense a fidarsi di un deepfake.
Spesso si parte dal presupposto che se un deepfake è tecnicamente abbastanza accurato, sarà facile ingannare le persone. Tuttavia, stiamo scoprendo che ci sono molti fattori diversi in gioco nell'ambiente sociale di una persona, tra cui le sue convinzioni personali o politiche, l'uso dei social media e la cultura in cui vive.
Ha un esempio?
Ciò che mi interessa particolarmente è il ruolo delle narrazioni mediatiche in generale. Per esempio, dato ciò che ho letto e visto dell'attore Tom Cruise nei media, è probabile che io creda che un deepfake che lo mostra mentre balla su TikTok sia reale. Tuttavia, è improbabile che creda a un analogo deepfake di Vladimir Putin che balla, sulla base di ciò che conosco dell'uomo, indipendentemente da quanto possa apparire accurato o convincente. Si tratta di un aspetto difficile da discutere, per non dire da quantificare e misurare, così come molti altri fattori sociali che stiamo analizzando.
Una volta identificati i fattori in gioco, dobbiamo trovare un modo per testarli e analizzarli per capire quali sono importanti e da lì possiamo iniziare a formulare raccomandazioni d'impatto. Ma questo è molto più avanti.
È vero, come affermano alcuni magnati della tecnologia, che l'IA è una minaccia e un pericolo per l'esistenza umana?
L'IA presenta innegabili pericoli e certamente è necessaria una maggiore regolamentazione e cooperazione tra i governi per garantire la sicurezza. Tuttavia, molti di questi pericoli derivano dall'eccessivo affidarsi all'IA, dal suo uso inappropriato e dalla sopravvalutazione delle sue capacità. In breve, derivano dal fraintendimento di ciò che l'IA è davvero.
Purtroppo, la narrazione popolare che molti esponenti dell'industria tecnologica, dei media e della politica stanno portando avanti in questo momento sembrerebbe travisare l'IA come una sorta di villain cinematografico in stile Skynet che un giorno sfuggirà di mano, si ribellerà ai suoi padroni e distruggerà l'umanità. È una bella storia semplice che unisce tutta l'umanità contro un male comune, ma appartiene alle pagine della fantascienza piuttosto che alla realtà. Questa concezione comune dell'IA è completamente diversa dalle diverse tecnologie del mondo reale denominate "IA" che utilizziamo ogni giorno e che hanno un impatto negativo sulla vita delle persone, in particolare di quelle più vulnerabili e sottorappresentate nella società.
Di quali impatti negativi stiamo parlando?
Sebbene questi avvertimenti apocalittici possano avere buone intenzioni, essi generalizzano eccessivamente i problemi dell'IA come una minaccia esistenziale ed esclusivamente tecnologica per tutta l'umanità e, così facendo, mettono in ombra le ingiustizie sociali più complesse e specifiche che le tecnologie dell'IA esacerbano, come la sorveglianza, la discriminazione e la manipolazione. Le risorse per la ricerca e la politica sono limitate e quindi, concentrandosi sulla minaccia esistenziale dell'IA, molti di questi problemi immediati vengono messi da parte. Inoltre, questa narrazione apocalittica rischia anche di ispirare paura nel pubblico e una riluttanza ad accettare gli usi positivi delle tecnologie dell'IA. Nel corso degli anni, sono stati lanciati molti appelli per affrontare questi problemi da parte di eminenti eticisti dell'IA come Timnit Gebru, Emily Bender e Meredith Whittaker, ma troppo spesso questi appelli sono stati ignorati a favore della narrazione della minaccia esistenziale.
Quindi sì, l'IA potrebbe essere una minaccia, ma in un modo molto diverso da quello che potremmo pensare. E l'unico modo per garantire che non sia una minaccia per gli esseri umani è avere una discussione pubblica più equilibrata e articolata. Purtroppo, questi appelli dei magnati della tecnologia e di altri stanno rendendo tutto ciò molto più difficile.
Quali sono i problemi reali e immediati che le tecnologie AI stanno ponendo?
Potrebbe fornire alcuni esempi?
Con Solaris crediamo che l'impatto dell'IA generativa sulla democrazia sia un problema reale e immediato. Non nel senso che qualche IA dominatrice sorgerà per opprimere l'umanità, ma piuttosto perché le attuali tecnologie dell'IA stanno contribuendo a una graduale erosione dei valori e delle istituzioni democratiche. Naturalmente, questa erosione non è direttamente osservabile, ma è il risultato di una serie di altri problemi.
Il principale è il fatto, ben documentato, che molte tecnologie di IA perpetuano e amplificano pregiudizi e discriminazioni. Ad esempio, i programmi di riconoscimento facciale sono diventati famosi per aver identificato erroneamente uomini di colore come criminali, mentre programmi linguistici come ChatGPT continuano a mostrare pregiudizi espliciti e impliciti nei loro risultati, nonostante le protezioni e i filtri. I pregiudizi e le discriminazioni sono un problema immediato e incredibilmente dannoso per gli individui e le comunità, e contribuiscono ulteriormente all'erosione della democrazia diffondendo falsità divisive e scoraggiando i membri delle comunità sottorappresentate dal partecipare alla politica.
E poi c'è la disinformazione...
Oltre ai pregiudizi, l'IA generativa può anche esacerbare i problemi di disinformazione. Probabilmente tutti abbiamo visto dei deepfakes online, come Putin che apparentemente annunciava l'evacuazione delle regioni russe confinanti con l'Ucraina o Volodymyr Zelenskyy che annunciava la resa delle forze ucraine, ma questi casi di alto profilo sono spesso facilmente sfatati. Tuttavia, man mano che questa tecnologia diventa più accessibile, potrebbero esserci più disinformazioni su scala minore che passano inosservate, come le interferenze nelle elezioni locali. Inoltre, con la crescente sofisticazione dei modelli linguistici come ChatGPT, Internet potrebbe essere inondato di articoli di notizie artificiali, fotografie e documenti accademici che sostengono concetti falsi e promuovono narrazioni politiche estremiste.
Ancora più preoccupante, tuttavia, è il clima di incertezza in cui viviamo. L'arrivo dei media generati dall'intelligenza artificiale sta rendendo più difficile per la persona media decidere cosa è reale e sta incoraggiando le persone a mettere in discussione fonti di informazione e istituzioni precedentemente fidate, con conseguenze potenzialmente disastrose. Questo è già successo nel 2018 quando, dopo una prolungata assenza dalla vita pubblica, il presidente gabonese Ali Bongo Ondimba ha pubblicato un discorso video che molti sospettavano essere un deepfake per nascondere la salute o la morte del presidente. Citando questo come prova dell'inganno, l'esercito gabonese ha lanciato un fallito colpo di stato contro il governo.
Tuttavia, incidenti violenti come questo sono un caso estremo. È più probabile che si tratti di un lento declino della partecipazione democratica, poiché i cittadini iniziano a sentirsi incapaci di credere ai propri occhi e di prendere decisioni politiche, diventando più suscettibili all'influenza di figure autoritarie e populiste.
In che modo il progetto Solaris affronterà questi problemi e come contribuirà a risolverli? Qual è la vostra tabella di marcia in questo primo anno?
Come già detto, l'impatto democratico dell'IA generativa è un problema molto ampio e complesso, che in realtà si compone di vari problemi distinti. Per iniziare ad affrontare la questione, dobbiamo capire perché le persone si fidano o meno dei deepfakes e quali sono i fattori importanti in gioco nella loro produzione, circolazione e ricezione. Una volta compreso questo, potremo iniziare a sperimentare e a conoscere più nel dettaglio questi diversi fattori e sviluppare innovazioni normative per mitigare i rischi politici e promuovere la democrazia digitale.
In questo primo anno, ci siamo concentrati sull'apprendimento di ciò che possiamo sull'IA generativa e sulla diffusione dei media generati dall'IA online, mentre altri colleghi stanno lavorando alla modellazione tecnica per i nostri esperimenti del prossimo anno. Nel frattempo, osserviamo gli sviluppi, poiché la discussione sull'IA si sta muovendo rapidamente e chissà dove sarà il dibattito tra qualche mese.
L’AI Act è quasi pronto: come pensa che influirà sul mercato dell'IA? Avrà un impatto sul progetto Solaris? Se sì, come?
Su come influirà sul mercato dell'IA: non ne sono del tutto sicuro, ma credo che qualsiasi nuova normativa che affronti in modo specifico le problematiche uniche delle tecnologie di IA sia positiva. Potrebbe rendere le cose più difficili per le aziende nel breve periodo ma, in ultima analisi, credo che una regolamentazione più severa aiuterà a combattere i rischi che ho menzionato e incoraggerà anche le persone a credere che questa tecnologia possa essere gestita e utilizzata in modo appropriato per il bene.
Per quanto riguarda l'impatto di Solaris, siamo molto ansiosi di scoprirlo nei prossimi mesi, poiché la regolamentazione è il modo migliore per iniziare ad affrontare questi ampi problemi sociali. Oltre alla nostra ricerca, stiamo iniziando a contattare altre organizzazioni all'interno dell'UE per vedere come la nostra ricerca possa allinearsi con l'AI Act e i suoi obiettivi, e anche come le nostre future innovazioni normative possano svilupparsi su di esso.
*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it
Riproduzione riservata © Copyright ANSA