03. SOLARIS

La generative AI è un pericolo per la Democrazia? Dipende da noi

Secondo Izidor Mlakar, scienziato alla guida del team di ricerca HUMADEX, l’intelligenza artificiale ci deve preoccupare quando si somma alla scarsa alfabetizzazione digitale

La generative AI è un pericolo per la Democrazia? Dipende da noi

Redazione Ansa

L’intelligenza artificiale è un pericolo per la democrazia? Forse non di per sé, ma lo diventa se combinata con «La mancanza di alfabetizzazione digitale dell’utente medio, perché i modelli di IA generativa possono essere utilizzati per creare disinformazione altamente convincente e media manipolati, che poi possono diffondersi rapidamente online». A parlare è Izidor Mlakar, scienziato alla guida di HUMADEX (Human-centric Explorations and Research in AI, Technology, Medicine and Enhanced Data), un gruppo di ricerca parte del Laboratory for Digital Signal Processing presso la Faculty of Electrical Engineering and Computer Science University dell'Università di Maribor, in Slovenia.

 

Secondo Mlakar, oltre alla nostra impreparazione a rendere pericolosa l’IA sono anche «I social media da essa alimentati, che possono accelerare la diffusione della disinformazione» ad esempio perché «i bot basati su IA e la messaggistica mirata possono essere utilizzati per influenzare ulteriormente l'opinione pubblica e il sentiment degli elettori».

 

Il gruppo di ricerca HUMADEX è un team multidisciplinare di esperti in intelligenza artificiale, intelligenza conversazionale e interazione uomo-macchina. Insieme ad ANSA, è parte del progetto di ricerca europeo Solaris, il cui obiettivo è definire metodi e strategie per gestire i rischi, le minacce ma anche le opportunità che le intelligenze artificiali generative portano alla democrazia, all'impegno politico e alla cittadinanza digitale.

 

HUMADEX è composto innanzitutto da esperti di IA, i quali contribuiscono allo sviluppo e al perfezionamento degli algoritmi che alimentano gli aspetti interattivi e intelligenti della piattaforma SOLARIS, inclusi la comprensione del linguaggio naturale, il machine learning e l'analisi dei dati, essenziali per creare esperienze utente reattive e adattive. Insieme con loro lavorano poi anche psicologi e specialisti dell'interazione uomo-macchina, impegnati a garantire che la tecnologia sia user-friendly, coinvolgente e accessibile, ma anche a sovrintendere lo sviluppo, l’esecuzione e l’analisi dei casi d'uso.

 

Qual è esattamente il vostro ruolo nel progetto Solaris?

«La nostra attività principale è stata progettare, testare e validare una scala che misura la fiducia nei contenuti generati dall'IA, cioè il Perceived Deepfake Trustworthiness Questionnaire (PDTQ) (Questionario sulla credibilità percepita dei Deepfake). Abbiamo condotto studi di validazione estensivi in tre lingue: inglese, sloveno e italiano. Abbiamo anche lavorato sulla progettazione dettagliata degli esperimenti nei casi d'uso. Nel caso d'uso 1 ci concentreremo sul cambiamento climatico e l'immigrazione. Valuteremo l'impatto dei contenuti generati dall'IA sugli atteggiamenti espliciti e impliciti verso questi temi, con la qualità obiettiva del video, la fiducia percepita e l'orientamento politico come parametri di confronto. Nel caso d'uso 2 ci concentreremo su decisori politici e uffici stampa per sviluppare metodologie e raccomandazioni politiche utili a prevenire che i contenuti generati dall'IA impattino negativamente sui sistemi sociali. Simuleremo la diffusione di deepfake con impatti socio-politici severi (ad esempio, un attacco a una centrale nucleare o un primo ministro che afferma una teoria del complotto) e gestiremo le potenziali conseguenze offline. Infine, il caso d'uso 3 si concentrerà sul potenziale dell'IA (generativa) di migliorare la cittadinanza digitale e l'impegno democratico. Qui l'attenzione è sulla co-creazione di contenuti generati dall'IA con i cittadini per sensibilizzare su questioni chiave (ad esempio, il cambiamento climatico, l'uguaglianza di genere)».

 

Quali sono i problemi reali e immediati che le tecnologie di IA, specialmente l'IA generativa, stanno ponendo al processo democratico?

«Molte persone faticano a valutare criticamente l'accuratezza e l'affidabilità delle informazioni online, specialmente quando provengono da fonti generate dall'IA. Senza alfabetizzazione digitale, le persone sono vulnerabili a prendere decisioni basate su narrazioni false e contenuti manipolativi. Inoltre, le reazioni e la reattività dello stato e dei media tradizionali e affidabili non possono competere con la qualità e la portata potenziale dei contenuti negativi».

 

Come il progetto Solaris affronterà questi problemi e, più in generale, cosa dovremmo fare per adottare in modo sicuro questa potente tecnologia e utilizzarla per il bene?

Nel caso d'uso 1, SOLARIS sta sviluppando meccanismi per "spiegare" ai cittadini ed "educarli" quali elementi considerare quando si cerca di capire se un contenuto è "reale" o meno. Infatti, la competenza chiave di alfabetizzazione nell'IA include la comprensione di come funziona l'IA non a livello tecnico, ma funzionale. Anche i rischi di privacy e sicurezza attorno all'IA devono essere affrontati attraverso l'alfabetizzazione digitale. Nel caso d'uso 2 ci concentriamo su come gli esperti dovrebbero reagire quando si verifica una minaccia alla democrazia. Cercheremo di fornire a decisori politici e ai media strumenti per rivedere meglio i protocolli di mitigazione. Questo rappresenta un passo significativo per comprendere e mitigare meglio i rischi democratici posti dall'IA avanzata e, a riguardo, la collaborazione pubblico-privato su standard industriali e autoregolamentazione per lo sviluppo responsabile e l'implementazione dell'IA generativa, come l'AI-Act, può aiutare in una certa misura, ma se le regole non vengono adottate da tutti, lo sviluppo della tecnologia così come i servizi basati su di essa tenderanno a spostarsi in contesti meno regolamentati. Pertanto, la chiave è l'alfabetizzazione sull'IA e l'educazione per permettere ai cittadini di valutare criticamente i contenuti generati con essa, nonché per aiutarli a capire come queste tecnologie possono essere usate sia in modo improprio, sia per il bene».

*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA

Leggi l'articolo completo su ANSA.it