"I deepfake rappresentano un
problema complesso, per il quale non esiste una panacea, ma che
può essere combattuto meglio con una combinazione di misure a
vari livelli". Questa la principale conclusione del rapporto
dell'European Telecommunications Standards Institute (Etsi), il
primo studio al mondo sulle misure per mitigare i rischi
derivanti dall'uso dei deepfake generati dall'intelligenza
artificiale (IA). Un fenomeno, quello dei deepfake, non nuovo,
scrivono gli esperti, che sottolineano tuttavia come le tecniche
di IA consentano di fare "un passo avanti sotto molti aspetti" e
possano "avere effetti negativi in una gamma più ampia di
situazioni".
"Le tecniche di IA consentono manipolazioni automatizzate che in
precedenza richiedevano una notevole quantità di lavoro manuale
e, in casi estremi, possono persino creare dati multimediali
falsi da zero. I deepfake sono anche in grado di manipolare file
audio e video in modo mirato, preservando un'elevata qualità
acustica e visiva dei risultati, cosa che era in gran parte
irrealizzabile con le precedenti tecnologie. Le tecniche di IA
possono essere utilizzate per manipolare file audio e video in
senso più ampio, ad esempio applicando modifiche allo sfondo
visivo o acustico. Il nostro rapporto Etsi propone misure per
attenuarle", spiega Scott Cadzow, presidente del gruppo di
lavoro Securing AI dell'Etsi che ha curato il rapporto.
Nello studio, si passano in rassegna diversi scenari di attacco,
volti ad esempio a influenzare l'opinione pubblica o a
diffondere propaganda e disinformazione. Vi sono poi gli
attacchi personali, con la diffusione di video, audio o testi
falsi sui social media per umiliare la vittima o rovinarne la
reputazione. Un altro tipo di attacco, tra quelli annoverati,
prende esplicitamente di mira le procedure di identificazione e
autenticazione biometrica a distanza, procedure diffuse in molti
Paesi che consentono agli utenti di accedere a servizi digitali
forniti da enti pubblici o privati di settori industriali
regolamentati.
Lo studio individua quindi una serie di contromisure, generiche
e specifiche, per mitigare i rischi collegati all'uso dei
deepfake. Tra queste gli esperti citano la promozione
dell'educazione sull'esistenza del fenomeno, gli interventi
normativi che richiedono che l'uso di rappresentazioni di
identità manipolate sia chiaramente contrassegnato, l'impiego di
sistemi di IA addestrati a rilevare i contenuti manipolati.
Riproduzione riservata © Copyright ANSA