Di Alessio Jacona*
Tutto è iniziato su X, il social network che una volta si chiamava Twitter: la prima immagine deep fake sessualmente esplicita di Taylor Swift ha ottenuto 47 milioni di views prima che l’account fosse sospeso. Troppo tardi, comunque, per evitare che altri utenti ripubblicassero quella e altre immagini simili, oppure che le scaricassero per poi andarle a condividere su altri social network.
E mentre da X fanno sapere che si stanno dando un gran da fare per i deep nude della cantante, sul social ormai è in corso una battaglia tra quanti continuano a rilanciare le immagini fake e l’esercito di fan della Swift, i quali hanno preso d’assalto la piattaforma al grido di “Protect Taylor Swift”. Non solo, assieme a loro ci sono anche diversi rappresentanti delle istituzioni statunitensi, che hanno colto l’occasione per ribadire l’urgenza di provvedimenti che proteggano le donne dai deep fake sessualmente espliciti.
Grazie alla straordinaria popolarità della cantante, il “caso” Taylor Swift ribadisce a livello globale anche l’inadeguatezza di X (e degli altri social) nel gestire crisi di questo genere. In particolare, nel bloccare i contenuti fake anche quando sono stati individuati, tanto che sulla piattaforma è ancora possibile rintracciare le immagini incriminate con una semplice ricerca.
La cosa non stupisce: da quando Elon Musk ha comprato Twitter, nel nome di quella che lui chiama “libertà di parola ha progressivamente smantellato il sistema di controllo dei contenuti illeciti sia riducendo i filtri, sia ridimensionando sensibilmente lo staff preposto ad individuarli ed eliminarli. Così quello che accade ora con la cantante statunitense non solo non è una sorpresa, ma un drammatico promemoria del fatto che può succedere a chiunque, anche a chi non può contare sul sostegno di milioni di fan.
Vendetta, ricatto, desiderio morboso, fenomenologia del branco: sono molte e diverse le ragioni per cui esiste la pornografia online non consensuale, ovvero la condivisione di contenuti intimi non autorizzati per colpire qualcuno, soprattutto donne di età media compresa tra 25 e 30 anni. Una pratica che esiste purtroppo esiste da tempo e che ora, come succede per tante altre cose, viene aumentata e potenziata dall’intelligenza artificiale generativa.
Succede quando i deep fake, ovvero le immagini, gli audio e i video falsi creati con l’iA, si trasformano in Deep porn o Deep nude. In altre parole: gli algoritmi addestrati per sovrapporre il volto di una persona sul corpo di un’altra, quelli che fino a pochi mesi richiedevano competenze specialistiche e grandi quantità di immagini per funzionare, ora diventano strumenti accessibili quasi a tutti che è sempre più facile utilizzare per creare porno non consensuale.
E per chi non vuole neanche imparare a usare i tool con l’intelligenza artificiale, c’è sempre Telegram: secondo quanto riportato dal sito indipendente 404 Media, i deep nude di Taylor Swift proverrebbero da un canale dedicato proprio a contenuti come questo. Non sarebbe la prima volta: proprio sull’app di messaging è utilizzata da centinaia di milioni di persone del mondo, esistono indisturbati gruppi dedicati al deep porn. Qui, dove ottenere la rimozione dei contenuti è praticamente impossibile, c’è anche chi fa business offrendo “deep porn as a service” e creando deep nude su commissione in cambio di pochi euro.
*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it
Leggi l'articolo completo su ANSA.it