Microsoft ha aggiornato Designer, uno strumento di intelligenza artificiale capace di creare immagini a partire da indicazioni testuali. La piattaforma sarebbe stata utilizzata per realizzare foto sessualmente esplicite di Taylor Swift poi diventate virali bloccate dalla piattaforma X. Una di queste ha ottenuto oltre 47 milioni di visualizzazioni. Adesso l'app non permette di associare alcun termine sessualmente esplicito per la generazione di immagini simili, anche di personaggi non famosi.
Il sito 404 Media - che ha riportato la notizia dell'aggiornamento di Redmond - ha riferito che le foto di nudo di Taylor Swift create grazie all'IA provenivano dal forum 4chan e da un canale Telegram in cui le persone usavano Designer proprio per generare immagini di celebrità con l'IA. Prima che quelle di Swift venissero diffuse sui social, Designer impediva la realizzazione di contenuti digitando termini come "Taylor Swift nuda", ma gli utenti del canale Telegram e 4chan hanno capito che potevano aggirare le protezioni scrivendo il nome in modo errato e usando parole solo sessualmente allusive. 404 Media ha potuto verificare che queste lacune sono state risolte con un aggiornamento recente.
"Stiamo indagando sulle segnalazioni e adottando le misure appropriate per affrontarle" aveva riferito un portavoce di Microsoft subito dopo la condivisione dei deepfake. "Il codice di condotta vieta l'uso dei nostri strumenti per la creazione di contenuti intimi per adulti o non consensuali e qualsiasi tentativo ripetuto di produrre contenuti contrari alle nostre politiche potrebbe comportare la perdita dell'accesso al servizio. Abbiamo team che lavorano proprio su un monitoraggio del genere, in linea con i principi di intelligenza artificiale responsabile, tra cui il filtraggio dei contenuti e il rilevamento degli abusi per creare un ambiente più sicuro per gli utenti", ha concluso la società di Redmond.
Leggi l'articolo completo su ANSA.it