Si chiama PhotoGuard ed è il software che blocca la possibilità, per un'intelligenza artificiale, di riconoscere cosa c'è in una foto, preservandone così l'autenticità. Lo strumento è stato sviluppato presso il laboratorio Csail del Mit di Boston ed è pensato come una sorta di "vaccino" contro le IA che imparano dalle immagini del mondo reale anche per modificarne i dettagli e dare un senso diverso ad una foto.
Creando una sorta di perturbazione a livello di pixel, qualcosa che l'occhio umano non può percepire, PhotoGuard manda in confusione gli algoritmi di IA generativa, come GPT-4 e Dall-e, che non riescono a percepire il "senso" di un'immagine, ad esempio il posizionamento del corpo di una persona ritratta o i suoi occhi, per aggiungere elementi e altri contenuti. Come spiegano gli sviluppatori, adottando questo approccio per qualsiasi immagine gestita da un'intelligenza artificiale, gli algoritmi, anche di nuova generazione, non riusciranno a produrre artefatti verosimili, basati sulle foto prese come esempio. Il risultato di una foto "vaccinata" con PhotoGuard e poi modificata con un'IA generativa è un contenuto dall'aspetto irrealistico, dove i volti possono essere sovrapposti a corpi di altre persone ma senza la credibilità che gli algoritmi odierni hanno dimostrato di poter raggiungere, in assenza di contromisure idonee.
"Se da un lato sono lieto di contribuire a trovare una soluzione a questo problema - ha commentato il dottorando Hadi Salman che ha guidato il progetto - dall'altro sono conscio che sia necessario molto lavoro per rendere pratica questa protezione. Le aziende devono investire nella progettazione di immunizzazioni solide che durino nel tempo".
Leggi l'articolo completo su ANSA.it