Si chiama PhotoGuard ed è il software che blocca la possibilità, per un'intelligenza artificiale, di riconoscere cosa c'è in una foto, preservandone così l'autenticità. Lo strumento è stato sviluppato presso il laboratorio Csail del Mit di Boston ed è pensato come una sorta di "vaccino" contro le IA che imparano dalle immagini del mondo reale anche per modificarne i dettagli e dare un senso diverso ad una foto.
Creando una sorta di perturbazione a livello di pixel, qualcosa che l'occhio umano non può percepire, PhotoGuard manda in confusione gli algoritmi di IA generativa, come GPT-4 e Dall-e, che non riescono a percepire il "senso" di un'immagine, ad esempio il posizionamento del corpo di una persona ritratta o i suoi occhi, per aggiungere elementi e altri contenuti. Come spiegano gli sviluppatori, adottando questo approccio per qualsiasi immagine gestita da un'intelligenza artificiale, gli algoritmi, anche di nuova generazione, non riusciranno a produrre artefatti verosimili, basati sulle foto prese come esempio. Il risultato di una foto "vaccinata" con PhotoGuard e poi modificata con un'IA generativa è un contenuto dall'aspetto irrealistico, dove i volti possono essere sovrapposti a corpi di altre persone ma senza la credibilità che gli algoritmi odierni hanno dimostrato di poter raggiungere, in assenza di contromisure idonee.
"Se da un lato sono lieto di contribuire a trovare una soluzione a questo problema - ha commentato il dottorando Hadi Salman che ha guidato il progetto - dall'altro sono conscio che sia necessario molto lavoro per rendere pratica questa protezione. Le aziende devono investire nella progettazione di immunizzazioni solide che durino nel tempo".
Riproduzione riservata © Copyright ANSA