L'Ucraina ha iniziato a utilizzare il riconoscimento facciale Clearview AI durante la guerra. Il controverso software che estrae immagini da social media e altre piattaforme la scorsa settimana è stato multato dal Garante privacy italiano. La notizia è riportata da Reuters online e rilanciata da altri media americani. Il ministero della Difesa ucraino ha avuto libero accesso a Clearview AI, dopo che la società ha inviato una lettera all'Ucraina offrendo i suoi servizi per aiutare a "scoprire assassini russi, combattere la disinformazione e identificare i morti" una volta iniziata l'invasione. Non è chiaro esattamente al momento per cosa il ministero della Difesa stia utilizzando il software, ma l'amministratore delegato di Clearview ha affermato di aspettarsi che altre agenzie ucraine inizino a utilizzare il servizio nei prossimi giorni.
Clearview AI, nata nel 2017, è stata criticata per violazioni della privacy dei dati in tutto il mondo. Ha immagazzinato un database di 10 miliardi di volti, di cui più di 2 miliardi di immagini provenienti dal social media russo VKontakte. La scorsa settimana l'Italia ha multato la società per 20 milioni di euro per aver violato le leggi sulla privacy dei consumatori Ue e ha ordinato di cancellare tutti i suoi dati sui residenti in Italia. L'Ufficio del Commissario per le informazioni del Regno Unito ha inoltre ordinato alla società di interrompere l'elaborazione di tutti i dati degli utenti a novembre, la Francia ha emesso un ordine simile a dicembre.
"L'uso sul campo del sistema di riconoscimento facciale Clearview AI apre scenari inquietanti, diversi studi hanno dimostrato che i sistemi di intelligenza artificiale forniscono a volte indicazioni errate, 'falsi positivi', circostanza preoccupante se accade in un contesto di guerra e di confusione": spiega all'ANSA Pierluigi Paganini, esperto di cybersecurity e intelligence. "Questo tipo di strumento - aggiunge - può portare benefici se usato a scopi umanitari come il ricongiungimento agevolato delle famiglie o il riconoscimento più veloce delle vittime, ma comporta rischi se applicato in altre situazioni. Questi sistemi non hanno una precisione assoluta e possono essere indotti in errore, questo apre a rischi immensi in caso di applicazioni militari o di sicurezza. Potrebbero far prendere delle decisioni sbagliate in un terreno di guerra in cui bisogna agire velocemente". E' chiaro che Clearview AI, conclude l'esperto, "veda quello militare come mercato potenziale per espandere il sui business".
Riproduzione riservata © Copyright ANSA