/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Clonare la voce con l'IA, la nuova frontiera del cybercrime

Clonare la voce con l'IA, la nuova frontiera del cybercrime

Esperti mostrano l'ascesa del "rapimento virtuale"

MILANO, 04 settembre 2023, 13:45

Redazione ANSA

ANSACheck

- RIPRODUZIONE RISERVATA

- RIPRODUZIONE RISERVATA
- RIPRODUZIONE RISERVATA

Le nuove tecnologie, come l'intelligenza artificiale e il machine learning possono essere utilizzate dai criminali informatici per compiere truffe ed estorsioni. In particolare, un nuovo tipo di crimine sfrutta le potenzialità delle tecnologie più avanzate per clonare la voce delle persone. E' l'allarme lanciato dagli esperti dell'azienda di sicurezza Trend Micro che parlano di ascesa del cosiddetto "rapimento virtuale".

Un esempio è quanto successo ad aprile in Arizona: una donna ha ricevuta una chiamata nella quale un anonimo diceva di aver rapito la figlia. Grazie a strumenti di IA, il criminale era riuscito a replicare la voce e il pianto della bambina da far ascoltare alla madre. Per fortuna, prima del pagamento richiesto, la vittima ha potuto verificare che sua figlia fosse al sicuro e che non fosse stata rapita. La polizia ha poi identificato la telefonata come una comune truffa. La Federal Trade Commission degli Stati Uniti ha stimato che nel 2022 le perdite derivanti da queste attività illecite hanno raggiunto i 2,6 miliardi di dollari.

Lo schema evidenziato da Trend Micro è il seguente: i criminali raccolgono informazioni dai social riguardo alle vittime e ai loro cari, incluse foto e filmati. Successivamente, con strumenti tecnologici riescono a replicare la voce delle persone e a riprodurla in maniera più accurata possibile. Questo processo, definito "clonazione vocale" si attua quando la biometria vocale è utilizzata per compiere estorsioni o frodi.

Gran parte del lavoro in questo schema di attacco può essere ulteriormente automatizzato con strumenti di intelligenza artificiale. Utilizzando un chatbot, un cybercriminale può fondere grandi set di dati di potenziali vittime con altri elementi come la geolocalizzazione. "Questo può anche servire per avere a disposizione un sistema di punteggio basato sul rischio per la selezione delle vittime, rendendo il tipo di attacco ancora più redditizio e scalabile", affermano gli esperti.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza