Può l'intelligenza artificiale generativa diventare un'arma nelle mani di attaccanti?
Sì, dai deepfake al phishing sono già disponibili sofisticati strumenti per offensive su larga scala

Redazione ANSA
16 luglio 2024 - 09:51
Mano robotica cyborg bianca che punta il dito verso la mano umana. Foto: FotografieLink - iStock © Ansa

Cosa verifichiamo

La capacità di generare contenuti realistici e personalizzati rende l'intelligenza artificiale generativa (IAG) una minaccia concreta con la quale ci confronteremo sempre più di frequente. L'IA generativa può quindi essere utilizzata come strumento di offesa da parte di diverse tipologie di attaccanti per condurre un’ampia gamma di aggressioni informatiche


Analisi

L'intelligenza artificiale generativa continua ad attirare l’attenzione di ricercatori ed investitori grazie alle sue capacità e potenzialità di impiego in molteplici settori. Le medesime capacità sono destinate a mutare in maniera radicale il panorama delle minacce e molteplici attori malevoli già cominciano ad utilizzarle. Senza dubbio tra i principali campi di impiego dell'intelligenza artificiale generativa ci sono la generazione di deepfake e le campagne di disinformazione.

Un deepfake è un contenuto multimediale, come un video o un'immagine, creato utilizzando l'intelligenza artificiale per alterare, sostituire o manipolare in modo realistico il volto, la voce o il corpo di una persona. L’evoluzione tecnologica ha portato oggi alla disponibilità di soluzioni e servizi in grado di ingannare gli utenti in rete tanto da far sembrare autentici eventi che in realtà non lo sono.Per questo motivo i deepfake sono un’arma pericolosa nell’arsenale di attaccanti intenti a condurre campagne di disinformazione, frodi e violazioni della privacy.

A dimostrazione dell’efficacia dei deepfake, uno studio del Mit (Chesney & Citron) presentato nel 2019 sostiene che i deepfake generati dall'IAG sono in grado di ingannare gli esseri umani fino al 60% delle volte. Dal 2019, il livello di sofisticazione dei deepfake è aumentato in maniera notevole, ragion per cui è lecito ritenere che questi contenuti potrebbero già oggi ingannare la quasi totalità degli utenti in rete.

L’utilizzo di generative AI in campagne di disinformazione è purtroppo già realtà. Secondo il rapporto pubblicato dal Microsoft Threat Analysis Center (Mtac) dal titolo “Same targets, new playbooks: East Asia threat actors employ unique methods” la Cina sta utilizzando l'intelligenza artificiale generativa per condurre operazioni di influenza contro paesi stranieri, inclusi gli Stati Uniti e Taiwan, e alimentare disordini sociali. Secondo il rapporto attori malevoli che operano per il governo cinese utilizzano l’IAG generativa per creare contenuti mirati a influenzare gli elettori statunitensi.Gli attori statuali utilizzano account falsi sui social media che pongono domande provocatorie su questioni interne divisive degli Stati Uniti. Queste operazioni permettono di identificare le principali preoccupazioni che dividono gli elettori americani, possibilmente per raccogliere informazioni su demografie di voto cruciali in vista delle elezioni presidenziali statunitensi.Gli esperti di Microsoft ritengono che la Cina utilizzerà contenuti generati dall'IA, come meme, video e audio, per influenzare le elezioni in tutto il mondo, specialmente in India, Corea del Sud e Stati Uniti.

L'intelligenza artificiale generativa può anche essere utilizzata da attaccanti con motivazione finanziarie per condurre sofisticate truffe ed attacchi di phishing.Un attaccante potrebbe utilizzare ad esempio una piattaforma per generare email di phishing ed impiegarle in campagne su larga scala, generando conversazioni apparentemente genuine in grado di ingannare le vittime.Nel 2022  il Federal Bureau of Investigation (Fbi) ha avvertito del crescente utilizzo di IAG per creare falsi profili sui social media al fine di ingannare le vittime e sottrarre loro denaro.

Già dal luglio 2023, gli esperti di cybersicurezza ci hanno messo in guardia dalla nascita di due piattaforme dal nome FraudGpt e WormGpt, utilizzabili per condurre sofisticati attacchi di phishing e Business email compromise (Bec). Il numero di queste piattaforme continua a crescere, ed al costo di poche centinaia di dollari per mese è possibile fruire dei numerosi servizi che mettono a disposizione degli attaccanti. Infine, l'IAG può essere utilizzata anche per automatizzare attacchi, ad esempio per lo sviluppo di codice malevolo e tool di attacco. Modelli di IAG possono essere impiegati per sviluppare varianti di malware in grado di evadere i meccanismi di detection dei principali motori anti-malware.


Conclusioni

Sebbene l'utilizzo di IAG per scopi malevoli sia una pratica ancora poco diffusa, l’interesse da parte degli attaccanti nelle sue potenzialità porterà a breve ad una vera e propria emergenza. Le principali aziende di sicurezza, così come i principali fornitori di IAG come OpenAI, Google e Microsoft, stanno lavorando per mettere in piedi sistemi in grado di mitigare le minacce emergenti. Purtroppo, con il passare del tempo questa tecnologia diventerà sempre più accessibile grazie al modello “as-a-service” e sarà inevitabilmente più evoluta. Per questi motivi gli attaccanti avranno a disposizione strumenti sempre più sofisticati per condurre offensive su larga scala. Concludendo quindi, l'intelligenza artificiale generativa, pur offrendo numerose opportunità, rappresenta anche una micidiale arma nelle mani degli attaccanti. 

Fonti

Pierluigi Paganini, Ceo di Cyberhorus, professore di Cybersecurity presso l'Università Luiss Guido Carli e coordinatore scientifico Sole 24 Ore formazione

Wikipedia

Commissione Europea

Mit di Boston

Microsoft Threat Analysis Center

The Guardian

Netenrich

Ibm

FBI

Security Affairs

Riproduzione riservata © Copyright ANSA
Il Fact-check è uno strumento dell'agenzia ansa contro la disinformazione
Offriamo informazioni utili contro le falsità che circolano attraverso la rete

I nostri team fanno del loro meglio per consultare tutte le domande che ci vengono sottoposte. Lavoriamo per rispondere alle richieste e proposte che ci pervengono sulla base di diversi criteri e ci riserviamo il diritto di operare una selezione tra tutte le richieste dando priorità a quelle più rilevanti e interessanti per il pubblico. Riteniamo che i reclami fantasiosi, infondati, offensivi, minacciosi o chiaramente derivanti da un'azione coordinata di spam non richiedano una nostra risposta. Per consentirci di rispondere a una richiesta di verifica, il messaggio o la dichiarazione su cui si richiede di indagare devono alludere a fatti o dati. Non verifichiamo opinioni o, in genere, affermazioni su eventi non ancora accaduti.

Informativa privacy

(*) Tramite il modulo è possibile inviare informazioni su possibili errori nei fact check ANSA

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.