/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

L'IA usata per imitare la voce dei minori in finti rapimenti

L'IA usata per imitare la voce dei minori in finti rapimenti

A NY criminali sfruttano la tecnologia per tentare estorsione

ROMA, 14 gennaio 2025, 16:10

Redazione ANSA

ANSACheck
- RIPRODUZIONE RISERVATA

- RIPRODUZIONE RISERVATA

L'intelligenza artificiale viene utilizzata per imitare la voce dei bambini in nuove truffe di cosiddetti "rapimenti virtuali". Il distretto scolastico centrale di Peekskill, nello Stato di New York, ha lanciato un avvertimento alle famiglie riguardo a una nuova e inquietante frode. I criminali sfruttano l'intelligenza artificiale generativa per falsificare le voci dei bambini, simulando finti rapimenti e tentando di estorcere denaro ai genitori.
    Jonathan Munson, docente di informatica alla Manhattanville University, ha rivelato ai media Usa che i campioni vocali possono essere prelevati dai feed dei social media. "Se hanno campioni delle voci, possono usarli per replicarla", ha detto.
    D'altronde anche l'Fbi, il mese scorso, ha lanciato un avvertimento a livello nazionale sul crescente utilizzo dell'intelligenza artificiale per impersonare un parente stretto in una situazione di crisi.
    Un segno distintivo di praticamente qualsiasi truffa - spiega Abc News - è quello di fare pressione sulla vittima affinché agisca rapidamente, motivo per cui gli esperti affermano che è fondamentale prendersi un minuto per chiedersi se potrebbe trattarsi di una truffa. La polizia di Peekskill sta indagando su due incidenti avvenuti nella comunità mentre le autorità cercano di invitare le persone a stare attente, e a non finire prede di questa preoccupante tendenza.
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza