OpenAI, la società madre di ChatGpt, ha smantellato negli ultimi tre mesi cinque operazioni che cercavano di utilizzare i suoi modelli di intelligenza artificiale per attività ingannevoli. In un post sul suo blog, la società ha spiegato che le campagne intercettate provenivano da Russia, Cina, Iran e da una società privata con sede in Israele.
Gli autori delle minacce hanno tentato di sfruttare i modelli linguistici di OpenAI per attività come la generazione di commenti, articoli e profili social, traduzione di testi La società guidata da Sam Altman ha sottolineato che queste operazioni "non sembrano aver beneficiato di un aumento significativo del coinvolgimento del pubblico" grazie anche ai suoi sistemi di allerta.
In particolare, tra le altre, è stata chiusa un'operazione originata dalla Russia conosciuta come Doppelganger che ha usato i modelli di OpenAI per generare commenti in inglese, francese, tedesco, italiano e convertire articoli di notizie in post sui socil. Smantellata anche l'attività di una società commerciale in Israele chiamata Stoic che generava commenti e articoli pubblicati su più piattaforme.
Entrambe queste operazioni sono state individuate e chiuse anche da Meta proprio in questi giorni e fanno riflettere sull'uso di questa tecnologia che potrebbe portare alla moltiplicazione di campagne di disinformazione in vista delle numerose elezioni che si terranno in tutto il mondo nel 2024.
Leggi l'articolo completo su ANSA.it