OpenAI ha scoperto e neutralizzato un'operazione di disinformazione condotta dall'Iran, che utilizzava l'intelligenza artificiale di ChatGpt per creare notizie false e polarizzanti da pubblicare sui social media. In una nota, la società ha affermato di aver identificato account che sfruttavano il chatbot per generare contenuti per cinque siti web, sia in inglese che in spagnolo.
La campagna, chiamata "Storm-2035", aveva lo scopo di seminare divisione e confusione su temi caldi come le elezioni presidenziali, i diritti Lgbtq+ e la guerra a Gaza, impersonando fonti conservatrici e progressiste. Come scrive Engadget, gli hacker iraniani hanno creato una rete di falsi siti web e account sui social media per diffondere contenuti manipolativi, ma i loro sforzi sono stati in gran parte vani. La maggior parte dei post pubblicati ha ricevuto pochissima attenzione, rivelando la fragilità della campagna. "Nonostante la mancanza di coinvolgimento significativo da parte del pubblico, prendiamo sul serio qualsiasi tentativo di utilizzare i nostri servizi in operazioni di influenza straniera" le parole di OpenAI. I cybercriminali avrebbero cercato di influenzare anche l'opinione pubblica su questioni internazionali come le Olimpiadi e la politica venezuelana. "L'operazione voleva giocare su entrambi i fronti, ma pare che non abbia ottenuto l'impegno di nessuno dei due" ha riferito Ben Nimmo, manager di intelligence di OpenAI a Bloomberg.
La campagna per creare fake news segue la rivelazione della scorsa settimana, secondo cui gli hacker iraniani hanno preso di mira la corsa alla Casa Bianca di Kamala Harris e di Donald Trump. L'Fbi ha affermato che il consigliere di Trump, Roger Stone, è caduto vittima di e-mail di phishing, con gli hacker iraniani che sono riusciti a prendere il controllo del suo account, per inviare messaggi con link malevoli ad altri colleghi. La mossa è stata scoperta prima di raggiungere i piani alti del partito repubblicano. (ANSA).