Le Intelligenze Artificiali
generative, come ChatGpt, rischiano di sovraffollare di
contenuti il web, con il risultato di imparare in modo ciclico e
su contenuti che esse stesse producono, innescando un meccanismo
a spirale che le porterebbe a produrre contenuti senza senso e
quindi al collasso. Lo indica lo studio guidato da Ilia
Shumailov, dell'Universit di Oxford e pubblicato sulla rivista
Nature. Il rischio, avvertono gli esperti, è che internet
rischia di saturarsi di contenuti generati da sistemi di IA
alimentandosi in modo tossico, fino al collasso degli attuali
modelli di IA generativa.
Le IA generative sono sempre più diffuse, sia per produrre
testi che per creare immagini o video di ogni tipo e il fatto
che il web si stia sempre più popolando di contenuti prodotti
dalle IA stesse potrebbe iniziare a essere un grosso problema.
Le IA imparano infatti dai materiali, testi o foto, che gli si
mette a disposizione e su cui vengono addestrate. Attualmente
questi di contenuti sono prodotti da esseri umani, come le
pagine di Wikipedia o set di fotografie di animali. Ma internet
si sta rapidamente popolando di contenuti creati dalle stelle
IA e questi materiali, a loro volta, vengono usati per
addestrare i modelli.
Per capire a che cosa può condurre questo processo, i
ricercatori britannici hanno addestrato un sistema IA con i
materiali che esso stesso aveva prodotto, quindi hanno
utilizzato i nuovi materiali prodotti dal sistema per addestrare
un altro modello di IA, e così via. E' emerso così che questo
apprendimento che di chatbot in chatbot genera progressivamente
un peggioramento delle qualità. Per esempio, i sistemi di IA
cominciano a produrre testi con molte frasi ripetute, fino a al
collasso. Perdono infatti completamente la capacità di
distinguere gli oggetti, come una chiesa da una lepre.
Riproduzione riservata © Copyright ANSA