(ANSA) - ROMA, 24 LUG - Le Intelligenze Artificiali
generative, come ChatGpt, rischiano di sovraffollare di
contenuti il web, con il risultato di imparare in modo ciclico e
su contenuti che esse stesse producono, innescando un meccanismo
a spirale che le porterebbe a produrre contenuti senza senso e
quindi al collasso. Lo indica lo studio guidato da Ilia
Shumailov, dell'Universit di Oxford e pubblicato sulla rivista
Nature.
Le IA generative sono sempre più diffuse, sia per produrre
testi che per creare immagini o video di ogni tipo e il fatto
che il web si stia sempre più popolando di contenuti prodotti
dalle IA stesse potrebbe iniziare a essere un grosso problema.
Le IA imparano infatti dai materiali, testi o foto, che gli si
mette a disposizione e su cui vengono addestrate. Attualmente
questi di contenuti sono prodotti da esseri umani, come le
pagine di Wikipedia o set di fotografie di animali. Ma internet
si sta rapidamente popolando di contenuti creati dalle stelle
IA e questi materiali, a loro volta, vengono usati per
addestrare i modelli.
Per capire a che cosa può condurre questo processo, i
ricercatori britannici hanno addestrato un sistema IA con i
materiali che esso stesso aveva prodotto, quindi hanno
utilizzato i nuovi materiali prodotti dal sistema per addestrare
un altro modello di IA, e così via. E' emerso così che questo
apprendimento che di chatbot in chatbot genera progressivamente
un peggioramento delle qualità. Per esempio, i sistemi di IA
cominciano a produrre testi con molte frasi ripetute, fino a al
collasso. Perdono infatti completamente la capacità di
distinguere gli oggetti, come una chiesa da una lepre. (ANSA).
Le IA che addestrano sé stesse sono a rischio collasso
Iniziano a produrre contenuti senza senso