L'intelligenza artificiale è come il denaro falso usato nei film, credibile a prima vista ma non così convincente dopo un attento esame: usa questa metafora lo scrittore Stephen King per parlare dell'IA generativa come ChatGpt e Bard. Lo fa in un saggio pubblicato sulla rivista The Atlantic, facendo intendere che non ha paura di questa tecnologia usata in campo creativo perchè i risultati, appunto, non sono ancora convincenti.
Per supportare questa tesi, l'autore di libri popolari come Shining e Misery descrive una scena contenuta nel suo libro in uscita a settembre e intitolato Holly, in cui un personaggio arriva alle spalle di un altro e lo uccide con una pistola, sparando un colpo alla nuca. Quando il killer gira il corpo della vittima si accorge che il proiettile non è fuoriuscito ma ha lasciato un piccolo rigonfiamento sulla fronte che diverrà la sua ossessione. La trovata, spiega King, è frutto di "un vero momento creativo, deriva dall'essere nella storia e vedere ciò che vede l'assassino. È stata una rivelazione. Una macchina può creare quel rigonfiamento? Direi di no. Ma devo, con riluttanza, aggiungere non ancora", aggiunge.
Le riflessioni arrivano in un momento in cui il tema dell'intelligenza artificiale tiene banco a Hollywood ma anche nel mondo dell'editoria. Diversi scrittori hanno lamentato che l'addestramento dell'IA avviene con i loro libri. "La memoria dei computer è così grande che tutti i miei romanzi potrebbero stare in una pen drive - scrive King -. Ma c'è da chiedersi se la somma valga più delle parti. Per ciò che ho avuto modo di vedere, la risposta è ancora no". Il maestro dell'horror, infine, pur con tutte le cautele sostiene che resistere all'inevitabile marcia dell'intelligenza artificiale è inutile.
"Vietare l'insegnamento (se questa è la parola) delle mie storie ai computer? Nemmeno se potessi - osserva - Diventeri il re Canuto che impedisce alla marea di salire. O un luddista che cerca di fermare il progresso industriale facendo a pezzi un telaio a vapore".
Leggi l'articolo completo su ANSA.it