Gli strumenti di intelligenza artificiale, come assistenti e chatbot, potrebbero diventare capaci di anticipare le preferenze degli esseri umani e questa abilità potrebbe essere sfruttata a fini economici o politici. E' quanto injdica una ricerca dell'Università di Cambridge, che presenta il concetto nascente dell'economia delle intenzioni.
I ricercatori descrivono un futuro, non troppo remoto, nel quale gli assistenti IA, potendo conoscere molto degli utenti con cui comunicano, potranno spingerli a eseguire operazioni, come l'acquisto di prodotti o la scelta di un partito politico. Per i ricercatori, si passa dall'economia dell'attenzione, tipica dei social media e focalizzata sul tenere le persone incollate alle app, a una "economia delle intenzioni", in cui i software IA raccolgono informazioni che le aziende potrebbero rivendere ad altre. "Se il dato è stato la valuta dell'informatica moderna, le intenzioni umane saranno il tesoro del futuro" avvertono. "A meno che non venga regolamentata, ci sarà una corsa all'oro per coloro che prendono di mira, guidano e vendono intenzioni umane". Lo studio pone alcuni esempi che potranno verificarsi con il consolidamento dei chatbot di intelligenza artificiale. Tra questi, un assistente virtuale che, analizzando le ricerche online e gli spostamenti, suggerisce di prenotare una vacanza in una determinata località "proprio quando stavi iniziando a pensarci" dicono gli autori. Così come un sistema di raccomandazione che, basandosi sulle interazioni social, consiglia notizie e contenuti che confermano le opinioni e spingono a votare per un certo candidato politico.
"Dovremmo iniziare a considerare il probabile impatto che una simile tecnologia avrebbe sulle aspirazioni umane, tra cui elezioni eque, una stampa libera e una concorrenza di mercato leale, prima di diventare vittime delle sue conseguenze indesiderate" sono le parole di Jonnie Penn, coordinatore dello studio del Leverhulme Centre for the Future of Intelligence dell'Università di Cambridge.
Riproduzione riservata © Copyright ANSA