ASviS

Chi controllerà intelligenze artificiali sempre più essenziali per il nostro futuro?

Redazione Ansa

di Andrea De Tommasi

L’avvento di un’intelligenza artificiale (Ai) sempre più performante ha aperto il terreno a una serie di questioni, ma due in particolare hanno suscitato ampi dibattiti. In che modo le nuove intelligenze artificiali cambieranno gli umani e la società? Metteranno in pericolo i posti di lavoro del futuro oppure copriranno solo quelli più meccanici e routinari liberando così la creatività delle persone? E come trovare il punto di equilibrio tra lo sviluppo dell'Ai e la condizione umana? Va ricordato che gli algoritmi di apprendimento automatico sono utilizzati con successo in diversi campi per supportare gli umani. Tuttavia questi sistemi non hanno neanche lontanamente un’intelligenza a livello umano e non sono in grado prendere decisioni. Come ha spiegato Yann LeCun, Chief Ai Scientist di Meta, “siamo portati a pensarlo perché quei sistemi sono molto avanzati nell’uso del linguaggio, ma la loro capacità di pensare per capire come funziona il mondo è molto limitata”.

La preoccupazione di alcuni esperti per questo potere in crescita è incentrata però sul problema dell’allineamento: come garantire cioè che l’Ai stia facendo (e farà) ciò che gli umani vogliono che faccia. “Il mio grande timore è che prima o poi qualcuno collegherà a loro (le Ai, ndr) la capacità di creare i propri obiettivi secondari”, ha detto Goffrey Hinton, uno dei pionieri del deep learning, aggiungendo: “Non credo che nessuno sappia davvero gestire questi problemi”. Hinton ha lasciato Google all’inizio di maggio, in parte a causa dell’età, ma anche perché ha dichiarato di aver cambiato idea sul rapporto tra umani e intelligenza digitale. In un’intervista con il New York Times, Hinton ha affermato infatti che l’intelligenza artificiale generativa potrebbe diffondere disinformazione e, alla fine, minacciare l'umanità. 

Non è il solo a sostenere questo scenario: centinaia di scienziati, sviluppatori e Chief executive hanno messo in guardia sui pericoli dell’Ai in più lettere aperte:  una pubblicata a maggio denunciava proprio il rischio di estinzione per l’umanità. “Mitigare il rischio di estinzione provocata dall’Ai dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”, si legge nella breve dichiarazione. Sam Altman, amministratore delegato di OpenAI, creatore di ChatGPT, Demis Hassabis, amministratore delegato di Google DeepMind, e Dario Amodei di Anthropic hanno tutti messo la loro firma.

L'idea che, a un certo punto nel futuro, la tecnologia diventerà così avanzata da superare l'intelligenza e il controllo umano non è nuova. Era il 1983 quando Vernor Vinge coniava l’espressione “singolarità tecnologica”. In pratica, si asseriva che qualora i computer avessero superato le capacità cognitive degli esseri umani, sarebbe emerso un nuovo livello di intelligenza irraggiungibile per le persone. Ai giorni nostri, la singolarità dell’intelligenza artificiale implica allora la creazione di un'Ai così avanzata che può migliorare continuamente sé stessa a un ritmo più veloce di quanto facciano gli umani eseguendo lo stesso compito. Un momento che secondo i futuristi potrebbe essere non così lontano nel tempo, se è vero che Ray Kurzweil ha previsto l’arrivo della singolarità tecnologica entro il 2045.

La maggior parte degli esperti ritiene però che il punto di vista di Hinton e soci tenda a sovrastimare i rischi delle Ai. Ad esempio, lo stesso LeCun usa toni completamente diversi: “Credo che le macchine intelligenti inaugureranno un nuovo rinascimento per l’umanità, una nuova era di illuminazione”, afferma LeCun, che rifiuta l’idea che le macchine domineranno gli esseri umani “semplicemente perché sono più intelligenti, per non dire che distruggeranno gli esseri umani”.

Poi c’è il tema del lavoro: alcuni tecnologi temono che l’intelligenza artificiale diventi così potente da essere in grado di svolgere la maggior parte dei lavori degli umani, portando alla disoccupazione di massa. Lavoratori da sussidiare magari con un reddito universale incondizionato o con gli stessi proventi delle macchine. Certo, è probabile che l'intelligenza artificiale sostituisca alcuni lavori: alcune attività di routine, ripetitive o pericolose, potranno essere automatizzate.  Ma le nuove Ai creeranno anche nuovi posti di lavoro e aumenteranno la produttività. C’è un numero crescente di ricerche, raccolte per esempio dall’Economist, che evidenziano questi effetti benefici.

Oligopolio

Il fatto che questi avvertimenti apocalittici siano stati lanciati dagli stessi soggetti che hanno contribuito a creare (e tutt’ora sviluppano) l’Ai ha fornito un ulteriore assist ai critici. E ha segnato una divisione più netta all’interno del campo delle intelligenze artificiali. Sicché molti osservatori hanno ricordato che l’Ai è elaborata da tempo da una sorta di oligopolio, il che prefigura che i mercati serviti da queste tecnologie saranno sempre più dominati da un piccolo numero di aziende.

Se guardiamo al panorama attuale, i modelli di Ai di grandi dimensioni, come ChatGpt-4 di Open Ai e Lamda di Google sono costosi da addestrare e impegnativi da sviluppare, cosa che rappresenta un’importante barriera di entrata per altre aziende. Di conseguenza, restano concentrati nelle mani di una manciata di gruppi, come Google, Microsoft, Baidu, e di startup ben finanziate come Open Ai.

Ma un punto cruciale nella regolazione delle nuove intelligenze artificiali riguarda anche i dati che le alimentano, e che sono alla base delle loro consapevolezze. L’Ai può fornire indicazioni che influiscono sull'ammissione di una persona a una scuola, sull'autorizzazione per un prestito bancario o sull’assunzione dopo un colloquio di lavoro. È abbastanza risaputo che i sistemi di intelligenza artificiale possono mostrare pregiudizi che derivano dalla loro programmazione e dalle fonti di dati; ad esempio, il software di apprendimento automatico potrebbe essere addestrato su un set di dati che sotto-rappresenta un particolare genere o gruppo etnico. Ecco perché oggi, avvertono gli esperti, è più che mai cruciale studiare i dataset su cui queste tecnologie formano le loro opinioni.

Continua a leggere su FUTURAnetwork.eu

Leggi l'articolo completo su ANSA.it