Istituire un'autorità internazionale che possa ridurre il rischio esistenziale legato all'intelligenza artificiale (IA) un po' come avvenuto con la creazione dell'Agenzia internazionale per l'energia atomica (Aiea). È una delle proposte formulate dal ceo di OpenAI, Sam Altman, e dai suoi soci, Greg Brockmann e Ilya Sutskever, in un intervento pubblicato sul sito della società che ha creato il popolare software di IA, ChatGpt. "Dato il quadro attuale, è concepibile che entro i prossimi dieci anni i sistemi di IA supereranno il livello di competenza degli esperti nella maggior parte dei settori" scrivono i tre, sottolineando come "in termini di potenziali vantaggi e svantaggi, la super intelligenza sarà più potente di altre tecnologie con cui l'umanità ha dovuto confrontarsi in passato". L'IA richiede quindi "un trattamento e un coordinamento speciali" per mitigare i rischi legati a questa tecnologia, così come avvenuto con il nucleare, avvertono i fondatori di OpenAI, suggerendo una governance condivisa. "È probabile - osservano - che alla fine avremo bisogno di qualcosa come l'Aiea per gli sforzi di super intelligenza. Qualsiasi sforzo al di sopra di una certa soglia di capacità (o di risorse, come il calcolo) dovrà essere soggetto a un'autorità internazionale che sia in grado di ispezionare i sistemi, richiedere verifiche, controllare la conformità agli standard di sicurezza, porre restrizioni sui gradi di diffusione e sui livelli di sicurezza, ecc.".
Leggi l'articolo completo su ANSA.it