Può essere un passo iniziale verso una disciplina globale dell'intelligenza artificiale, per fissare quelli che Giorgia definisce "guardrail etici". Intanto l'AI Safety Summit organizzato da Rishi Sunak si chiude con quello che il primo ministro britannico ha annunciato come un "accordo storico con le aziende del settore". "Potremo testare la sicurezza dei nuovi modelli di AI prima che siano rilasciati", spiega nella conferenza stampa a conclusione della due giorni di confronto fra governi, società specializzate ed esperti, nella suggestiva location di Bletchley Park, la tenuta a 80 chilometri dalla capitale, dove scienziati e intelligence britannici decifrarono il codice Enigma dei nazisti.
L'obiettivo è accelerare sulla ricerca, tentando di tenere il ritmo dell'evoluzione di tecnologie come ChatGPT e altri sistemi di intelligenza artificiale generativa. Poi servirà uno sforzo di regolazione multilaterale, e in quest'ottica 28 Paesi hanno firmato la dichiarazione finale, accogliendo l'input di Sunak a uno sforzo per cercare di "padroneggiare i rischi" che "nessuno può contrastare da solo", a fronte delle enormi potenziali opportunità. Il volano di sviluppo "è senza pari" assicura l'inglese, convinto che "nessun Paese da solo può contenere" le insidie. Pericoli che possono riguardare "meccanismi decisionali opachi, discriminazioni, intrusioni nella nostra vita privata, fino ad arrivare ad atti criminali, perché gli LLM-Large Language Model potrebbero essere utilizzati per produrre armi, danni biologici a bassa tecnologia, attacchi informatici, facilitare la personalizzazione del phishing", sottolinea Meloni nel confronto con Sunak, la vicepresidente degli Stati Uniti Kamala Harris, la presidente della Commissione Ue Ursula von der Leyen, il segretario generale dell'Onu Antonio Guterres e gli altri leader al tavolo. Alla seconda giornata di lavori non è stata invitata la Cina, che invece nella prima ha firmato la dichiarazione finale assieme anche a Stati Uniti e Unione europea. I prossimi mesi diranno se e come si concretizzerà un approccio globale o quanto meno si definiranno standard di sicurezza di base condivisi.
Fra i pericoli c'è anche quello di un quadro regolatorio frammentario, e per questo in Europa si guarda con grande interesse al coinvolgimento di Pechino nella discussione. Al tavolo i cinesi si sono posti con atteggiamento costruttivo, sottolineano fonti diplomatiche europee, anche se c'è chi li ritiene "inaffidabili", come Michael Kratsios, dirigente della piattaforma Scale AI ed ex chief technology officer degli Usa con Donald Trump alla Casa Bianca. Per Sunak il bicchiere è mezzo pieno. Invitare la Cina non è stata una facile decisione, ha ammesso, ma è una scelta sul lungo termine, e ogni seria conversazione su questa materia non può non coinvolgere le nazioni leader sull'intelligenza artificiale. La sessione conclusiva dei lavori si è aperta anche a scienziati, esperti e leader di aziende come OpenAI, Anthropic, Google DeepMind, Microsoft, Meta o xAI, a partire da Elon Musk.
Sul tavolo i temi che l'Italia metterà al centro del suo G7, organizzando "a Roma una Conferenza internazionale su intelligenza artificiale e lavoro", annuncia Meloni, secondo cui "l'intelligenza artificiale è destinata ad incidere marcatamente sugli scenari geopolitici e sugli equilibri attuali", e consentendo che si sviluppi senza regole si rischia "che sempre più persone non siano necessarie nel mercato del lavoro con conseguenze pesantissime sull'equa distribuzione della ricchezza". C'è una certa ansia nell'opinione pubblica su questo fronte, ammette Sunak, che però invita a guardare all'AI "come a un copilota, che aiuta le persone a fare le cose più rapidamente, più che a uno strumento che sostituirà i lavoratori".
Leggi l'articolo completo su ANSA.it