BRUXELLES - Al via i lavori della Rete internazionale degli istituti di sicurezza per l'intelligenza artificiale che punta a sviluppare una comprensione unitaria dei rischi per la sicurezza posti dall'IA e delle conseguenti strategie di mitigazione.
Il primo incontro si è tenuto a Francisco dove si sono riuniti gli istituti di sicurezza per l'IA e gli uffici governativi di Stati Uniti, Commissione europea, Regno Unito, Francia, Australia, Canada, Giappone, Repubblica di Corea, Singapore e Kenya.
L'iniziativa, si legge in una nota della Commissione, segna l'inizio di una nuova fase di collaborazione internazionale in materia di sicurezza della nuova tecnologia. La Rete riunisce organizzazioni tecniche che si dedicano alla promozione della sicurezza dell'IA, aiutando governi e società a comprendere meglio i rischi posti dai sistemi avanzati di IA e proponendo soluzioni per mitigare tali rischi. Oltre ad affrontare i potenziali danni, gli istituti e gli uffici coinvolti guideranno lo sviluppo e la diffusione responsabile dei sistemi di IA.
La Rete internazionale degli istituti per la sicurezza dell'IA fungerà da forum per la collaborazione, riunendo le competenze tecniche per affrontare i rischi e le migliori pratiche in materia di sicurezza dell'IA. Quattro le aree prioritarie su cui si concentrerà la rete: ricerca, test, orientamento, inclusione.
La Rete collaborerà con la comunità scientifica per far progredire la ricerca sui rischi e le capacità dei sistemi avanzati di IA; e svilupperà e condividerà le migliori pratiche per testare i sistemi avanzati di IA. Gli istituti faciliteranno inoltre approcci condivisi all'interpretazione dei risultati dei test sui sistemi avanzati di IA per garantire risposte coerenti ed efficaci. I partner e le parti interessate verranno coinvolte in tutte le fasi di sviluppo, condividendo informazioni e strumenti tecnici in modo accessibile per ampliare la partecipazione alla scienza della sicurezza dell'IA.
Con questa Rete, i membri si impegnano a promuovere l'allineamento internazionale sulla ricerca, la sperimentazione e la guida in materia di sicurezza delle IA. Promuovendo la collaborazione tecnica e l'inclusività, essi mirano a garantire che i benefici dell'innovazione dell'IA sicura, protetta e affidabile siano ampiamente condivisi, consentendo all'umanità di realizzare pienamente il potenziale della nuova tecnologia.
Leggi l'articolo completo su ANSA.it