Governance, gestione del rischio e supervisione. Sono questi i tre aspetti in cui si struttura il piano sull'intelligenza artificiale (IA) elaborato dal Garante europeo della protezione dei dati (Gepd), incaricato della supervisione in materia di IA delle istituzioni Ue.
In primo luogo, è necessario che "la governance segua un approccio multilaterale e inter-istituzionale", osserva e Leonardo Cervera Navas, segretario generale del Gepd, sottolineando la necessità di "lavorare insieme per utilizzare correttamente l'IA nella pubblica amministrazione dell'Ue". Quanto alla gestione dei rischi derivanti dall'IA, Navas mette in guardia dal rischio di "una paralisi" nel caso in cui tutto venga "considerato ad alto rischio"; al contrario, "se i rischi reali non vengono affrontati e mitigati, il prezzo da pagare sarà alto", avverte il segretario generale, che invita quindi a destinare una parte degli investimenti IT alla gestione del rischio e alla conformità interna degli strumenti di IA.
E si arriva così al terzo punto, quella della supervisione dello sviluppo, della diffusione e dell'uso degli strumenti di IA nelle istituzioni dell'Ue. A questo proposito, il Gepd punta a "istituire procedure di base per la gestione dei reclami, stabilire processi che consentano alle persone di far valere i propri diritti in materia di protezione dei dati, sviluppare meccanismi per la supervisione, il divieto e la sanzione dell'uso dell'IA per la categorizzazione biometrica, il riconoscimento facciale, la deduzione delle emozioni e altri usi vietati dalla legge sull'IA".
Nel complesso, il piano per l'IA richiederà "risorse aggiuntive" scrive infine Navas, esortando le le istituzioni dell'Ue, supportate dal Garante in qualità di supervisore dell'IA, a "dare l'esempio" sfruttando i vantaggi della nuova tecnologia, mantenendo al contempo la sicurezza delle persone e della loro privacy.
Riproduzione riservata © Copyright ANSA