Si chiama Huderia lo strumento
elaborato dal Comitato sull'intelligenza artificiale (Cai) del
Consiglio d'Europa con l'obiettivo di fornire una guida e un
approccio strutturato per condurre valutazioni del rischio e
dell'impatto dei sistemi di IA. Si tratta di una metodologia
volta a sostenere l'attuazione della Convenzione quadro sull'IA
e i diritti umani, la democrazia e lo stato di diritto, primo
trattato internazionale giuridicamente vincolante in materia
adottato nel maggio scorso e aperto alla firma il 5 settembre
2024 a Vilnius.
La metodologia, si legge in una nota del Consiglio d'Europa,
prevede tra l'altro la creazione di un piano di mitigazione del
rischio per ridurre al minimo o eliminare i rischi identificati,
proteggendo il pubblico da potenziali danni. Ad esempio, se si
scopre che un sistema di IA utilizzato per le assunzioni è
prevenuto nei confronti di alcuni gruppi demografici, il piano
di mitigazione potrebbe comportare l'adeguamento dell'algoritmo,
l'implementazione della supervisione umana e/o l'applicazione di
altre misure di governance adeguate e sufficienti.
La metodologia, che può essere utilizzata sia da attori pubblici
che da attori privati, richiede rivalutazioni periodiche per
garantire che il sistema di IA continui a funzionare in modo
sicuro e compatibile con gli obblighi in materia di diritti
umani, man mano che il contesto e la tecnologia si evolvono.
Questo approccio, osservano da Strasburgo, garantisce che il
pubblico sia protetto dai rischi emergenti durante l'intero
ciclo di vita del sistema di IA.
Il Cai ha adottato la metodologia Huderia durante la sua
dodicesima riunione plenaria, tenutasi a Strasburgo dal 26 al 28
novembre. Nel 2025 sarà integrata dal modello Huderia, che
fornirà una biblioteca di conoscenze contenente materiali e
risorse di supporto.
Riproduzione riservata © Copyright ANSA