/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Arriva Huderia, servirà a valutare i rischi dei sistemi di IA

Arriva Huderia, servirà a valutare i rischi dei sistemi di IA

Lo strumento è stato elaborato dal Consiglio d'Europa

BRUXELLES, 04 dicembre 2024, 13:51

Redazione ANSA

ANSACheck
© ANSA/EPA

© ANSA/EPA

Si chiama Huderia lo strumento elaborato dal Comitato sull'intelligenza artificiale (Cai) del Consiglio d'Europa con l'obiettivo di fornire una guida e un approccio strutturato per condurre valutazioni del rischio e dell'impatto dei sistemi di IA. Si tratta di una metodologia volta a sostenere l'attuazione della Convenzione quadro sull'IA e i diritti umani, la democrazia e lo stato di diritto, primo trattato internazionale giuridicamente vincolante in materia adottato nel maggio scorso e aperto alla firma il 5 settembre 2024 a Vilnius.
    La metodologia, si legge in una nota del Consiglio d'Europa, prevede tra l'altro la creazione di un piano di mitigazione del rischio per ridurre al minimo o eliminare i rischi identificati, proteggendo il pubblico da potenziali danni. Ad esempio, se si scopre che un sistema di IA utilizzato per le assunzioni è prevenuto nei confronti di alcuni gruppi demografici, il piano di mitigazione potrebbe comportare l'adeguamento dell'algoritmo, l'implementazione della supervisione umana e/o l'applicazione di altre misure di governance adeguate e sufficienti.
    La metodologia, che può essere utilizzata sia da attori pubblici che da attori privati, richiede rivalutazioni periodiche per garantire che il sistema di IA continui a funzionare in modo sicuro e compatibile con gli obblighi in materia di diritti umani, man mano che il contesto e la tecnologia si evolvono.
    Questo approccio, osservano da Strasburgo, garantisce che il pubblico sia protetto dai rischi emergenti durante l'intero ciclo di vita del sistema di IA.
    Il Cai ha adottato la metodologia Huderia durante la sua dodicesima riunione plenaria, tenutasi a Strasburgo dal 26 al 28 novembre. Nel 2025 sarà integrata dal modello Huderia, che fornirà una biblioteca di conoscenze contenente materiali e risorse di supporto.
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza