/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Lobby tech, AI Act manca di un reale approccio al rischio

Lobby tech, AI Act manca di un reale approccio al rischio

'Fase di attuazione può apportare miglioramenti cruciali'

BRUXELLES, 20 giugno 2024, 15:07

Redazione ANSA

ANSACheck
Lobby tech, AI Act manca di un reale approccio al rischio © ANSA/EPA

Lobby tech, AI Act manca di un reale approccio al rischio © ANSA/EPA

La legge europea sull'intelligenza artificiale (IA) manca di un reale approccio basato sul rischio e porterà all'incertezza giuridica e a un eccesso di regolamentazione, oltre che a un aumento ingiustificato dei costi di conformità, a meno che non vengano apportati miglioramenti cruciali durante l'imminente fase di attuazione. È l'avvertimento lanciato in uno studio sull'AI Act, prossimo all'entrata in vigore, commissionato dalla lobby tech Computer & Communications Industry Association (Ccia Europe).
    Lo studio, condotto dal docente di diritto informatico, Martin Ebers, rileva che numerose norme sono il risultato di compromessi politici affrettati piuttosto che di un'analisi approfondita dei rischi e dei benefici. L'attuale sistema di classificazione dei sistemi di IA ad alto rischio, ad esempio, non è adeguatamente supportato da prove empiriche, osserva l'esperto, che invita l'Ufficio Ue per l'IA, operativo da questa settimana, a modificare e perfezionare gli attuali casi di uso ad alto rischio.
    La ricerca evidenzia inoltre l'importanza di garantire in futuro che i benefici economici e sociali dei sistemi di IA siano esplicitamente soppesati rispetto ai rischi, cosa che ancora non avviene. Il rapporto chiede inoltre una metodologia unificata per identificare e valutare i rischi sistemici derivanti dai modelli di IA per scopi generali (Gpai), ossia l'IA generativa, in gran parte non definiti nella legge sull'IA a seguito di compromessi politici. Allo stesso modo, l'Ufficio AI dovrebbe aggiornare la soglia per i modelli Gpai con rischi sistemici, basandosi su prove tangibili.
    "Questo studio propone soluzioni concrete a problemi seri" ha commentato Boniface de Champris, Senior Policy Manager di CCIA Europe, esortando l'Ufficio dell'Ue per l'IA a "garantire che l'attuazione dell'AI Act rispetti l'approccio basato sul rischio previsto, comprese le linee guida, il diritto derivato, gli standard e i codici di condotta".

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza