Rubriche

Arriva il Patto Ue sull'IA, stilata la prima bozza

Servirà ad anticipare l'attuazione dei pilastri dell'AI Act

Arriva il Patto Ue sull'IA, stilata la prima bozza

Redazione Ansa

BRUXELLES - L'Ufficio europeo per l'intelligenza artificiale ha stilato una prima bozza del Patto Ue per l'IA, volta ad agevolare la graduale attuazione dell'AI Act, la legge che disciplina lo sviluppo, l'immissione sul mercato e l'uso dei sistemi di IA nell'Unione europea. Il complesso di norme, il primo al mondo in materia, entrerà in vigore il 2 agosto, ma sarà applicabile solo dopo due anni.

Con qualche eccezione: a partire dai divieti alle pratiche di IA che presentano un rischio inaccettabile - applicabili dopo sei mesi -, passando alle norme sui controlli per i sistemi di IA per finalità generali che entreranno a pieno regime dopo un anno insieme a quelle sulla governance dell'IA.

Per facilitare l'attuazione dei pilastri dell'AI Act, Bruxelles è al lavoro su un documento che verrà ora sottoposto agli stakeholder per raccogliere feedback e approfondimenti.

Nella bozza del Patto figurano diversi impegni su obblighi di trasparenza e requisiti per i sistemi di IA che potrebbero essere classificati come ad alto rischio. Agli sviluppatori si chiede ad esempio di elaborare politiche per garantire set di dati di alta qualità per l'addestramento dei sistemi di IA; fornire strumenti per etichettare in modo chiaro e distinguibile i contenuti generati dall'intelligenza artificiale; mettere in atto processi per identificare i possibili rischi per la salute, la sicurezza e i diritti fondamentali; attuare politiche e processi volti a mitigare i rischi.

Il Patto prevede poi impegni ben definiti come la garanzia che le persone siano informate quando interagiscono direttamente con un sistema di IA così come lo siano i lavoratori sull'eventuale uso dell'intelligenza artificiale sul posto di lavoro. I deepfake dovranno poi essere etichettati in modo chiaro e distinguibile. Previste poi una mappatura dei possibili rischi per i diritti fondamentali e l'implementazione di misure concrete che garantiscano la supervisione umana sulle decisioni raccomandate o prese dai sistemi di IA.

Leggi l'articolo completo su ANSA.it