Il caso Tom Hanks, che ha denunciato di essere stato clonato a sua insaputa dall'intelligenza artificiale per lo spot di un'assicurazione dentistica, è solo l'ultima dimostrazione di come l'IA, l'insieme delle tecnologie finalizzate a realizzare algoritmi che mostrino abilità tipicamente umane, sia destinata ad avere un forte impatto su economia, società e ambiente. Nasce da questa consapevolezza il Manifesto per la sostenibilità digitale dell'intelligenza artificiale, lanciato dalla Fondazione per la sostenibilità digitale, che ha lavorato con filosofi, giuristi, ingegneri, docenti delle università per analizzare sfide ed opportunità dell'IA e identificare, nell'ultima parte del documento, per ciascun Sdg (Sustainable Development Goal), quelle caratteristiche dell'intelligenza artificiale che più di altre contribuiscono alla realizzazione dei singoli obiettivi.
Per garantire lo sviluppo sostenibile dell'intelligenza artificiale - si legge nel Manifesto - è necessario che essa rispetti alcune caratteristiche intrinseche che devono regolarne l'evoluzione e che sono concepite per minimizzare i rischi della sua applicazione massimizzando le opportunità che tale tecnologia dischiude. 1) Rispetto dei diritti fondamentali - I sistemi IA devono essere progettati fin dall'inizio per garantire il rispetto della dignità umana e dei diritti fondamentali, come definiti dalla Carta dei diritti fondamentali dell'Unione europea e della Convenzione europea dei diritti dell'uomo. 2) Privacy - L'IA deve rispettare i criteri ed i principi in tema di protezione dei dati personali. 3) Trasparenza - L'IA deve basarsi su criteri di trasparenza sia per quanto attiene i dati di training e le fonti di riferimento, che per ciò che riguarda le logiche e gli algoritmi adottati. 4) Non discriminatorietà - L'IA non deve creare disparità di trattamento tra soggetti o gruppi di soggetti. 5) Sicurezza - I sistemi IA devono garantire la confidenzialità, integrità e disponibilità delle informazioni, tenere in considerazione i possibili rischi derivanti dalle interazioni con le persone e con gli altri sistemi, e prevedere meccanismi di sicurezza fin dalla progettazione. 6) Interoperabilità - L'IA non deve creare nuovi "walled gardens" ma deve basarsi su standard e protocolli aperti. 7) Portabilità - L'utente deve avere la possibilità di esportare i propri dati (non soltanto quelli personali) in un formato strutturato e trasferirli da un sistema all'altro. 8) Accessibilità - I sistemi di IA devono garantire l'accesso alle persone con disabilità, "senza lasciare indietro nessuno". 9) Revoca - Deve essere garantita la possibilità di un'efficace supervisione umana, che possa incidere ove necessario su processi e azioni governati o eseguiti dall'IA. 10) Riconoscibilità - Gli utenti devono essere messi in condizione, in maniera semplice e intuitiva, di sapere che stanno interagendo con un sistema di IA. Anche i prodotti dell'IA devono essere chiaramente identificati. 11) Proporzionalità del rischio - Nello sviluppo dell'IA deve esistere un rapporto di proporzionalità tra i modelli di implementazione, le dinamiche di utilizzo ed i processi regolamentari in relazione alla portata dei rischi che possono essere generati dalla sua adozione. 12) Efficienza energetica - I sistemi di IA devono essere progettati tenendo in considerazione l'impatto ambientale generato tanto nelle fasi di addestramento che di esercizio ed utilizzo da parte dell'utenza.
Leggi l'articolo completo su ANSA.it