Grande Fratello? No, grazie. Nel nuovo capitolo dell'eterna sfida tra uomo e tecnologia, la Commissione europea delimita il campo d'azione dell'intelligenza artificiale (AI) e mette al centro la tutela dei diritti fondamentali e dei valori Ue. Che non possono essere sacrificati nemmeno sull'altare di una corsa economica con Stati Uniti e Cina che per il Continente vale 20 miliardi di investimenti all'anno da qui al 2030. Nel disegno di legge presentato da Bruxelles, non c'è spazio per la sorveglianza di massa e nemmeno per tutte quelle tecnologie che manipolano il comportamento umano per eludere il libero arbitrio e sfruttare i più vulnerabili. Chi proverà a introdurre sul mercato europeo dispositivi non conformi potrebbe incorrere in sanzioni fino al 6% del fatturato.
Se, insomma, è giusto non stigmatizzare una tecnologia diventata sempre più importante per l'intera società, il futuro dell'Ue non ha niente a che vedere con lo stivale che calpesta il volto umano nel '1984' di George Orwell. Perché l'AI dev'essere "etica" e "i cittadini meritano tecnologie di cui possono fidarsi", ha sintetizzato la presidente della Commissione Ue, Ursula von der Leyen. E, poiché tutto ruota intorno alla fiducia, ecco la novità più attesa: l'uso negli spazi pubblici dei sistemi di identificazione biometrica, come il riconoscimento facciale, sarà "vietato in linea di principio", ha scandito la vicepresidente Ue, Margrethe Vestager. Una linea, però, un po' troppo sottile per alcuni. In generale, i sistemi di videosorveglianza associati all'intelligenza artificiale potranno essere dispiegati e utilizzati a posteriori dalle forze dell'ordine solo dopo il via libera di un organo giudiziario o indipendente. Il modello che si vuole bandire è quello della Cina, dove telecamere e altri strumenti digitali sono usati dalle autorità per identificare e controllare tutti i cittadini nello spazio pubblico. Ma sono previste alcune deroghe importanti: i dispositivi di identificazione biometrica potranno essere ammessi in situazioni di emergenza, come cercare bambini scomparsi, prevenire una minaccia specifica alla sicurezza fisica di persone o evitare un attacco terroristico. L'eccezione che farà molto discutere i legislatori europei nei prossimi mesi però è la possibilità di usare questi sistemi per tutti i reati contemplati dal mandato d'arresto europeo, vale a dire 32 specificità. Alcuni crimini sono particolarmente gravi e specifici, come il terrorismo o la tratta di esseri umani. Altri, invece, riguardano un'ampia platea di settori, dal razzismo alla xenofobia, passando per corruzione, truffa, traffico di stupefacenti, frode, riciclaggio, criminalità informatica, favoreggiamento dell'immigrazione clandestina. Per i casi più gravi di questi reati (se in caso di condanna sono previste pene detentive superiori a tre anni), quindi, i sistemi biometrici potranno essere usati per localizzare, identificare o perseguire non solo un colpevole, ma anche un sospetto.
Davanti al lato oscuro dell'AI, l'approccio usato dalla Commissione si basa "sui diversi livelli di rischio", rappresentati in un'ideale piramide al cui apice si trovano una manciata di sistemi da bandire perché portatori di un "rischio inaccettabile" per i diritti fondamentali dell'Ue. Si tratta di tutti quei dispositivi che manipolano i comportamenti, come i videogame che usano l'assistente vocale per incoraggiare i minori ad azioni pericolose, così come sistemi di "punteggio sociale" adottati dai governi, soprattutto in Cina, per classificare gli individui sulla base dei loro comportamenti o della loro personalità per verificarne, ad esempio, la 'fedeltà'.
Al gradino sottostante, ci sono poi tutte le applicazioni "ad alto rischio", che dovranno rispondere a severi obblighi e ottenere un'autorizzazione dai magistrati prima di raggiungere il mercato. Oltre al riconoscimento facciale, si parla in questo caso di dispositivi usati in infrastrutture critiche (trasporti), che potrebbero mettere a rischio la vita e la salute dei cittadini; software per determinare l'accesso all'istruzione (punteggio agli esami) o a una posizione lavorativa (scansione dei cv); sistemi per la valutazione della solvibilità dei cittadini o, ancora, applicazioni usate per vagliare domande d'asilo o documenti di viaggio. In questo ambito, tra le infrastrutture critiche mancano quelle relative alla sanità, elemento su cui alcuni eurodeputati (come la tedesca Alexandra Geese dei Verdi) hanno già promesso battaglia.
Il rischio è invece classificato come "limitato" per servizi come i chatbot, che avranno obblighi di trasparenza specifici, e "minimo" per applicazioni come i filtri antispam.
In termini di governance, la Commissione propone che a vigilare sul rispetto delle nuove norme siano le autorità nazionali, mentre per facilitare la loro attuazione sarà creato un comitato europeo ad hoc, incaricato anche di guidare lo sviluppo di standard per l’AI. A Bruxelles spetterà invece il compito di registrare le applicazioni autonome di AI ad alto rischio in una banca dati europea pubblica. La registrazione e la banca dati permetteranno alle autorità competenti, agli utenti e ad altre persone interessate di verificare se il sistema di intelligenza artificiale ad alto rischio rispetta i requisiti stabiliti nel regolamento in merito alla tutela dei diritti dei cittadini. Per alimentare questo database, i fornitori saranno obbligati a dare informazioni significative sui loro sistemi e sulla valutazione di conformità effettuata su tali sistemi. Per tutti i dispositivi non ad alto rischio, basterà invede adottare e implementare codici di condotta non volontari.
Scongiurato il pericolo di abusi, l'Ue è il "primo Continente a dare linee guida" in materia, ha detto il commissario Thierry Breton che, da responsabile del Mercato interno, non vuole perdere né investitori né il treno dei dati industriali. Proprio ora che la tecnologia può essere d'aiuto nella ripresa economica e per sostenere il cambiamento climatico. Le società che vogliono usare le applicazioni di intelligenza artificiale dovrebbero "venire nell'Ue" perché sapranno "cosa fare, come farlo" e con chi, ha detto il francese, precisando che l'Europa darà loro regole strumenti e infrastrutture. Perlomeno dopo il via libera di Parlamento Ue e Stati membri.
Per ora, sono 19 i Paesi europei che hanno definito una strategia nazionale sull'intelligenza artificiale: Bulgaria, Cipro, Cechia, Danimarca, Estonia, Finlandia, Francia, Germania, Ungheria, Lettonia, Lituania, Lussemburgo, Malta, Olanda, Portogallo, Slovacchia, Svezia, Spagna e Polonia, oltre alla Norvegia. Assente l'Italia.
Riproduzione riservata © Copyright ANSA