Rubriche

Un algoritmo pulirà l'IA dai pregiudizi di genere

Un team italiano ha creato uno strumento anti-stereotipi

Redazione Ansa

 L'intelligenza artificiale rischia di essere un nuovo motore di propagazione della discriminazione di genere e di quel sessismo linguistico che permea la comunicazione, anche quella istituzionale. Lo stesso meccanismo di "alimentazione" degli algoritmi che generano i prodotti generativi di contenuti è, infatti, per sua natura veicolo di riproduzione e perpetuazione di quelli stereotipi che permeano la società e che, anche in modo inconsapevole, finiscono così per moltiplicare gli effetti di una rappresentazione sessista della società.
    Arriva però uno strumento che sarà in grado di intervenire per "correggere" tutte quelle distorsioni linguistiche che sono veicolo di discriminazione.
    E' un algoritmo che lavora su una grande quantità di testi di matrice amministrativa per "ripulirli" da ogni termine che abbia un carattere discriminatorio.
    Il progetto, un Prin, un progetto cioè di Rilevante Interesse Nazionale, finanziato dal Ministero dell'Università e della Ricerca, a cui lavorano tre università Italiane, il Politecnico di Torino, l'Università di Bologna e l'Università di Tor Vergata aveva come obiettivo la costruzione un modello che interviene sui 'corpora testuali' che servono a testare gli algoritmi, proprio per modificarli nel senso dell'inclusione.
    Il progetto, che si chiama Empowering Multilingual Inclusive Communication, E-MIMIC, "cerca di riformulare il testo amministrativo in un modo non discriminatorio: questo vuol dire che il sistema permette all'utente finale di individuare quelli che sono i segmenti della frase che possono creare la discriminazione, e non solo di genere ma anche, ad esempio, del cosiddetto 'ageismo', quella forma di discriminazione in base all'età, o nei confronti delle persone disabili, o ipovedenti.
    Poi, una volta individuati i segmenti erronei, in una seconda fase propone un nuovo testo che elimina queste discriminazioni" spiega Rachele Raus, francesista dell'Università di Bologna che lavora al progetto. L'utente poi può scegliere se intervenire o meno ma lo fa dopo aver potuto acquisire una consapevolezza rispetto al linguaggio acquisito. "Il nostro team, con il Politecnico di Torino, ha in sostanza creato delle reti neurali che sono in grado di fare nella prima fase un processo di encoding, un classificatore in grado di individuare appunto gli strumenti non inclusivi e, nella seconda fase di decoding, di generare un testo nuovo, pulito" spiega la professoressa Raus.
    (ANSA).
   

Leggi l'articolo completo su ANSA.it