Da qualche settimana, gli utenti che hanno accesso alla versione beta di WhatsApp (Meta) in inglese possono usare l'intelligenza artificiale per creare adesivi virtuali da 'incollare' nelle chat: basta chiedere cosa si vuole e questa, in pochi secondi, realizza una piccola grafica. Le prove effettuate dal quotidiano britannico Guardian, digitando la parola 'Palestina' o termini correlati come 'bambino palestinese', portano l'Ia a generare anche ragazzini che imbracciano armi. Lo stesso non accade con Israele. La richiesta 'Hamas' restituisce invece il messaggio 'impossibile generare adesivi Ia. Per favore riprova'.
Secondo l'articolo, la problematica potrebbe derivare dai suggerimenti umani che vengono forniti all'algoritmo, aggiungendo riferimenti alla guerra in corso. Il portavoce di Meta, Kevin McAlister, ha dichiarato al sito The Verge che la società si sta occupando della questione, aggiungendo che "continuerà a migliorare queste funzionalità man mano che si evolve e che un maggior numero di persone condivideranno il loro feedback".
Meta ha avuto altri problemi con i cosiddetti 'bias', i pregiudizi, nei suoi modelli di intelligenza artificiale, come la funzione di traduzione automatica di Instagram che inserisce la parola 'terrorista' nelle biografie degli utenti scritte in arabo.
"Le immagini dell'intelligenza artificiale di bambini palestinesi raffigurati con armi da fuoco su WhatsApp sono una visione terrificante dei criteri razzisti e islamofobici inseriti nell'algoritmo", ha commentato al Guardian l'esponente politica di origini pakistane, Mehreen Faruqi. "Quanti altri bug razzisti dovranno essere scoperti prima che venga intrapresa un'azione seria? Il danno è già stato fatto. Meta deve essere ritenuta responsabile", ha aggiunto.
Leggi l'articolo completo su ANSA.it