/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

WhatsApp crea bimbi palestinesi armati, sotto accusa sistema di IA

WhatsApp crea bimbi palestinesi armati, sotto accusa sistema di IA

Generazione di 'adesivi' lanciata in anteprima con sistema di Intelligenza artificiale

MILANO, 07 novembre 2023, 11:00

Redazione ANSA

ANSACheck

- RIPRODUZIONE RISERVATA

- RIPRODUZIONE RISERVATA
- RIPRODUZIONE RISERVATA

Da qualche settimana, gli utenti che hanno accesso alla versione beta di WhatsApp (Meta) in inglese possono usare l'intelligenza artificiale per creare adesivi virtuali da 'incollare' nelle chat: basta chiedere cosa si vuole e questa, in pochi secondi, realizza una piccola grafica. Le prove effettuate dal quotidiano britannico Guardian, digitando la parola 'Palestina' o termini correlati come 'bambino palestinese', portano l'Ia a generare anche ragazzini che imbracciano armi. Lo stesso non accade con Israele. La richiesta 'Hamas' restituisce invece il messaggio 'impossibile generare adesivi Ia. Per favore riprova'.

Secondo l'articolo, la problematica potrebbe derivare dai suggerimenti umani che vengono forniti all'algoritmo, aggiungendo riferimenti alla guerra in corso. Il portavoce di Meta, Kevin McAlister, ha dichiarato al sito The Verge che la società si sta occupando della questione, aggiungendo che "continuerà a migliorare queste funzionalità man mano che si evolve e che un maggior numero di persone condivideranno il loro feedback".

Meta ha avuto altri problemi con i cosiddetti 'bias', i pregiudizi, nei suoi modelli di intelligenza artificiale, come la funzione di traduzione automatica di Instagram che inserisce la parola 'terrorista' nelle biografie degli utenti scritte in arabo.

"Le immagini dell'intelligenza artificiale di bambini palestinesi raffigurati con armi da fuoco su WhatsApp sono una visione terrificante dei criteri razzisti e islamofobici inseriti nell'algoritmo", ha commentato al Guardian l'esponente politica di origini pakistane, Mehreen Faruqi. "Quanti altri bug razzisti dovranno essere scoperti prima che venga intrapresa un'azione seria? Il danno è già stato fatto. Meta deve essere ritenuta responsabile", ha aggiunto.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza