"Lavoreremo per migliorare l'intelligenza artificiale di Gemini ma è concepito come uno strumento di creatività e produttività e potrebbe non essere sempre affidabile, soprattutto quando si tratta di generare immagini o testo su eventi attuali, notizie in evoluzione o argomenti scottanti. Commetterà errori": lo ammette in un post ufficiale Prabhakar Raghavan, senior vice president di Google, dopo la decisione di mettere in pausa la generazione delle immagini delle persone che hanno mostrato inaccuratezza ed errori storici, soprattutto se associate a persone con pelle bianca.
Dal lungo post di spiegazione di Raghavan emerge quello che già si era intuito: il sistema di intelligenza artificiale Gemini ha sbagliato per eccesso di inclusività, per cui foto di vichinghi, soldati di Hitler o cavalieri medievali non presentavano persone bianche ma solo di pelle nera o asiatici.
E' stata "ottimizzata per garantire che non cadesse in alcune delle trappole che abbiamo visto in passato con la tecnologia di generazione di immagini", osserva il manager, e "poiché i nostri utenti provengono da tutto il mondo, vogliamo che funzioni bene per tutti", così il modello di IA ha "compensato eccessivamente, portando a immagini imbarazzanti e sbagliate", aggiunge Raghavan.
"Come abbiamo detto fin dall'inizio - conclude - le 'allucinazioni' sono una sfida nota per tutti i modelli. Non era nostra intenzione creare foto solo con un gruppo di etnie o fare errori storici. Posso promettere che continueremo ad agire ogni volta che identifichiamo un problema ma non posso promettere che Gemini non genererà occasionalmente risultati imbarazzanti, imprecisi o offensivi, L'intelligenza artificiale è una tecnologia emergente utile in tanti modi, con un enorme potenziale e stiamo facendo del nostro meglio per implementarla in modo sicuro e responsabile".
Riproduzione riservata © Copyright ANSA