È Liz Reid, la manager a capo di
Ricerca Google, a spiegare cosa è successo nei giorni scorsi,
quando Gemini AI ha consigliato alle persone di mettere la colla
sulla pizza o di mangiare sassi. "Nell'ultima settimana, molti
sui social media hanno condiviso alcune risposte strane ed
errate della nuova 'Panoramica AI' di Google Search. Apprezziamo
il feedback e prendiamo la questione sul serio anche se online
abbiamo visto molti screenshot falsi. Alcuni di questi erano
palesemente fake. Anche perché lasciavano intendere che Google
avesse restituito risultati pericolosi, come lasciare i cani in
macchina o fumare durante la gravidanza e la depressione. Quelle
risposte dell'IA non sono mai apparse".
Il caso della generazione di affermazioni fuorvianti e
bizzarre di AI Overview, la funzione attiva solo negli Usa che
permette di visualizzare una sintesi testuale di ciò che si è
ricercato prima dei classici link ai siti, è scoppiato a seguito
delle decine di schermate pubblicate sui forum dagli utenti che
riprendevano le affermazioni del chatbot Gemini, a cui si deve
il riassunto. Tra queste, il consiglio di completare la pizza
con la colla o di mangiare sassi se si ha carenza di minerali e
vitamine. "Alcune panoramiche dell'IA strane, imprecise o
inutili sono sicuramente apparse - prosegue Liz Reid - Ciò si
deve a quello che chiamiamo 'gap informativo', che si ha quando
sul web ci sono poche fonti su un determinato argomento". "Ci
sono aree in cui dobbiamo migliorare e stiamo lavorando proprio
per questo. Grazie agli esempi recenti, siamo stati in grado di
determinare i modelli che non avevano approcciato correttamente,
così da apportare più di una dozzina di miglioramenti tecnici",
conclude la manager.
Riproduzione riservata © Copyright ANSA