Rubriche

Google ammette errori in ricerca IA, 'ma alcuni erano fake'

La compagnia torna su funzione con Gemini: "Dobbiamo migliorare"

Redazione Ansa

(ANSA) - MILANO, 31 MAG - È Liz Reid, la manager a capo di Ricerca Google, a spiegare cosa è successo nei giorni scorsi, quando Gemini AI ha consigliato alle persone di mettere la colla sulla pizza o di mangiare sassi. "Nell'ultima settimana, molti sui social media hanno condiviso alcune risposte strane ed errate della nuova 'Panoramica AI' di Google Search. Apprezziamo il feedback e prendiamo la questione sul serio anche se online abbiamo visto molti screenshot falsi. Alcuni di questi erano palesemente fake. Anche perché lasciavano intendere che Google avesse restituito risultati pericolosi, come lasciare i cani in macchina o fumare durante la gravidanza e la depressione. Quelle risposte dell'IA non sono mai apparse".
    Il caso della generazione di affermazioni fuorvianti e bizzarre di AI Overview, la funzione attiva solo negli Usa che permette di visualizzare una sintesi testuale di ciò che si è ricercato prima dei classici link ai siti, è scoppiato a seguito delle decine di schermate pubblicate sui forum dagli utenti che riprendevano le affermazioni del chatbot Gemini, a cui si deve il riassunto. Tra queste, il consiglio di completare la pizza con la colla o di mangiare sassi se si ha carenza di minerali e vitamine. "Alcune panoramiche dell'IA strane, imprecise o inutili sono sicuramente apparse - prosegue Liz Reid - Ciò si deve a quello che chiamiamo 'gap informativo', che si ha quando sul web ci sono poche fonti su un determinato argomento". "Ci sono aree in cui dobbiamo migliorare e stiamo lavorando proprio per questo. Grazie agli esempi recenti, siamo stati in grado di determinare i modelli che non avevano approcciato correttamente, così da apportare più di una dozzina di miglioramenti tecnici", conclude la manager. (ANSA).
   

Leggi l'articolo completo su ANSA.it