/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Google ammette errori in ricerca IA, 'ma alcuni erano fake'

Google ammette errori in ricerca IA, 'ma alcuni erano fake'

La compagnia torna su funzione con Gemini: "Dobbiamo migliorare"

MILANO, 31 maggio 2024, 15:38

Redazione ANSA

ANSACheck

© ANSA/EPA

È Liz Reid, la manager a capo di Ricerca Google, a spiegare cosa è successo nei giorni scorsi, quando Gemini AI ha consigliato alle persone di mettere la colla sulla pizza o di mangiare sassi. "Nell'ultima settimana, molti sui social media hanno condiviso alcune risposte strane ed errate della nuova 'Panoramica AI' di Google Search. Apprezziamo il feedback e prendiamo la questione sul serio anche se online abbiamo visto molti screenshot falsi. Alcuni di questi erano palesemente fake. Anche perché lasciavano intendere che Google avesse restituito risultati pericolosi, come lasciare i cani in macchina o fumare durante la gravidanza e la depressione. Quelle risposte dell'IA non sono mai apparse".
    Il caso della generazione di affermazioni fuorvianti e bizzarre di AI Overview, la funzione attiva solo negli Usa che permette di visualizzare una sintesi testuale di ciò che si è ricercato prima dei classici link ai siti, è scoppiato a seguito delle decine di schermate pubblicate sui forum dagli utenti che riprendevano le affermazioni del chatbot Gemini, a cui si deve il riassunto. Tra queste, il consiglio di completare la pizza con la colla o di mangiare sassi se si ha carenza di minerali e vitamine. "Alcune panoramiche dell'IA strane, imprecise o inutili sono sicuramente apparse - prosegue Liz Reid - Ciò si deve a quello che chiamiamo 'gap informativo', che si ha quando sul web ci sono poche fonti su un determinato argomento". "Ci sono aree in cui dobbiamo migliorare e stiamo lavorando proprio per questo. Grazie agli esempi recenti, siamo stati in grado di determinare i modelli che non avevano approcciato correttamente, così da apportare più di una dozzina di miglioramenti tecnici", conclude la manager.
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza