"Come tutti i sistemi di intelligenza artificiale generativa i modelli possono restituire risultati imprecisi o inappropriati, continueremo ad affrontare questi problemi e a migliorare le funzionalità man mano che si evolvono": con queste parole, sul suo blog ufficiale, Meta cerca di dare spiegazioni riguardo i problemi, le 'allucinazioni', che si sono verificate sull'attentato a Donald Trump.
Uno ha riguardata le risposte dell'IA che negavano la sparatoria, l'altro un'immagine taroccata dell'ex presidente a cui i sistemi di Meta hanno applicato erroneamente un'etichetta di verifica dei fatti.
"I chatbot, incluso Meta AI, non sono sempre affidabili quando si tratta di fornire ultime notizie o informazioni in tempo reale soprattutto negli eventi dell'ultima ora quando c'è confusione, informazioni contrastanti o vere e proprie teorie del complotto - spiega la società - Invece di fare in modo che Meta AI fornisse informazioni errate sul tentato omicidio l'abbiamo programmata semplicemente per non rispondere alle domande. Da allora abbiamo aggiornato le risposte fornite, ma avremmo dovuto farlo prima. In un numero limitato di casi, l'IA ha continuato a fornire risposte errate, allucinazioni, ed è un problema a livello di settore , una sfida continua per il modo in cui l'intelligenza artificiale gestirà gli eventi in tempo reale in futuro".
Riguardo la foto ritoccata di Trump con il pugno alzato che faceva sembrare che gli agenti dei servizi segreti stessero sorridendo, Meta spiega che è stata "inizialmente applicata un'etichetta di verifica dei fatti perchè ha rilevato contenuti quasi identici all'immagine originale. I nostri team hanno lavorato per correggere rapidamente questo errore. Lavoriamo costantemente per apportare miglioramenti", conclude Meta.
Riproduzione riservata © Copyright ANSA