Il problema principale dell'intelligenza artificiale generativa è la percentuale di errori, le cosiddette "allucinazioni", che può restituire nelle sue risposte. Per rendere la tecnologia più affidabile, Microsoft ha pensato ad un sistema che, in tempo reale, corregge quanto scritto, se trova online informazioni differenti, più dettagliate, rispetto al tema sul quale ha fornito un feedback.
Qualcosa del genere era stato presentato da Google quando ha annunciato la funzione "double check" di Gemini, grazie alla quale il chatbot mostra le fonti di informazione da cui ha prelevato le risposte se individua online pareri diversi su un argomento.
Gli ingegneri di Microsoft hanno trascorso mesi a far lavorare sempre più di concerto l'IA di Copilot con i dati di ricerca del motore Bing, tramite la cosiddetta "generazione aumentata del recupero", in gergo Rag, un processo di ottimizzazione di un modello linguistico di grandi dimensioni, così che faccia riferimento ad una base di conoscenza autorevole, al di fuori delle sue fonti di dati.
"Le risposte, l'indice e i dati di classificazione di Bing aiutano Copilot a fornire risposte più accurate e pertinenti, insieme a citazioni utili a verificare le informazioni" scrive Sarah Bird, Chief Product Officer dell'area Responsible AI di Microsoft. La data di rilascio di questa nuova funzionalità non è stata ancora annunciata. Il colosso americano porterà una simile tecnica negli strumenti di IA che offre alle aziende. Su Azure OpenAI Service, con la funzione chiamata "On Your Data", le imprese potranno integrare i propri dati nelle applicazioni di intelligenza artificiale, usando un'opzione che, in tempo reale, rileva il grado di "concretezza" delle risposte fornite da chatbot, correggendole all'occorrenza.
Riproduzione riservata © Copyright ANSA