/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Microsoft, nuovo strumento identifica e corregge errori dell'IA

Microsoft, nuovo strumento identifica e corregge errori dell'IA

Per sviluppatori, filtra materiale indesiderato in testo e foto

ROMA, 25 settembre 2024, 10:58

Redazione ANSA

ANSACheck
© ANSA/EPA

© ANSA/EPA

Un nuovo strumento per correggere le 'allucinazioni', per identificare e gestire i contenuti inappropriati o potenzialmente pericolosi generati dall'intelligenza artificiale in applicazioni e servizi. Lo ha lanciato Microsoft e si chiama Azure AI Content Safety.

La caratteristica principale è quella di avere delle interfacce di programmazione (le cosiddette Api) che aiutano gli sviluppatori a individuare il materiale indesiderato sia nel testo sia nelle immagini. Tra queste c'è l'Api di rilevamento della fondatezza: permette di determinare se le risposte fornite dai modelli linguistici di grandi dimensioni sono basate su materiali di origine selezionati dall'utente, uno strumento che può rivelare agli sviluppatori le cosiddette 'allucinazioni'.

 La società di Redmond ha anche annunciato l'anteprima di una funzionalità che consente di correggere in tempo reale proprio le allucinazioni presenti nei risultati dell'intelligenza artificiale. Quando viene individuata una frase non esatta, il sistema invia una richiesta di correzione al modello generativo dell'IA che valuta la frase e se necessario la riscrive.
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza