Mappare, misurare e gestire i rischi per le applicazioni di intelligenza artificiale generativa durante tutto il loro ciclo di sviluppo. È uno dei punti contenuti nella prima edizione del Responsible AI Transparency Report di Microsoft, nel quale vengono condivise le pratiche dell'azienda nel settore. La società - si legge - ha creato 30 strumenti di intelligenza artificiale responsabile nell'ultimo anno, ampliando il proprio team di intelligenza artificiale responsabile. Il colosso ha inoltre richiesto ai partner che realizzano applicazioni di GenIA di misurare gli eventuali rischi nei progetti, sin dalla fase di ideazione. Per tutti gli utenti, Microsoft ha aggiunto una filigrana nei suoi software che generano o modificano immagini, per etichettarle come realizzate da un modello di IA ed aumentare la comprensione e distinzione con foto reali da parte delle persone. Nell'ottica di creare un ecosistema responsabile, la compagnia ha concesso ai clienti del servizio Azure AI l'accesso a strumenti che sono capaci di rilevare contenuti problematici generati dall'intelligenza artificiale, tra cui quelli che contengono incitamento all'odio, di natura sessuale e autolesionismo, nonché strumenti per valutare i rischi per la sicurezza. Il tutto anche grazie alle segnalazioni degli stessi utilizzatori delle piattaforme. Non a caso, sin dal lancio di Copilot, al tempo Bing Chat, Microsoft ha corretto il tiro con le allucinazioni del chatbot. Le ultime a gennaio, quando sono divenute virali su X immagini di nudo deepfake di celebrità come Taylor Swift, che sarebbero state realizzate con gli strumenti di GenAI di Microsoft Designer.
Riproduzione riservata © Copyright ANSA