Meta avrebbe chiuso il team di
esperti al lavoro sulle tematiche dell'intelligenza artificiale
responsabile. Come scrive il sito The Information, che ha
visionato comunicazioni interne dell'azienda, il gruppo
Responsible AI rappresentava un costo da rivedere, tanto che i
suoi membri sono stati dedicati ad altre divisioni di Meta,
incentrate sullo sviluppo di prodotti e servizi basati
sull'intelligenza artificiale generativa, business principale di
OpenAi. Proprio quest'ultima, nelle scorse ore, ha prima
licenziato il Ceo Sam Altman e poi, apparentemente, chiesto di
ritornare al suo posto, scatenando un vero e proprio terremoto
nel settore dell'IA. Il rapporto di The Information cita Jon
Carvill, direttore delle comunicazioni di Meta, che afferma come
la società "continuerà a dare priorità e a investire nello
sviluppo sicuro e responsabile dell'IA". Il manager ha aggiunto
che, sebbene l'organizzazione abbia deciso di chiudere il team,
i lavoratori rimarranno in azienda e "continueranno a supportare
gli sforzi nei progetti più innovativi". L'unità Responsible AI
era stata creata per identificare le eventuali criticità nello
sviluppo e soprattutto l'addestramento di modelli di
intelligenza artificiale, con un occhio ai problemi derivanti
dall'utilizzo di software IA per la moderazione dei contenuti
online. Negli scorsi anni, i sistemi automatizzati di Meta hanno
causato varie problematiche inerenti la traduzione dei post di
Facebook e le segnalazioni su contenuti inappropriati. Più di
recente, la funzione sperimentale di generazione di adesivi IA
di WhatsApp, tramite richieste via chatbot, ha tradotto termini
legati alla Palestina con bambini che imbracciano pistole e
fucili.
Riproduzione riservata © Copyright ANSA