Meta avrebbe chiuso il team di esperti al lavoro sulle tematiche dell'intelligenza artificiale responsabile. Come scrive il sito The Information, che ha visionato comunicazioni interne dell'azienda, il gruppo Responsible AI rappresentava un costo da rivedere, tanto che i suoi membri sono stati dedicati ad altre divisioni di Meta, incentrate sullo sviluppo di prodotti e servizi basati sull'intelligenza artificiale generativa, business principale di OpenAi. Proprio quest'ultima, nelle scorse ore, ha prima licenziato il Ceo Sam Altman e poi, apparentemente, chiesto di ritornare al suo posto, scatenando un vero e proprio terremoto nel settore dell'IA. Il rapporto di The Information cita Jon Carvill, direttore delle comunicazioni di Meta, che afferma come la società "continuerà a dare priorità e a investire nello sviluppo sicuro e responsabile dell'IA". Il manager ha aggiunto che, sebbene l'organizzazione abbia deciso di chiudere il team, i lavoratori rimarranno in azienda e "continueranno a supportare gli sforzi nei progetti più innovativi". L'unità Responsible AI era stata creata per identificare le eventuali criticità nello sviluppo e soprattutto l'addestramento di modelli di intelligenza artificiale, con un occhio ai problemi derivanti dall'utilizzo di software IA per la moderazione dei contenuti online. Negli scorsi anni, i sistemi automatizzati di Meta hanno causato varie problematiche inerenti la traduzione dei post di Facebook e le segnalazioni su contenuti inappropriati. Più di recente, la funzione sperimentale di generazione di adesivi IA di WhatsApp, tramite richieste via chatbot, ha tradotto termini legati alla Palestina con bambini che imbracciano pistole e fucili.
Leggi l'articolo completo su ANSA.it