/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Scontro sull'algoritmo anti-disinformazione di Facebook

Scontro sull'algoritmo anti-disinformazione di Facebook

Sotto accusa uno studio finanziato da Meta

28 settembre 2024, 14:31

di Elisa Buson

ANSACheck
Si accende il dibattito scientifico sugli algoritmi anti-disinformazione di Facebook (fonte: Pixabay) - RIPRODUZIONE RISERVATA

Si accende il dibattito scientifico sugli algoritmi anti-disinformazione di Facebook (fonte: Pixabay) - RIPRODUZIONE RISERVATA

Gli algoritmi anti-disinformazione di Facebook funzionano, anzi no: sulle pagine della rivista Science il dibattito si fa infuocato, con un gruppo di ricercatori dell'Università del Massachusetts-Amherst che punta il dito contro un precedente studio, finanziato da Meta e pubblicato nel 2023 sempre su Science, in cui si sosteneva che il social network non aveva influenzato le opinioni politiche degli utenti in occasione delle elezioni statunitensi del 2020. I ricercatori dimostrano che lo studio (condotto da accademici insieme a 12 dipendenti di Meta) era stato realizzato nell'autunno del 2020 proprio durante un breve lasso di tempo in cui l'azienda di Mark Zuckerberg aveva introdotto temporaneamente un nuovo algoritmo, più rigoroso nel controllo del flusso di notizie rispetto a quello standard usato in precedenza e riattivato poco dopo.

Non evidenziando questo cambiamento di algoritmi, lo studio avrebbe contribuito a creare la percezione errata (e ampiamente diffusa dai media di tutto il mondo) che i newsfeed di Facebook e Instagram siano sempre fonti di notizie affidabili. Parte del problema, scrivono i ricercatori, è che simili esperimenti devono essere "preregistrati", il che significa che Meta avrebbe potuto sapere con largo anticipo cosa avrebbero cercato gli studiosi. Inoltre i social media non sono tenuti a rendere pubbliche le modifiche apportate ai loro algoritmi.

"Questo può portare a situazioni in cui le aziende di social media potrebbero teoricamente modificare i loro algoritmi per migliorare la loro immagine pubblica se sanno di essere oggetto di studio", scrivono i ricercatori. Questa vicenda evidenzia che "il contesto è importante nei social media", come titola l'editoriale di H. Holden Thorp, con cui Science affronta la questione nata e cresciuta sulle sue pagine. "La ricerca sui social media è complicata e richiede ancora più attenzione", sottolinea Thorp. "Sebbene fare ricerca con aziende private sollevi molte questioni, il profondo impatto dei social media sull'umanità e il tesoro di dati che le aziende hanno accumulato sono motivi per andare avanti".

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza