Negli ultimi mesi, Tik Tok ha lavorato a nuovi modi per limitare la visione di determinati tipi di contenuti ai minori. Una mossa che fa parte di una spinta più ampia verso una maggiore sicurezza per gli utenti più giovani. L'app, in un post sul blog, ha svelato il lancio di una nuova versione del suo "modello di analisi borderline", che l'azienda utilizza per identificare automaticamente "contenuti sessualmente espliciti, allusivi o borderline" appunto.
L'obiettivo è identificare i video che non violano apertamente le linee guida del social network ma che possono risultare inadatti ad un pubblico giovane. Il modello di rilevamento dei contenuti di nuova generazione, secondo Tik Tok, avrebbe già "impedito agli account degli adolescenti di visualizzare più di un milione di video sessualmente suggestivi negli ultimi 30 giorni". TikTok ha inoltre annunciato di aver siglato una partnership con StopNCII.org, uno strumento online gratuito pensato per sostenere le vittime di abusi di immagini intime condivise senza il loro consenso. Fa parte dello stesso progetto anche Meta, l'azienda madre di Facebook. "Questa collaborazione non solo fornirà un migliore supporto alle vittime, ma aiuterà anche a impedire automaticamente che i contenuti identificati attraverso la nostra partnership vengano pubblicati sulla piattaforma" prosegue il team dell'app. "Il nostro obiettivo è sempre stato quello di garantire che la community, in particolare gli adolescenti, vivano un'esperienza sicura, positiva e gioiosa quando usano TikTok". A inizio dicembre, lo Stato dell'Indiana, negli Usa, ha citato in giudizio lo sviluppatore di Tik Tok, la cinese Byte Dance, accusandola di mostrare agli adolescenti contenuti per adulti. Il procuratore generale, il repubblicano Todd Rokita, ha basato la sua tesi su studi e rapporti che collegherebbero l'uso della piattaforma a disturbi alimentari e depressivi tra i più giovani.