A Forbes il rapporto solleva domande sul modo in cui il team di moderazione di TikTok gestisce il materiale pedopornografico, sostenendo che ha concesso un accesso ampio e insicuro a foto e video illegali.

I dipendenti di una società di moderazione di terze parti chiamata Teleperformance, che collabora con TikTok tra le altre aziende, sostengono di aver chiesto loro di esaminare un inquietante foglio di calcolo soprannominato DRR (Daily Required Reading) sugli standard di moderazione di TikTok. Il foglio di calcolo avrebbe contenuto contenuti che violavano le linee guida di TikTok, tra cui “centinaia di immagini” di bambini nudi o vittime di abusi. I dipendenti affermano che centinaia di persone di TikTok e Teleperformance potevano accedere ai contenuti sia dall’interno che dall’esterno dell’ufficio, aprendo la porta a una fuga di notizie più ampia.

Teleperformance ha negato di Forbes TikTok ha dichiarato che i suoi materiali di formazione hanno “controlli di accesso rigorosi e non includono esempi visivi di CSAM”, anche se non ha confermato che tutti i fornitori di terze parti rispettino questo standard.

I dipendenti raccontano una storia diversa, e come Forbes è una questione legalmente rischiosa. I moderatori di contenuti sono costretti a occuparsi di CSAM pubblicato su molte piattaforme di social media. Ma le immagini di abusi su minori sono illegali negli Stati Uniti e devono essere gestite con attenzione. Le aziende devono segnalare i contenuti al National Center for Missing and Exploited Children (NCMEC), quindi conservarli per 90 giorni, ma ridurre al minimo il numero di persone che li vedono.

Le accuse in questo caso vanno ben oltre questo limite. Indicano che Teleperformance ha mostrato ai dipendenti foto e video grafici come esempi di cosa taggare su TikTok, mentre giocava velocemente con l’accesso a quei contenuti. Una dipendente dice di aver contattato l’FBI per chiedere se questa pratica costituisse una diffusione criminale di CSAM, anche se non è chiaro se ne sia stata aperta una.

Il testo completo Forbes rapporto vale la pena di leggerlo, e descrive una situazione in cui i moderatori non sono stati in grado di tenere il passo con la crescita esplosiva di TikTok e sono stati invitati a guardare i crimini contro i bambini per ragioni che ritenevano non plausibili. Anche per gli standard complicati dei dibattiti sulla sicurezza dei minori online, si tratta di una situazione strana e, se accurata, orribile.

Source link