Il vicepresidente dell’integrità di Facebook Guy Rosen ha scritto nel post del blog Domenica che la prevalenza di discorsi d’odio sulla piattaforma era scesa del 50 per cento negli ultimi tre anni, e che “una narrazione che la tecnologia che usiamo per combattere i discorsi d’odio è inadeguata e che deliberatamente travisiamo i nostri progressi” era falsa.

“Non vogliamo vedere l’odio sulla nostra piattaforma, né lo vogliono i nostri utenti o inserzionisti, e siamo trasparenti sul nostro lavoro per rimuoverlo”, ha scritto Rosen. “Ciò che questi documenti dimostrano è che il nostro lavoro di integrità è un viaggio pluriennale. Mentre non saremo mai perfetti, i nostri team lavorano continuamente per sviluppare i nostri sistemi, identificare i problemi e costruire soluzioni”.

Il post sembrava essere in risposta a un articolo domenicale del Wall Street Journalche ha detto che i dipendenti di Facebook incaricati di tenere i contenuti offensivi fuori dalla piattaforma non credono che la società sia in grado di controllare in modo affidabile.

Il WSJ Il rapporto afferma che i documenti interni mostrano che due anni fa, Facebook ha ridotto il tempo che i revisori umani si sono concentrati sulle denunce di odio, e ha fatto altri aggiustamenti che hanno ridotto il numero di denunce. Questo a sua volta ha contribuito a creare l’apparenza che l’intelligenza artificiale di Facebook aveva avuto più successo nel far rispettare le regole della società di quanto non fosse in realtà, secondo il WSJ.

Un team di dipendenti di Facebook ha scoperto a marzo che i sistemi automatici della società stavano rimuovendo i post che generavano tra il 3 e il 5 per cento delle visualizzazioni di discorsi di odio sulla piattaforma sociale, e meno dell’1 per cento di tutti i contenuti che violavano le sue regole contro la violenza e l’incitamento, il WSJ riportato.

Ma Rosen ha sostenuto che concentrarsi solo sulla rimozione dei contenuti è “il modo sbagliato di guardare a come combattiamo l’hate speech”. Dice che la tecnologia per rimuovere i discorsi d’odio è solo un metodo che Facebook usa per combatterli. “Abbiamo bisogno di essere sicuri che qualcosa sia un discorso d’odio prima di rimuoverlo”, ha detto Rosen.

Invece, ha detto, l’azienda ritiene che concentrarsi sulla prevalenza dei discorsi d’odio che le persone vedono effettivamente sulla piattaforma e come li riduce utilizzando vari strumenti è una misura più importante. Ha affermato che per ogni 10.000 visualizzazioni di un contenuto su Facebook, c’erano cinque visualizzazioni di discorsi d’odio. “La prevalenza ci dice quali contenuti violenti la gente vede perché ci sono sfuggiti”, ha scritto Rosen. “È il modo in cui valutiamo più obiettivamente i nostri progressi, poiché fornisce il quadro più completo”.

Ma i documenti interni ottenuti dal WSJ ha mostrato che alcuni pezzi significativi di contenuto sono stati in grado di eludere il rilevamento di Facebook, compresi i video di incidenti d’auto che hanno mostrato persone con lesioni grafiche, e minacce violente contro i bambini trans.

Il WSJ ha prodotto un serie di rapporti su Facebook basati su documenti interni forniti dall’informatrice Frances Haugen. Ha testimoniato davanti al Congresso che l’azienda era consapevole dell’impatto negativo che la sua piattaforma Instagram poteva avere sugli adolescenti. Facebook ha contestato la segnalazione basata sui documenti interni.

Source link