Foto: Corte di Carl (Getty Images)

Domenica, il vicepresidente dell’integrità di Facebook, Guy Rosen, ha suonato il corno dell’azienda di social media per moderare i contenuti tossici, scrivendo in un post sul blog che la prevalenza di discorsi di odio sulla piattaforma è diminuita di quasi la metà dal luglio 2020. Il post sembrava essere in risposta a una serie di dannosi rapporti del Wall Street Journal e la testimonianza di dell’informatore Frances Haugen delineando i modi in cui l’azienda di social media sta consapevolmente avvelenando la società.

“I dati estratti dai documenti trapelati vengono utilizzati per creare una narrazione che la tecnologia che usiamo per combattere i discorsi di odio è inadeguata e che deliberatamente travisiamo i nostri progressi”, ha detto Rosen. “Questo non è vero”.

“Non vogliamo vedere l’odio sulla nostra piattaforma, né lo vogliono i nostri utenti o inserzionisti, e siamo trasparenti sul nostro lavoro per rimuoverlo”, ha continuato. “Ciò che questi documenti dimostrano è che il nostro lavoro di integrità è un viaggio pluriennale. Mentre non saremo mai perfetti, i nostri team lavorano continuamente per sviluppare i nostri sistemi, identificare i problemi e costruire soluzioni”.

Ha sostenuto che era “sbagliato” giudicare il successo di Facebook nell’affrontare l’hate speech basandosi solo sulla rimozione dei contenuti, e la visibilità in calo di questi contenuti è una metrica più significativa. Per le sue metriche interne, Facebook tiene traccia della prevalenza dei discorsi d’odio sulla sua piattaforma, che è scesa di quasi il 50% negli ultimi tre trimestri allo 0,05% dei contenuti visualizzati, o circa cinque visualizzazioni su ogni 10.000, secondo Rosen.

Questo perché quando si tratta di rimuovere contenuti, l’azienda spesso sbaglia sul lato della cautela, ha spiegato. Se Facebook sospetta che un pezzo di contenuto – che si tratti di un singolo post, una pagina o un intero gruppo – violi il suo regolamento, ma non è “abbastanza sicuro” che giustifichi la rimozione, il contenuto può ancora rimanere sulla piattaforma, ma i sistemi interni di Facebook limitano tranquillamente la portata del post o lo eliminano dalle raccomandazioni per gli utenti.

“La prevalenza ci dice quali contenuti violenti la gente vede perché ci sono sfuggiti”, ha detto Rosen. “È il modo in cui valutiamo più obiettivamente i nostri progressi, poiché fornisce il quadro più completo”.

Domenica è stato rilasciato anche il Journal’s l’ultima denuncia di Facebook. In esso, i dipendenti di Facebook hanno detto all’uscita che erano preoccupati che l’azienda non è in grado di vagliare in modo affidabile i contenuti offensivi. Due anni fa, Facebook ha tagliato la quantità di tempo che i suoi team di revisori umani dovevano concentrarsi sulle denunce di odio da parte degli utenti e ha ridotto il numero complessivo di denunce, passando invece all’applicazione AI dei regolamenti della piattaforma, secondo il Journal. Questo è servito a gonfiare il successo apparente della tecnologia di moderazione di Facebook nelle sue statistiche pubbliche, i dipendenti hanno sostenuto.

Secondo un precedente Journal reportun team di ricerca interno ha scoperto a marzo che i sistemi automatici di Facebook stavano rimuovendo i post che generavano tra il 3-5% delle visualizzazioni di discorsi di odio sulla piattaforma. Questi stessi sistemi segnalavano e rimuovevano circa lo 0,6% di tutti i contenuti che violavano le politiche di Facebook contro la violenza e l’incitamento.

Nella sua testimonianza davanti a una sottocommissione del Senato all’inizio di questo mese, Haugen ha fatto eco a queste statistiche. Ha detto che i sistemi algoritmici di Facebook possono catturare solo “una minuscola minoranza” di materiale offensivo, che è ancora preoccupante anche se, come sostiene Rosen, solo una frazione degli utenti si imbatte in questi contenuti. Haugen ha lavorato in precedenza come product manager principale di Facebook per la disinformazione civica e successivamente si è unita al team di intelligence delle minacce dell’azienda. Come parte dei suoi sforzi di whistleblowing, ha fornito una carrellata di documenti interni al Journal che rivelano il funzionamento interno di Facebook e come la sua stessa ricerca interna ha dimostrato quanto siano tossici i suoi prodotti per gli utenti.

Facebook ha veementemente contestato questi rapportiNick Clegg, vice presidente degli affari globali dell’azienda, li ha chiamati “deliberate caratterizzazioni errate” che usano citazioni selezionate dal materiale trapelato per creare “una visione deliberatamente sbilanciata dei fatti più ampi”.

.

Source link