Foto: Immagini Getty Images (Immagini Getty Images)

Facebook e la sua società madre Meta sono stati citati in giudizio per aver presumibilmente permesso a contenuti tossici e che incitano alla violenza di prosperare nelle comunità dell’Etiopia, dove una guerra civile ha causato centinaia di migliaia di morti negli ultimi anni.

La causa, intentata da due ricercatori etiopi, accusa il gigante tecnologico di aver contribuito ad alimentare la violenza nella regione attraverso la diffusione di contenuti tossici. la mancanza di controlli efficaci per la moderazione dei contenuti. La causa sostiene che l’azienda‘s sistemi di raccomandazione-che utilizzano algoritmi per incoraggiare gli utenti a partecipare a certi tipi di contenuti piuttosto che ad altri-ha alimentato la condivisione di post odiosi a livello regionale.

L’azione legale ha chiesto a un tribunale di costringere Meta a prendere provvedimenti per fermare la diffusione di contenuti violenti, tra cui l’assunzione di ulteriore personale di moderazione regionale, l’adeguamento dei suoi algoritmi per declassare tali contenuti e la creazione di fondi di restituzione di circa 2 miliardi di dollari per aiutare le vittime della violenza “incitata su Facebook”, Reuters riporta.

“Facebook non solo permette che questi contenuti siano presenti sulla piattaforma, ma li mette in primo piano e ci guadagna. Perché gli è permesso di farlo?”. Mercy Mutemi, avvocato dei ricercatori, ha chiesto durante una recente conferenza stampa.

Uno dei ricercatori dietro la causa, Abrham Meareg, ha un legame personale con la violenza etnica. Nel novembre del 2021, il padre di Meareg è stato ucciso a colpi di arma da fuoco, appena un mese dopo che l’anziano uomo era stato sottoposto a minacce di morte e insulti etnici tramite Facebook, si legge nella causa. Meareg afferma che, prima dell’omicidio, aveva contattato Meta e chiesto all’azienda di eliminare i contenuti, ma che alla fine l’azienda non ha risposto rapidamente, né ha eliminato tutti i post su suo padre. Il ricercatore ora dice che ritiene Meta “direttamente responsabile” della morte del padre.

La mancanza di efficacia di Meta moderazione dei contenuti è stata fonte di continue controversie in Africa orientale e non solo. Facebook è stato accusato di aver lasciato che i suoi contenuti più tossici si diffondessero in Kenya dopo aver ha approvato pubblicità a favore del genocidio, che ha rischiato di far bandire completamente il social network dal Paese. Facebook ha anche in precedenza ha affrontato un causa da 150 miliardi di dollari intentata dai rifugiati di guerra Rohingya che hanno accusato il gigante tecnologico di aver alimentato il genocidio in Myanmar. Amnesty International ha concluso che l’azienda lo aveva fatto, contribuito alla pulizia etnica nel Paese.. Inoltre, l’azienda è stata accusata di disfunzioni analoghe in paesi come Cambogia, Sri Lanka e Indonesia.

Gizmodo ha contattato Meta per un commento sull’ultima causa e aggiornerà questa storia in caso di risposta. In un dichiarazione fornita a Reuters, la portavoce della società Erin Pike ha difeso l’azienda, dicendo: “Investiamo molto in team e tecnologia per aiutarci a trovare e rimuovere questi contenuti… Impieghiamo personale con conoscenze e competenze locali e continuiamo a sviluppare le nostre capacità per individuare i contenuti violati nelle lingue più parlate” in Etiopia.

Source link