Amnesty: algoritmes Facebook droegen bij aan geweld in Ethiopië
Meta Platforms, het moederbedrijf van Facebook, heeft bijgedragen aan mensenrechtenschendingen tegen de Tigray-gemeenschap in Ethiopië, concludeert Amnesty International in een nieuw rapport. Volgens de mensenrechtenorganisatie zorgden algoritmes van Facebook er namelijk voor dat haatzaaien en oproepen tot geweld steeds meer werden versterkt.
Het gaat om het gewapende conflict tussen rebellen in de Noord-Ethiopische regio Tigray en de regering van Ethiopië. In november vorig jaar werd er na twee jaar strijd een bestand gesloten. Het conflict heeft naar schatting honderdduizenden mensen het leven gekost.
Daarbij zou Meta indirect ook een rol hebben gespeeld. Volgens Amnesty zijn de algoritmes voor Facebook namelijk ontworpen om gebruikers zo betrokken mogelijk te maken. „Het middel hierbij is het aanbieden van gerichte advertenties. Het gevolg: ze stimuleren opruiende, schadelijke en verdeeldheid zaaiende inhoud, die de neiging heeft om de meeste aandacht van gebruikers te trekken.”
De mensenrechtenorganisatie haalt onder meer de moord aan op scheikundeprofessor Meareg Amare aan. Hij werd gedood nadat er op 3 november 2021 berichten over hem op Facebook waren geplaatst met zijn naam, foto en adres. „De massale verspreiding van deze berichten zette aan tot geweld en discriminatie gericht tegen de Tigray-gemeenschap. Het gooide olie op het vuur van wat al een explosieve situatie was met grote etnische spanningen”, stelt Agnès Callamard, secretaris-generaal van Amnesty.
Het is niet voor het eerst dat Amnesty concludeert dat Meta met zijn algoritmes bijdraagt aan geweld. Na mensenrechtenschendingen tegen de Rohingya-minderheid in Myanmar wees de organisatie ook al naar de rol van het socialemediabedrijf. Amnesty pleit voor dringende hervormingen bij Meta. Als zich weer een crisissituatie voordoet zou de onderneming stappen moeten nemen om wat Amnesty noemt „de kracht van algoritmische versterking” te verminderen.