Toezichtsraad Facebook vindt ‘verwijderbeleid’ fout
Een toezichtsraad van de sociale mediagigant Facebook is na maanden onderzoek tot de conclusie gekomen dat vier van de eerste vijf onderzochte verwijderde boodschappen onterecht door de ‘bedrijfscensors’ zijn geschrapt. Dat betreft volgens de raad ook berichten die volgens die censors verwijderd moesten worden omdat ze haat zouden prediken of in hun ogen schadelijke informatie over Covid-19 bevatten.
De raad geldt als een onafhankelijk controlelichaam en heeft voor het eerst een oordeel geveld. Facebook ligt al jaren onder vuur, onder meer over het omgaan met meldingen van of over de Republikeinse ex-president Donald Trump. Hij werd recent geblokkeerd. Daar buigen de toezichthouders zich later over.
De raad telt twintig leden en heeft een budget van 130 miljoen dollar (107 miljoen euro). Hij is door de onderneming van miljardair Mark Zuckerberg opgezet om ten minste zes jaar de op basis van bedrijfsregels omstreden verwijderingen van het sociale medium te onderzoeken. De raad geeft nu Facebook zeven dagen de tijd de onterecht verwijderde berichten terug te plaatsen. Het ging onder meer om een boodschap over het lot van de Oeigoerse minderheid in China en een boodschap over een mogelijk nieuw medicijn tegen Covid-19 met kritiek op de Franse regering.
Dat laatste bericht werd onmiddellijk verwijderd omdat het zou bijdragen aan het risico op „lichamelijk letsel”. Die term is in de regels van de techgigant volgens de raad „ongepast vaag” gedefinieerd. Dat zou ook gelden voor de term „desinformatie”, een andere grond om een post te verwijderen.
Een andere zaak draait om een Braziliaanse Instagramgebruiker die afbeeldingen van tepels had gepost als onderdeel van een bewustzijnscampagne over borstkanker. De vijf plaatjes werden verwijderd, maar dat was onterecht in het licht van Facebooks eigen uitzonderingsbeleid rond het afbeelden van naakt, merkt de raad op.
Bij de raad zijn sinds de start in oktober meer dan 150.000 gevallen aangedragen. Het gaat dan bijvoorbeeld om nazipropaganda, haatberichten, naaktbeelden, valse informatie over de pandemie en gevaarlijke mensen of organisaties. De zaken waarvan wordt gedacht dat ze veel gebruikers aangaan of van groot belang zijn voor de publieke discussie worden er het eerst uitgepikt.
De toezichthouders doen Facebook de aanbeveling het verwijderingsbeleid veel duidelijker en preciezer te maken.