Politiek

Overheid worstelt met grip op sociale media; zorgen over vrouwonvriendelijke content die TikTok aanbiedt aan kwetsbare jongemannen

Gebruikers van sociale media worden veelvuldig blootgesteld aan teksten, foto’s en filmpjes met schadelijke inhoud. De politiek worstelt met de aanpak van dit probleem.

Roelant Frijns, Trouw
10 February 2024 17:59
Het algoritme van TikTok presenteert steeds vaker vrouwonvriendelijke filmpjes aan gebruikers, vooral aan jongemannen die worstelen met eenzaamheid of machteloosheid. beeld ANP, Iris van den Broek
Het algoritme van TikTok presenteert steeds vaker vrouwonvriendelijke filmpjes aan gebruikers, vooral aan jongemannen die worstelen met eenzaamheid of machteloosheid. beeld ANP, Iris van den Broek

Het algoritme van TikTok is erop gericht om vrouwonvriendelijke filmpjes in steeds grotere mate te presenteren aan gebruikers. Dat is de conclusie van een Brits onderzoek van het University College London en de universiteit van Kent. Mannen die aan bepaalde kenmerken voldoen, zoals eenzaamheid of een gevoel van machteloosheid, krijgen door het algoritme video’s voorgeschoteld waarin vrouwen worden lastiggevallen of gediscrimineerd. Als ze daarop klikken, kan het snel gaan: de onderzoekers zagen in vijf dagen tijd gemiddeld een verviervoudiging van dit soort filmpjes tussen het materiaal dat door het platform aan deze gebruikers werd aanbevolen: van 13 naar 56 procent.

De studie vormt het nieuwste hoofdstuk in een zeer actueel debat in het Verenigd Koninkrijk. Op 1 februari wees een andere studie al uit dat Britse jongemannen negatiever naar het feminisme kijken dan babyboomers, en dat zelfverklaard vrouwenhater en socialemediafenomeen Andrew Tate onder veel jongeren populair is. Bezorgde Britten hopen dat de eind vorig jaar geïntroduceerde Online Safety Act grip kan krijgen op socialemediaplatformen, en dat de regelgeving de hoeveelheid schadelijk materiaal, waaraan met name jongeren worden blootgesteld, kan beperken.

Gevaarlijke dingen

Die wetgeving is er onder andere voor bedoeld om kinderen te beschermen en illegale content op sociale media te bestrijden, zoals pornografisch materiaal en challenges waarbij jongeren worden uitgedaagd om gevaarlijke dingen te doen. Net als andere soortgelijke wetgeving, richt deze zich vooral op moderatie. Oftewel: socialemediabedrijven moeten zelf controleren welk materiaal er op hun platformen geplaatst wordt, en optreden tegen illegale en schadelijke inhoud.

Hoe effectief die aanpak is, is maar de vraag. „Het probleem met de focus op moderatie is dat het een erg reactieve manier is om het probleem aan te pakken”, vertelt Natali Helberger, hoogleraar recht & digitale technologie aan de Universiteit van Amsterdam. „Er wordt achteraf opgetreden tegen inhoud die al online staat, en die in de tussentijd misschien al door heel veel mensen bekeken is.” Het zorgt er niet voor dat er minder schadelijke content geüpload wordt of dat die een kleiner publiek bereikt. „Symptoombestrijding”, vindt Helberger.

Doelgroepen

Een effectieve strategie vereist dat het probleem bij de bron wordt aangepakt. Helberger: „Er moet worden gekeken naar hoe socialemediaplatformen werken. Waarom is het systeem zo ingericht dat bepaalde vormen van schadelijke content aan bepaalde doelgroepen gericht zijn?”

Het antwoord laat zich raden. Want hoe meer content gebruikers bekijken, hoe meer reclame-inkomsten dat oplevert voor de bedrijven. „Maar daar kun je als overheid wel grip op krijgen”, zegt Helberger. „Algoritmes zijn nog steeds een mysterieus fenomeen; zelfs socialemediabedrijven zelf weten niet hoe ze precies werken. Dat maakt het moeilijk om gerichte aanpassingen te doen. Wetgevers moeten bedrijven vanaf het begin van het proces verantwoordelijk maken voor onlineveiligheid en het herkennen van schadelijk materiaal, zodat ze daar al meteen bij het trainen en implementeren van nieuwe algoritmes rekening mee houden.”

Consequenties

Dat besef lijkt steeds meer door te dringen in de politiek, zo blijkt uit de invoering van de Europese Digital Services Act (DSA). Die wetgeving verplicht mediabedrijven in de Europese Unie, en dus ook in Nederland, om de verspreiding van illegale en schadelijke content tegen te gaan. „In de DSA staat ook dat bedrijven hun algoritmes moeten aanpassen als blijkt dat die schadelijke inhoud promoten”, stelt Helberger. Doen ze dat niet, dan kunnen daar juridische consequenties aan verbonden zijn.

De vraag is nu nog hoe je zulke regels in de praktijk handhaaft. „Dit is allemaal erg nieuw voor de politiek”, aldus Helberger. „De DSA-regels zijn pas een half jaar van kracht voor enorme platformen als Facebook, TikTok en YouTube, en pas vanaf begin dit jaar voor andere platformen die online diensten aanbieden in de EU.”

Meer over
Sociale media

RD.nl in uw mailbox?

Ontvang onze wekelijkse nieuwsbrief om op de hoogte te blijven.

Hebt u een taalfout gezien? Mail naar redactie@rd.nl

Home

Krant

Media

Puzzels

Meer