Wetten genoeg om Facebook en YouTube aan banden te leggen, maar nergens gaan ze ver genoeg

Illustraties: Roel van Eekelen (voor De Correspondent)

Overal ter wereld maken overheden ad hoc regels om de verspreiding van haat en desinformatie tegen te gaan. Die wetgeving zal niet slagen zolang bedrijven als Facebook en YouTube hun luiken gesloten houden en hun verantwoordelijkheid kunnen blijven afschuiven.

Facebook is niet te vertrouwen. Het bedrijf is ‘moreel bankroet, een pathologische leugenaar die genocide mogelijk maakt’.

Het staat toe dat ‘zelfmoord, verkrachting en moorden live te zien zijn’. Het publiceert video’s van de aanslagen in Christchurch. Het faciliteert dat ‘adverteerders op En het weigert enige aansprakelijkheid. ‘They #dontgiveazuck’.

Aan het woord is geen opgewonden activist, maar John Edwards, Edwards is helemaal klaar met Facebook. Hij is niet de enige.

Sinds de presidentsverkiezingen in de Verenigde Staten (2016) en de kwalijke rol die sociale media speelden bij de online verspreiding van haat, en complottheorieën, is het geduld van veel overheden met bedrijven als Facebook en YouTube-eigenaar Google wel zo’n beetje op.

Overal ter wereld bereiden overheden wetten voor om de verspreiding van kwalijke online content in te perken.

  • Het Australische parlement buigt zich over een wet waarmee medewerkers van techbedrijven gevangenisstraf kunnen krijgen als ze video’s van moord, verkrachting, ontvoering, terrorisme en marteling niet
  • Singapore verplicht sinds kort Facebook en andere platforms om nepnieuws actief te corrigeren.
  • Het Verenigd Koninkrijk wil technologiebedrijven hoge boetes kunnen opleggen als ze hun maatschappelijke verantwoordelijkheden
  • Ongeveer het eerste wat de regering van Sri Lanka deed na de serie bomaanslagen in april was Facebook in het land platleggen om verder geweld te voorkomen.
  • In de EU in voorbereiding en in de VS houdt het parlement inmiddels hoorzittingen, waarbij de vraag niet meer is óf er regulering moet komen maar hoever

Deze wereldwijde reguleringssprint leidt bij de techbedrijven, maar ook bij mensenrechtenactivisten tot grote zorgen. Zullen de bedrijven straks het zekere voor het onzekere nemen en meer content weren dan nodig is? Grijpen overheden het momentum aan om censuur op te schroeven en kritische stemmen te smoren?

Die angsten zijn begrijpelijk, want de genomen en voorgestelde maatregelen zijn ad hoc, reactief en soms ronduit ingegeven door opportunisme. Ze komen niet voort uit een gedegen analyse van de problemen of een doorwrocht begrip van hoe deze bedrijven in elkaar zitten.

Ze zijn niet aansprakelijk

Veel van de problemen rond online haat, desinformatie en complottheorieën komen voort uit wat achteraf een sprookje bleek te zijn: dat internetbedrijven uitzonderlijke bedrijven zouden zijn.

In de VS en de EU zijn internetplatforms sinds de jaren negentig niet of nauwelijks aansprakelijk voor de boodschappen die ze aanbieden of

Dit gebrek aan aansprakelijkheid Het zorgt ervoor dat bijvoorbeeld Marktplaats niet van alle fietsen die op het platform worden aangeboden vooraf hoeft te controleren of ze gestolen zijn. Of dat een internetserviceprovider niet alle verkeer van zijn gebruikers hoeft te controleren om te kijken of iemand verboden materiaal verspreidt.

Daarnaast heerste er sinds de jaren negentig in Silicon Valley en daarbuiten het idee dat informatie ‘vrij’ moest zijn. Platforms als Google, en later Twitter en Facebook, wierpen zich op als hoeders van het vrije woord. Ze presenteerden zich als neutrale doorgeefluiken van informatie die louter mensen en ideeën bijeenbrachten.

Die nobele missie zou tot een betere wereld leiden. De Arabische Lente werd gezien als het hoogtepunt van wat een vrije informatiestroom teweeg kan brengen. Inmiddels weten we beter.

Het legde de techbedrijven geen windeieren. Sociale media konden zich geheel toeleggen op groei en schaalvergroting. ‘Move fast and break things’ was niet voor niets jarenlang het motto van Facebook.

Daardoor kon de van Google groeien tot 733 miljard euro en die van Facebook tot 490 miljard euro. Samen veroverden ze twee derde van de online advertentiemarkt, vaak ten koste van traditionele media, waarmee ze dit jaar vermoedelijk meer dan 150 miljard dollar winst maken. Miljarden mensen gebruiken Facebook en de dochterbedrijven WhatsApp en Instagram. YouTube – een dochteronderneming van Google – heeft 1,3 miljard gebruikers.

Maar het sprookje van Silicon Valley is een sprookje. Want Facebook en YouTube zijn het tegenovergestelde van neutrale doorgeefluiken.

Moderatie is de kern van wat Facebook en Google doen

Tarleton Gillespie is een Amerikaanse socioloog die al jarenlang onderzoek doet naar de op internet. Hij schreef er een verhelderend boek over: Custodians of the Internet. Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. Zijn belangrijkste boodschap is dat internetbedrijven moderatie tot nu toe vaak als bijzaak zien, als iets dat alleen maar geld kost en verdere groei in de weg staat. Dat is een denkfout, vindt Gillespie: moderatie moet juist de kern zijn van hun activiteiten; moderatie is wat sociale media

Bedrijven als Google, Facebook, Twitter, Reddit en Vimeo stimuleren ons continu om bijdragen te leveren voor hun platforms. Sociale media gebruiken die bijdragen – de content – als ruwe grondstof, om daarmee voor andere gebruikers een ervaring te creëren die ons zo lang mogelijk aan onze schermen geplakt houdt. Want: hoe meer boeiende content, hoe meer schermtijd, hoe meer advertenties.

De techbedrijven maken daarvoor continu en op vijf verschillende niveaus De twee belangrijkste zijn de zogeheten contentmoderatie en curatie.

Niveau 1: contentmoderatie

Het bekendste niveau is waarschijnlijk contentmoderatie, het door mensen of beoordelen van posts, commentaren, video’s en andere bijdragen van gebruikers. Voldoen ze niet aan de wet omdat het bijvoorbeeld als discriminatie kan worden gezien, dan verwijderen ze ze.

Maar de wet is niet het enige uitgangspunt. De meeste bedrijven hebben dikke handleidingen en voorwaarden met aanvullende regels. Zo staan maar weinig sociale media de verspreiding van pornografische beelden of expliciet naakt toe, terwijl dat in veel landen niet verboden is. En zo hebben deze bedrijven nog veel meer regels waar gebruikers zich aan moeten houden. Geen (oproepen tot) geweld, geen bedreigingen. Dat lijkt simpel, maar de moderatierichtlijnen van Facebook besloegen tot voor kort

Facebook en Google doen aan zogenoemde ‘industriële’ moderatie. Er zijn regels waar de hele gebruikersgemeenschap – miljarden mensen – zich aan moet houden. Duizenden menselijke moderators, die vaak via externe bedrijven worden ingehuurd, controleren of die regels

‘Zelfs als je 99 procent accuraat bent, zul je op deze schaal nog steeds heel veel fouten maken’, aldus Facebook

De schaal van Facebook en Google is immens. Er worden miljarden stukken content en bijdragen per dag geplaatst. Het is onmogelijk om die allemaal te checken, je kunt het nooit helemaal goed doen. ‘Zelfs als je 99 procent accuraat bent’, zei Monika Bickert van Facebook al eens, ‘zul je op deze schaal nog steeds heel

Tel daar de grote culturele verschillen per land bij op: Facebook en YouTube zijn twee Amerikaanse bedrijven die in zo’n 150 verschillende landen actief zijn. Om goed te modereren moeten ze rekening houden met taal, cultuur, normen en gevoeligheden.

Er bestaat een spanning tussen consequent zijn in het modereren van content, waarbij geldt dat alle regels voor iedereen hetzelfde zijn, en het laten meewegen van de context, dus dat je rekening houdt met verschillende culturen

Zelf zien Facebook en Google kunstmatige intelligentie als oplossing voor massaal modereren. Mark Zuckerberg gelooft dat de keuze wat wel en niet mag verschijnen volledig geautomatiseerd kan worden, De AI-programma’s van Facebook en YouTube draaien nu ook al op volle toeren en doen veel goed. Kinderporno of onthoofdingsvideo’s worden bijna altijd

Maar in veel andere gevallen kom je met kunstmatige intelligentie niet zover. Zo waren de filters van Facebook, drie weken na de aanslagen van maart in Nieuw-Zeeland, niet in staat alle over het internet verspreide video’s van de ‘livestream’ van de dader te vinden en te verwijderen. Kunstmatige intelligentie kan ook nog niet goed herkennen of iets een ‘post’ is of een video met desinformatie. En haatzaaien betrouwbaar opsporen is vaak

Dat kunstmatige intelligentie redding zal brengen, is voor een groot deel dan ook een economisch argument van deze bedrijven, legt Joris van Hoboken uit, hoogleraar Rechten aan de Vrije Universiteit van Brussel. ‘De belofte van deze bedrijven aan hun investeerders en aandeelhouders is dat ze de arbeidskosten laag zullen houden. Die belofte vervalt als ze veel nieuw personeel moeten aannemen. Deze bedrijven en hun aandeelhouders zullen zich daar dus ook tegen blijven verzetten.’

Niveau 2: Curatie

Wat je op op Facebook en YouTube te zien krijgt is niet toevallig.

Alles is erop gericht om je content aan te bieden die je boeit, vasthoudt en ervoor zorgt dat je het verspreidt. Facebook doet er veel aan om populaire content te belonen door die aan meer gebruikers aan te bieden. Dat is een van de redenen waarom desinformatie zich zo snel verspreidt: vaak zijn dat spectaculaire verhalen die niet kloppen maar wel lekker klikken.

YouTube heeft een ontzagwekkend ingewikkeld aanbevelingssysteem gebouwd dat kijkers telkens nieuwe video’s aanbiedt. Sterker nog, 70 procent van al het verkeer op YouTube komt door gebruikers Het probleem is dat YouTube niet kijkt wat voor content zich zo succesvol verspreidt.

Van al het verkeer op YouTube is 70 procent het gevolg van ‘aanbevelingen’ door het platfom zelf

Voor het algoritme maakt het niet zoveel uit of het grappige kattenvideo’s of een schadelijke complottheorie aanbeveelt: als erop geklikt wordt en het filmpje mensen vasthoudt, wordt het verder verspreid. Uit veel recent onderzoek blijkt dat vooral content die negatieve emoties oproept, zoals extremisme, haat en complottheorieën, het goed

Een paar maanden geleden publiceerden we samen met de Volkskrant een groot onderzoek naar de rol van YouTubes aanbevelingen. We zagen veel mensen in een rabbit hole van extremisme en verdwijnen.

Maar we kwamen er niet precies achter hóé dit gebeurde. Toen we YouTube vroegen om uitleg over de technologie achter de aanbevelingen, kregen we En het is niet zo dat YouTube zélf niet weet hoe het werkt. Onlangs bleek dat het probleem van ‘giftige aanbevelingen’ intern al jaren

Deze bedrijven hebben een enorme macht vergaard over wat we wel en niet online kunnen zeggen. Ze hanteren daarbij allerlei regels die ze op verschillende manieren afdwingen. Als gebruiker heb je vaak geen inspraak in die regels. Ook is niet bekend hoe ze precies worden afgedwongen en wat de gevolgen zijn van die regels voor de gebruikers en voor de samenleving.

Daarnaast maken sociale media dus continu keuzes over wat voor content je te zien krijgt. Waarom krijg je bepaalde content wel te zien en andere niet? Welke beslissingen liggen daaraan ten grondlag? Ook daar weten we te weinig over.

Er zijn twee belangrijke stappen nodig: sociale media moeten transparanter zijn over de keuzes die ze maken en ze moeten meer verantwoordelijkheid nemen voor die keuzes.

Stap 1: weten hoe keuzes worden gemaakt

Er is veel meer transparantie nodig, zegt ook Europarlementariër Marietje Schaake (D66). Niet alleen in de keuzes die al die menselijke moderators maken, maar ook om meer inzicht te verkrijgen in hoe de technologie werkt. ‘Voor mij is de hamvraag: hoe krijgen we toezicht op algoritmes? Pas als we door onderzoek meer weten over hoe algoritmes informatie rangschikken, over wat de bedoelde en onbedoelde gevolgen zijn, kunnen we betere oplossingen bedenken.’

Als volgens Schaake bijvoorbeeld blijkt dat de technologie van Facebook en Google discriminatie op basis van huidskleur, geslacht of leeftijd in de hand werkt, moet gekeken worden of dat illegaal is. Dit is geen theoretisch voorbeeld: er zijn steeds meer zorgen dat geautomatiseerde beslissingen met behulp van kunstmatige intelligentie maatschappelijke ongelijkheid en discriminatie juist

‘Meer onderzoek betekent dus niet meteen meer verbieden’, zegt Schaake. ‘Maar het idee dat er geen toezicht is op de machinekamers van de grootste platforms waar mensen informatie delen, is onacceptabel en onhoudbaar.’

Het voorbeeld van de Netzwerkdurchsetzungsgesetz

Het gebrek aan transparantie maakt het ook moeilijk om te achterhalen of bestaande wetgeving doet wat ze moet doen. Een goed voorbeeld is de Duitse Netzwerkdurchsetzungsgesetz, oftewel de NetzDG. Deze wet, die in juni 2017 van kracht werd, schrijft voor dat sociale media met meer dan 2 miljoen leden binnen 24 uur moeten reageren op meldingen over ‘illegale content’ – en als die melding klopt, die content moeten verwijderen. Ook moeten deze bedrijven dit in het openbaar rapporteren.

De NetzDG is de ‘strengste’ vorm van regulering in het Westen, maar ook hier zie je dat over enkele belangrijke details niet goed is nagedacht.

Promovendus Paddy Leerssen van het Instituut voor Informatierecht (UvA) onderzocht het ‘De verwachtingen van de wet waren behoorlijk negatief’, vertelt Leerssen. ‘Dit zou het einde van het vrije internet betekenen. Er is extreem actief tegen gelobbyd door sociale media en burgerrechtenorganisaties.’

Google kreeg 75.000 klachten over hate speech. Daarvan is ongeveer 40 procent verwijderd. Is dat te veel of te weinig?

Maar het is moeilijk te zeggen of de NetzDG een succes is, zegt Leerssen, ondanks de rapportages van ‘Er wordt geen inzage gegeven in wat voor zaken verwijderd zijn. Google heeft 75.000 klachten over hate speech ontvangen. Daarvan is ongeveer 40 procent verwijderd. Is dat te veel of te weinig? Er is niets bekend over de inhoud van de klachten.’

Daarnaast ziet Leerssen grote verschillen tussen bedrijven. ‘Facebook verwijderde vorig jaar in Duitsland zo’n honderd keer minder content dan Google en Twitter. Waarschijnlijk heeft dat te maken de klachtfunctie op de site. Google en Twitter bieden de mogelijkheid te klagen direct aan bij de content, bij Facebook moet je eerst naar een andere pagina.’

Dat laat volgens Leerssen zien dat de wetgever niet alleen transparantie moet afdwingen, maar ook moet nadenken over hoe, in dit geval, zo’n klachtfunctie eruitziet. Facebook voldoet nu formeel aan de verplichting gebruikers de gelegenheid te geven een verwijderingsverzoek in te dienen, maar via het ontwerp kan dat toch

Een groot probleem van de Duitse wet is dat gebruikers van wie content verwijderd is, daar niet tegen in beroep kunnen gaan. De vrees is nu dat sociale media uit gemak of kostenbesparing te veel content verwijderen.

Facebook een soort interne supreme court in te stellen waar gebruikers terechtkunnen met hun klachten maar de vraag is of dat werkbaar is – gezien de enorme schaal waarop Facebook opereert. De vraag is ook of Facebook de uiteindelijke arbiter moet zijn over wat toelaatbaar is. ‘We hebben nieuwe institutionele arrangementen nodig’, zodat er een onafhankelijke toets mogelijk is. Denk aan een vorm van laagdrempelige rechtspraak door deskundigen. De vrijheid van meningsuiting is te belangrijk om alleen aan bedrijven over te laten.’

Stap 2: het einde van de uitzonderingspositie

Volgens Marietje Schaake spelen er twee cruciale vragen bij de aanpak van socialmediaplatforms. Allereerst: worden bestaande wetten wel gehandhaafd? En: moeten er nieuwe wetten voor deze bedrijven komen?

‘Net zoals de Autoriteit Consument en Markt erop toeziet of mededingingsregels worden gerespecteerd, zou er toezicht op naleving van bestaande wetten moeten zijn. Als die wetten verouderd blijken, en er door nieuwe technologie zoals kunstmatige intelligentie nieuwe uitdagingen ontstaan, moet de wet wellicht aangepast.’

Het ligt voor de hand om iets te doen aan de uitzonderingspositie die bedrijven als namelijk dat ze in tegenstelling tot veel andere ondernemingen niet aansprakelijk zijn voor de schade die via hun platforms wordt veroorzaakt.

Paddy Leerssen is lid van die zich over onder andere deze mogelijkheid buigt. De tijd is rijp voor regulering, ziet Leerssen. ‘We zien dat in de VS en Europa wetten opengebroken worden die meer dan vijftien jaar onveranderlijk leken. Het ziet er naar uit dat ook de Europese Commissie in de komende vijf jaar dit dossier zal heropenen.’

De NetzDG kan volgens hem nog weleens dienen als voorbeeld voor wetgeving elders, dus voor wetgeving die alleen van toepassing is op grote platforms, waarbij die de verplichting krijgen om binnen korte tijd verboden content te verwijderen.

Als deze bedrijven aansprakelijk worden gesteld voor de schade die wordt veroorzaakt door het dataverkeer op hun platforms, en ze veel sneller moeten reageren op verwijderingsverzoeken, zullen ze veel meer aan moderatie moeten doen dan nu, en dus veel mensen moeten aannemen. De vraag is hoe winstgevend die bedrijven dan

Er is geen reddingsbrigade nodig voor Facebook

Facebook en Google zullen zich niet graag in de kaart laten kijken. Want als ze hun uitzonderingspositie kwijtraken, bedreigt dat hun voortbestaan. Maar dat is niet zo relevant, vindt rechtswetenschapper Joris van Hoboken. ‘We kunnen ons blind blijven staren op die bedrijven en hun problemen proberen op te lossen, maar het is gewoon problematisch dat alle informatie gratis is en er heel veel geld wordt verdiend aan adverteerders.’

Wat Hoboken betreft, zit de kern van het probleem bij dit verdienmodel. Heeft de maatschappij uiteindelijk baat bij dit model? Als het antwoord ‘nee’ is, moeten we volgens Hoboken ons daarnaar gaan gedragen.

‘Ik ben niet van de Facebook-reddingsdienst. We moeten onszelf niet zo afhankelijk maken van dit soort bedrijfsmodellen en bijvoorbeeld durven te investeren in de kwaliteit van de publieke informatievoorziening via publieke middelen.’

Meer lezen?