YouTube heeft onder tientallen miljoenen filmpjes met kinderen de mogelijkheid om te reageren uitgeschakeld. Ook belooft het videoplatform om sneller een tool te lanceren die seksueel getinte reacties onder kindervideo’s automatisch verwijdert.
De afgelopen weken kwam YouTube in opspraak omdat kijkers onder video’s van – vaak nog jonge – kinderen, veelal meisjes van onder de tien jaar, seksueel getinte reacties achterlaten. Sommige reageerders plaatsen bijvoorbeeld links naar fragmenten van video’s waarop bijvoorbeeld net wat meer bloot is te zien.
Dit soort filmpjes is vaak voor een kleine kring van familie en vrienden gemaakt, toch zijn sommige honderdduizenden keren bekeken. Zo vonden we vorige week een filmpje van een Nederlands meisje dat haar zwemkunsten laat zien nadat ze haar diploma heeft gehaald. Die video was meer dan honderdduizend keer bekeken. Een van de reageerders noemde het meisje ‘bangable’, neukbaar.
Aanbevelingen zijn een rabbit hole
YouTube kwam in de problemen nadat de Amerikaanse vlogger Matt Watson een goed bekeken emotionele video maakte, waarin hij laat zien hoe makkelijk het is om filmpjes met kleine kinderen te vinden en hoe die kinderen door reageerders worden geseksualiseerd.
Daarnaast laat Watson zien dat het aanbevelingsalgoritme, dat je telkens nieuwe video’s suggereert, de kijker al snel een rabbit hole in trekt van talloze video’s waarin meisjes gymnastiekoefeningen doen, zwemmen, of waterijs-challenges doen. Watson riep kijkers op om adverteerders onder druk te zetten zich terug te trekken.
Een aantal van deze adverteerders heeft, volgens de Wall Street Journal, vorige week inderdaad hun advertenties op YouTube gestaakt, waaronder Disney, Epic Games (maker van het populaire spel Fortnite) en McDonald’s.
Het videoplatform is niet het enige dat met dit probleem worstelt
En nu belooft YouTube dus beterschap. Op video’s waar minderjarigen staan worden de reacties uitgeschakeld, behalve als de maker kan aantonen zelf actief te modereren. Veel YouTubers hebben de reactiemogelijkheid nodig voor interactie met het publiek. Ook werkt het videoplatform aan een systeem dat geseksualiseerde commentaren automatisch kan opsporen. Dat systeem was al gepland, maar de lancering wordt naar voren gehaald.
Of dit genoeg zal zijn moet nog maar blijken. YouTube worstelt al jaren met grensoverschrijdend of ronduit extreem gedrag van makers en gebruikers. Onlangs lieten we samen met de Volkskrant zien hoe gebruikers via YouTube radicaliseren en steeds meer extreemrechts gedachtegoed aanhangen. YouTube kondigde onlangs ook al aan een systeem te bouwen waardoor complotvideo’s en nepnieuws niet meer aanbevolen worden.
Het videoplatform is niet het enige dat met dit probleem worstelt, ook andere platforms zijn naarstig op zoek naar manieren om misbruik door kwaadwillenden, discriminatie, intimidatie en extremisme te bestrijden.
De dilemma’s van goede moderatie
De stap die YouTube nu neemt, is radicaal, maar niet genoeg. Het echte probleem wordt er namelijk niet mee opgelost. Dat probleem is dit: hoe kun je als groot platform regels consistent toepassen over al je honderden miljoenen, zo niet miljarden gebruikers, terwijl je rekening houdt met de context van landen, subculturen en andere gemeenschappen?
Wat voor de een kunst is, is voor de ander pornografie. Wat voor de een vrijheid van meningsuiting is, is voor de ander haatzaaien. Wat voor de een een goede grap is, is voor de ander diep kwetsend. Je zult nooit consensus bereiken over wat rechtvaardige regels zijn.
Platforms als YouTube, maar ook Facebook en Twitter, werken op zo’n grote schaal, dat het onmogelijk is om regels op te stellen die voor iedereen toepasbaar zijn en waarvan de toepassing in alle situaties tot rechtvaardige uitkomsten leidt. Dit is een onmogelijke spagaat. Je kunt als platform radicaal alle reacties onder kinderfilmpjes uitschakelen, op zich een effectieve stap, maar ontneemt daarmee ook opa’s, oma’s, vriendjes en vriendinnetjes de mogelijkheid om te reageren.
Ben je er voor iedereen, of maak je keuzes over wat voor gemeenschap je bedient?
YouTube en andere platforms staan voor de moeilijke taak om een aantal existentiële vragen te beantwoorden: wat voor platform wil je zijn? Ben je er voor iedereen, of maak je keuzes over wat voor gemeenschap je bedient? Ben je een neutraal en open platform? Of heb je een identiteit, maak je inhoudelijke keuzes en ben je dus meer een krant (of ander medium), maar dan op wereldschaal?
Iedere keuze heeft grote gevolgen voor het bedrijfsmodel en de inkomsten. Als YouTube meer als medium gaat opereren, zal het veel meer gespecialiseerde moderators moeten aannemen, maar ook veel meer gebruikers moeten weren – en dus advertentieinkomsten mislopen. Nu zet het platform in op het ontwikkelen van algoritmes. Die kunnen weliswaar consistent zijn, maar hebben vooralsnog grote moeite met het interpreteren van de context.
Kunnen socialemediabedrijven dit wel zelf oplossen?
Voor ons zijn deze grote problemen reden om te onderzoeken hoe platforms deze existentiële vragen het hoofd denken te bieden. Welke dilemma’s komen er kijken bij het modereren? Hoe doen de verschillende platforms dat? Wat werkt wel, wat niet? Kunnen de socialemediabedrijven dit wel zelf oplossen, of moet er regulering komen? En hoe zou die regulering er dan uit moeten komen te zien?
Als je deze zoektocht wilt volgen, kunnen we alvast enkele artikelen en video’s aanraden.
Een van de interessantste denkers over het belang van moderatie is Tarleton Gillespie, een socioloog die onlangs het boek Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media schreef. In onderstaand praatje legt hij in het kort uit hoe essentieel goede moderatie is – het is volgens hem de kern van wat socialemediabedrijven doen – en schetst hij een vergezicht hoe dit soort platforms beter kunnen functioneren. Dit filmpje is zeer de moeite waard:
Eerder had Vanity Fair een heel goed verhaal over de bestrijding van haatzaaiende taal op Facebook. De essentie? Facebook kan en zal het nooit goed kunnen doen.
Dit verhaal van de New Yorker over Reddit laat zien wat er gebeurt als socialemediabedrijven wel harde keuzes maken over wat ze toelaten op hun platform.
Update 5 maart 2019, 11.18 uur: De kop en tekst van dit stuk zijn aangepast. De kop gaf niet goed de strekking en bedoeling van dit stuk weer. Ook heb ik tekst toegevoegd over het kernprobleem van YouTube.
Meer lezen?
YouTube heeft een probleem met soft-kinderporno. En technologie gaat dat niet oplossen Meisjes uploaden grappige en persoonlijke filmpjes op YouTube en vieze kerels weten ze te vinden. Met behulp van YouTube. Wat gebeurt hier? Aanbevolen voor jou op YouTube: racisme, vrouwenhaat en antisemitisme Het videoplatform waar jij kattenfilmpjes en het doelpunt van de week terugkijkt, is ook verantwoordelijk voor een van de grootste problemen van onze tijd: de verspreiding van haat, leugens en racisme. Hoe meer filmpjes je op YouTube bekijkt, hoe extremer de inhoud die je krijgt voorgeschoteld. Dat blijkt uit onderzoek dat De Correspondent samen met de Volkskrant uitvoerde.Dit verhaal heb je gratis gelezen, maar het maken van dit verhaal kost tijd en geld. Steun ons en maak meer verhalen mogelijk voorbij de waan van de dag.
Al vanaf het begin worden we gefinancierd door onze leden en zijn we volledig advertentievrij en onafhankelijk. We maken diepgravende, verbindende en optimistische verhalen die inzicht geven in hoe de wereld werkt. Zodat je niet alleen begrijpt wat er gebeurt, maar ook waarom het gebeurt.
Juist nu in tijden van toenemende onzekerheid en wantrouwen is er grote behoefte aan verhalen die voorbij de waan van de dag gaan. Verhalen die verdieping en verbinding brengen. Verhalen niet gericht op het sensationele, maar op het fundamentele. Dankzij onze leden kunnen wij verhalen blijven maken voor zoveel mogelijk mensen. Word ook lid!