Twee meisjes van een jaar of 9 doen een yoga challenge. Het is gewoon vrolijk gedol van twee kinderen in korte broeken en T-shirts, een grappig filmpje dat ze hebben geüpload op YouTube. Ondanks het amateuristische karakter is de video al bijna 400 duizend keer bekeken.

Twee maanden geleden heeft iemand onder de naam ‘pro si contra’ een heel korte reactie achtergelaten, ‘1:03’. Het is een link, een zogenoemde timestamp naar een plek in de video waar iets interessants te zien is. Als je daarop klikt, tilt het ene meisje, dat op haar rug ligt, het andere met een voet tussen haar gespreide benen net omhoog. Voor die meiden onschuldig. Voor ‘pro si contra’ een handeling met een seksueel tintje.

Dit voorbeeld staat niet op zichzelf. Er zijn heel veel video’s van meisjes, van zo tussen de 5 en 15, te vinden, met heel veel van die En je bent maar een paar kliks van die video’s verwijderd.

bracht dit soort video’s en hun commentaren deze week aan het licht. Zijn video Youtube is Facilitating the Sexual Exploitation of Children, and it’s Being Monetized (2019) is de afgelopen dagen bijna twee miljoen keer bekeken. In deze twintig minuten durende rant laat Watson zien hoe hij razendsnel in een ‘wormgat van softcore kinderporno’ terechtkomt.

Het begint met bikini’s

Watson begint met een simpele zoekopdracht voor bikini’s en klikt vervolgens in de zijbalk met aanbevolen video’s willekeurig door. Bij de volgende video in de aanbevelingsbalk duiken de eerste filmpjes met kinderen op. Hij klikt op eentje, met een meisje van 5, 6 dat gymnastiekoefeningen doet in een badpak. De video heeft bijna een miljoen views.

I’m now in the wormhole’, zegt Watson.

Want kijk naar de zijbalk met aanbevelingen: alleen maar filmpjes van jonge meisjes in het zwembad, of die gymnastiekoefeningen aan het doen zijn.

Watson klikt opnieuw op een video in de zijbalk en komt bij een vermoedelijk Russisch filmpje uit van een meisje, met anderhalf miljoen views, een enorm aantal voor zo’n amateuristische video. De eerste twee comments zijn van gebruikers die timestamps, dus links delen naar ‘interessante stukjes’ uit het filmpje. Dat zijn de stukjes waarin de meisjes in ‘seksueel impliciete’ posities te zien zijn. Je ziet bijvoorbeeld een onderbroek, of benen die op dat moment

Sommige reageerders plaatsen seksueel getinte opmerkingen of emoji’s, zoals Anderen hebben gebruikersnamen die weinig aan de verbeelding overlaten, zoals ‘Pedo Phile.’

YouTube

Matt WhatItIs (Watson) over de soft-kinderporno die hij op YouTube vond.

Ik heb Watsons video met verbazing zitten bekijken, nadat een lezer me er een tip over stuurde. Watson is behoorlijk emotioneel, dus ik nam zijn verhaal met een korrel zout.

Toch klopt wat hij claimt in grote lijnen. Als je zoekt op ‘bikinis’, ‘yoga challenge’ of vind je al heel snel zeer goed bekeken video’s van meisjes die schaars gekleed zijn met daaronder allerlei geseksualiseerde commentaren. Ook vind je uitnodigingen van reageerders om contact te leggen met de meisjes, e-mailadressen, telefoonnummers en links naar openbare WhatsAppgroepen.

Als je eenmaal ontvankelijk bent voor een bepaald onderwerp, dan blijven dat soort video’s maar terugkomen

De snelheid waarmee de aanbevelingenbalk verandert, is ook frappant. In no time krijg je alleen nog maar video’s van schaarsgeklede meisjes aangeboden die allerlei challenges doen, in zwembaden rondhangen of ons deelgenoot maken van hun opstaan- of naar-bed-gaan-ritueel.

Dit mechanisme doet denken aan waar we onlangs in samenwerking met de Volkskrant uitgebreid over berichtten: hoe YouTube radicalisering in de Het aanbevelingsalgoritme is zo ontworpen dat het kijkers zo lang mogelijk vasthoudt, op basis van hun persoonlijke voorkeuren. Een deel van die aanbevelingen komt tot stand door zogenoemd ‘collaborative filtering’, dus ‘gebruikers die dit filmpje keken,

Als je eenmaal ontvankelijk bent voor een bepaald onderwerp, of dat nu religieus of politiek extremisme is, of in dit geval seksueel verontrustend gedrag, dan blijven dat soort video’s maar in je blikveld terugkomen.

Dit zou toch opgelost zijn?

Ik was ook verbaasd, omdat ik dacht dat YouTube het probleem van dit soort grensoverschrijdend gedrag inmiddels wel had opgelost. Het videoplatform kwam in 2017 in opspraak omdat kinderen in livestreams werden aangespoord om seksuele handelingen te verrichten. Ook werden adverteerders boos toen bleek dat hun advertenties bij filmpjes met schaarsgeklede kinderen En ook toen was bekend dat pedoseksuelen dit soort video’s bezochten en becommentarieerden. YouTube beloofde beterschap.

Ook nu reageert YouTube met duidelijke taal. ‘Elke content – inclusief commentaren – die minderjarigen in gevaar brengt is afschuwelijk en we hebben een duidelijk beleid dat dit op YouTube verbiedt. We dwingen dit beleid agressief af, rapporteren waar nodig aan de relevante autoriteiten, verwijderen deze content van ons platform en YouTube gebruikt automatische systemen om dit soort content te vinden en wordt daarbij geholpen door gebruikers die grensoverschrijdende content rapporteren.

Het filmpje van Matt Watson toont volgens mij aan dat YouTube hierin nog steeds tekortschiet.

Naar de reden daarvoor blijft het gissen. Misschien is hier sprake van technisch falen, geldgebrek, slecht uitgevoerde moderatie of wellicht is YouTube te groot geworden om controleerbaar en beheersbaar te zijn. Iedere minuut wordt vierhonderd uur aan video geüpload. We weten het gewoon niet, omdat YouTube en moederbedrijf Google pers en onderzoekers altijd op grote afstand houden.

Probeer een machine maar eens context te leren herkennen

Wat ik wel weet, is dat je dit probleem niet met technologie gaat oplossen. Ook heeft het maar beperkt zin om menselijke moderatoren in korte tijd per video of reactie een algemene checklist te laten aflopen of bepaalde regels worden overtreden. Wat je voor dit soort problemen nodig hebt, zijn experts die actief optreden, dus zelf grensoverschrijdende content opzoeken en verwijderen.

Want wat je met checklists en technologie (nog) niet goed kunt achterhalen is context.

Wat onder dit soort video’s gebeurt, is niet per se verboden. De meisjes (of hun ouders) plaatsen video’s die op zich onschuldig zijn en geen expliciet naakt bevatten. De commentaren eronder roepen doorgaans niet op tot grensoverschrijdend gedrag en lijken de regels van YouTube, noch de wet te overtreden.

Een aubergine-emoji heeft in de ene context een grappige en onschuldige betekenis, bijvoorbeeld onder een kookvideo. In een andere context is deze emoji ronduit ranzig, zoals onder een video van een meisje dat gymnastiekoefeningen doet.

Is de opmerking ‘wow, you are so beautiful, I love you’ onder een video van een kind dat een yoga challenge doet lief bedoeld (bijvoorbeeld van een familielid) of heel erg creepy (van een volwassen man die in een heel ander land woont)?

Is ‘wow, you are so beautiful, I love you’ onder een video van een kind lief bedoeld (bijvoorbeeld van een familielid) of heel erg creepy (van een volwassen man die in een heel ander land woont)?

Die contextgevoeligheid geldt ook voor andere vormen van extremisme. In ons onderzoek naar radicalisering kwamen we bijvoorbeeld vaak zogenoemde echobrackets tegen, waarbij een woord tussen drie haakjes wordt geplaatst (((op deze manier))). Deze haakjes hebben voor sommigen een antisemitische connotatie. (((they))) kan bijvoorbeeld verwijzen naar Joden die achter de schermen een complot tegen het ‘witte ras’ aan het smeden zijn. Maar die echobrackets worden inmiddels ook door Joden gebruikt die zich niet willen laten intimideren door antisemieten. Ze gebruiken het als een geuzenteken.

Hoewel YouTube (en moederbedrijf Google) zeer geavanceerde kunstmatige intelligentie ontwikkelen, zijn geautomatiseerde systemen nog niet goed in staat om op grote schaal die context goed te duiden. Misschien over een paar jaar, maar op dit moment is het heel moeilijk om dit soort subtiliteiten automatisch te ontdekken. Dat geldt ook voor een moderator die maar een paar seconden heeft om een video of reactie te beoordelen.

Wat YouTube nodig heeft, zijn expert-moderators die op de hoogte zijn van de gemeenschap die ze onderzoeken, die weten wat voor symbolen en signaalwoorden worden gebruikt door pedofielen, extremisten of andere groepen, en wat die precies betekenen. Die experts zouden actief dit soort content moeten opsporen en niet alleen wachten tot een mens of machine iets heeft gemarkeerd als grensoverschrijdend.

Want, zoals het filmpje van Matt Watson en ons onderzoek naar radicalisering laten zien, zo moeilijk is het niet om grensoverschrijdende content te vinden als je weet waar je naar moet zoeken.

En de ouders dan?

Tot slot ligt misschien wel de grootste verantwoordelijkheid bij de ouders. Nog steeds lijken veel mensen niet te beseffen dat als ze een video uploaden op YouTube, ze hun kind op een wereldpodium plaatsen. Of ze hebben onvoldoende door wat hun kinderen op YouTube uitspoken.

Tijdens het zoeken kwam ik een treffend voorbeeld tegen, een video waarin een Nederlands meisje van een jaar of 6 trots vertelt dat ze haar zwemdiploma heeft gehaald en vervolgens wat van haar zwemkunsten laat zien. Je zou verwachten dat zo’n filmpje misschien door hooguit enkele tientallen mensen is bekeken, wat familie en vrienden. De teller staat echter op 126.000. Zo’n bizar hoog aantal views is al een teken dat er iets mis is.

Ook een geregelde controle van de comments zou ouders erop moeten wijzen dat er iets niet goed gaat. Bij het diplomafilmpje is een van de bovenste commentaren dat dit meisje ‘bangable’ is, neukbaar.

Wat kun je dan doen?

  1. Besef dat alles wat je op YouTube plaatst door de hele wereld bekeken kan worden en door anderen is te downloaden. Kortom: over wat je plaatst, raak je de controle kwijt.
  2. Zorg dat je controle hebt over het account van je kinderen, dat je de inloggegevens hebt en kunt zien waar zij naar kijken en of en wat ze uploaden.
  3. Houd filmpjes die voor familie en vrienden zijn bedoeld daarom privé op YouTube, je kunt de link met mensen delen, zodat zij het filmpje toch kunnen bekijken.
  4. Kun je de verleiding niet weerstaan, schakel dan in ieder geval de commentaren uit of controleer geregeld even wat er met en onder je filmpje gebeurt.
  5. Als je rare dingen ziet gebeuren onder de filmpjes van anderen, maak daar dan melding van en klaag bij YouTube als daar vervolgens niets mee gebeurt, want het videoplatform heeft geregeld publieke druk nodig om echt in actie te komen.

YouTube

Hoe YouTube rechtse radicalisering in de hand werkt.

Meer lezen?

Aanbevolen voor jou op YouTube: racisme, vrouwenhaat en antisemitisme Het videoplatform waar jij kattenfilmpjes en het doelpunt van de week terugkijkt, is ook verantwoordelijk voor een van de grootste problemen van onze tijd: de verspreiding van haat, leugens en racisme. Hoe meer filmpjes je op YouTube bekijkt, hoe extremer de inhoud die je krijgt voorgeschoteld. Dat blijkt uit onderzoek dat De Correspondent samen met de Volkskrant uitvoerde. Lees het verhaal hier terug

YouTube schotelt je steeds meer extreme video’s voor. Hoe werkt dat? Hoe meer filmpjes je op YouTube bekijkt, hoe extremer de inhoud die je krijgt voorgeschoteld. Dat is de conclusie van een groot onderzoek dat we samen met de Volkskrant uitvoerden. Maar hoe werkt die aanbevelingssoftware van YouTube eigenlijk? Lees het verhaal hier terug