Wie wil weten welke nazivideo’s YouTube verwijdert, moet kijken waar extremisten rondhangen
YouTube treedt sinds begin juni harder op tegen haatzaaiende en naziverheerlijkende video’s, onder meer met behulp van kunstmatige intelligentie. Onderzoekers achterhaalden wat was gebeurd met een deel van de verwijderde video’s – en laten zien waar ze weer opduiken.
YouTube probeert schoon schip te maken. Sinds begin juni zegt het platform harder op te treden tegen video’s die aanzetten tot haat, of die nazisme verheerlijken. Video’s die verwijzen naar het Derde Rijk worden bijvoorbeeld verwijderd, tot irritatie van geschiedenisdocenten en archieven.
Over de vraag of het zinvol is dit soort content te verwijderen, schreef ik een paar dagen geleden een column. Nu wil ik een interessant verkennend onderzoek belichten over wat het videoplatform precies verwijdert. De methode van dit onderzoek, verricht door het Open Intelligence Lab van de Universiteit van Amsterdam, is namelijk erg interessant.
De onderzoekers kijken in eerste instantie niet op YouTube, maar op 4chan, een onooglijk maar populair forum dat bekendstaat om de productie van memes, trollen en online politiek activisme. 4chan bracht zo’n tien jaar geleden de hackersgroep Anonymous voort. Nu is het een pleisterplaats geworden van alt-right.
In de gesprekken op het subforum /pol/ – wat staat voor Politically Incorrect – worden discussies vaak gelardeerd met online bronnen. Uit eerder onderzoek van het Open Intelligence Lab blijkt dat driekwart van die bronnen YouTubefilmpjes zijn. Binnen dit subforum zijn er weer kleine gemeenschappen. De onderzoekers hebben naar een van die groepen gekeken: /nsg/, oftewel National Socialism General.
De ‘zegeningen’ van het nationaalsocialisme
In deze groep worden de ‘zegeningen’ van het nationaalsocialisme besproken en komt de Jewish question vaak ter sprake – oftewel het diep antisemitische idee dat Joden een maatschappelijk probleem zouden zijn. Ook in deze groep wordt uitgebreid naar YouTube verwezen.
Als je wilt weten welke extreme content op YouTube wordt verwijderd, dachten de onderzoekers, is het een goed idee om te kijken wat er met de video’s is gebeurd waar in deze groep naar wordt verwezen, want heel veel van die video’s hebben een extreme inhoud.
Ook waren er fascistische liederen en alternatieve ‘documentaires’ over de nakende nationaalsocialistische revolutie en Adolf Hitler te vinden
Uit de analyse blijkt allereerst dat in /nsg/ YouTube vooral wordt gebruikt als plek om video’s te bewaren, niet zozeer om – via YouTube – zelf een schare kijkers te trekken. De video’s zijn vaak oude propagandafilms uit Duitsland en Italië, soms nog overgenomen van een VHS-videoband. Daarnaast waren er speeches van extreemrechtse intellectuelen, fascistische liederen en alternatieve ‘documentaires’ over de Holocaust (namelijk de ontkenning ervan), de nakende nationaalsocialistische revolutie en Adolf Hitler te vinden.
In totaal zijn ruim zesduizend video’s onderzocht waarnaar verwezen werd in /nsg/. Ruim de helft moet verwijderd zijn tijdens één grote actie, want ná de eerste week van juni is weinig extra materiaal meer weggehaald. Bij de verwijderde video’s werd vervolgens gekeken waarom ze niet meer te zien waren. In 56 procent van de gevallen bleek het hele YouTube-account waar de video stond te zijn verwijderd, 13 procent bleek gedeletet vanwege overtreding van YouTubes regels en van de rest is niet bekend waarom ze zijn verwijderd.
Kunstmatige intelligentie als censor
De onderzoekers vermoeden dat er weinig menselijk inzicht is ingezet bij het verwijderingsproces en dat de video’s met behulp van kunstmatige intelligentie voor verwijdering zijn aangemerkt. Ook nieuwsvideo’s van reguliere media over nazisme en historische archieven werden immers door de schoonmaakactie getroffen.
Is de inhoud hiermee verdwenen?
Nee. De onderzoekers zien een verplaatsingseffect. Een tweede stap in hun research was het automatisch googelen van de titels, om te zien of en waar de video’s weer geüpload zijn. Wat blijkt: de meeste video’s duiken gewoon weer elders op YouTube op, maar ook worden alternatieve platforms gevonden. Zoals het internetarchief Archive.org, of het alternatieve videoplatform BitChute.com. Maar ook doken verwijderde video’s op in openbare Google Drive-mappen, Vimeo, Reddit, Dailymotion en op de complotsite AnonHQ.com.
Dat de meeste video’s steeds weer worden geüpload, zegt iets over de moeite die het YouTube kost om het platform schoon te houden
Als je de schoonmaakactie beoordeelt aan de hand van het effect op het extremistische /nsg/-forum, dan is ze behoorlijk succesvol geweest – al was dat succes nogal tijdelijk. Het feit dat de meeste video’s gewoon weer worden geüpload, zegt iets over de moeite die het YouTube kost het platform schoon te houden. En bij iedere schoonmaakactie zullen er ook weer onschuldige kanalen worden gesloten, of video’s nodeloos worden verwijderd.
Wat dit onderzoek in ieder geval aantoont, is dat je op creatieve wijze vrij makkelijk extremistische video’s kunt vinden en dus óók kunt verwijderen. Het is dezelfde methode die we onlangs in ons onderzoek naar radicalisering op YouTube hebben gebruikt: als je extremisme wilt vinden, zoek dan eerst op de meest extremistische plekken en kijk vervolgens waar de mensen die daar actief zijn zich nog meer ophouden.
Het hele onderzoek, met grafieken en visualisaties, én andere interessante onderzoeken vind je op de site * van het Open Intelligence Lab.