Stel je bent voor een werkstuk op zoek naar informatie over de rellen in het Oost-Duitse Chemnitz in de zomer van 2018, die vooral in het nieuws kwamen door neonazi’s Je gaat, zoals zoveel jongeren die op zoek zijn naar informatie, naar YouTube en vult ‘riots chemnitz’ in de zoekbalk in. Zijn de video’s die je terugkrijgt enigszins objectief van toon? Geven ze een waarheidsgetrouw beeld van wat er deze zomer in de Duitse stad is gebeurd?

Dit is wat YouTube onlangs voor ons relevant

Bovenaan staat een video van Red Pill Shark, een kanaal met 55.204 Dit kanaal behoort tot de alt-right, een van oorsprong Amerikaanse beweging die draait om wit superioriteitsdenken, waarbinnen ook het antisemitisme welig tiert.

De video’s van Red Pill Shark ageren tegen de EU, immigratie, transgenders, links en spreken vol lof over Donald Trump, en Rusland. Red Pill Sharks video over de rellen in Chemnitz is één grote aanklacht tegen het immigratiebeleid van Angela Merkel en is 125.000 keer bekeken.

Daaronder staan video’s van:

  • Ruptly, een kanaal van de tv-zender Russia Today;
  • Sinatra_Says, een kanaal dat zich vooral tegen zogenoemde social justice warriors richt, progressieve activisten;
  • The House of Peasants, eveneens een alt-right-kanaal;
  • Op nummer 9 in de lijst komen we een video van Red Ice TV tegen, een kanaal dat onlangs een tweede officiële waarschuwing heeft gekregen van YouTube (bij de derde wordt het offline gehaald). De video’s van Red Ice TV gaan vooral over de vele vermeende bedreigingen voor het ‘witte ras’, waarvoor de schuld geregeld bij een links-Joodse kongsi wordt gelegd. In het verleden verzorgde Red Ice de live-registratie van de Erkenbrand-conferenties. Erkenbrand, dat zichzelf een noemt, is in Nederland de belangrijkste representant van de alt-right.

Wellicht dat dit aanbod een voorzichtige interesse wekt. Het zijn immers beelden die je misschien niet hebt meegekregen in reguliere media. De van de gebeurtenissen in Chemnitz intrigeert ook. Dus is het niet vreemd dat je op het filmpje klikt van Red Ice TV.

Terwijl het filmpje loopt, verschijnen aan de rechterkant van het scherm aanbevelingen voor andere clips. Daartussen staat nog een video van Red Ice TV, met de titel They Want You Dead White Man. Daaronder wordt ook een video van PragerU aanbevolen: The Suicide of Europe.

Je kunt afhaken en het voor gezien houden. Maar YouTube zelf weet hoe belangrijk deze aanbevelingen zijn. Uit eigen onderzoek is namelijk gebleken dat meer dan van de tijd die mensen aan YouTube besteden voortkomt uit een aanbeveling door een algoritme, een geavanceerd computerprogramma. Verreweg de meeste mensen kijken dus naar video’s die YouTube zelf heeft voorgesteld.

YouTube, de grote radicaliseringsmachine

Dat je dankzij de aanbevelingen van YouTube alsmaar verder kunt verdwalen in een woud van filmpjes over ‘witte genocide’, ‘maatschappijvernietigende’ feministen, moslims, Joden en cultureel marxisten, is volgens een groeiende groep onderzoekers, publicisten en journalisten een probleem dat meer aandacht verdient. Dat vonden ook de Volkskrant en De Correspondent, die besloten samen naar YouTube te doen.

Waar sociale media als Facebook en Twitter inmiddels felle kritiek krijgen vanwege de verspreiding van nepnieuws en haatberichten, blijft YouTube grotendeels buiten schot. Terwijl YouTube in Nederland en veel andere landen onder jongeren een van de belangrijkste sociale media is.

Die tunnel van aanbevelingen waar YouTube’s algoritme je in leidt, wordt inmiddels beschreven als een vorm van ‘radicalisering’ die kijkers vooral naar de extreemrechtse kant van het politieke spectrum trekt. De invloedrijke technologiesocioloog Zeynep Tufekci noemt YouTube daarom ‘de grote Zij staat zeker niet alleen in haar kritiek.

In de loop van 2017 treedt Guillaume Chaslot, een oud-medewerker van YouTube, naar buiten met harde kritiek op zijn voormalige werkgever. In maart dat jaar publiceerde hij over de aanbevelingen die automatisch op je scherm verschenen. Hij had voorafgaand aan de Amerikaanse presidentsverkiezingen gezocht naar Hillary Clinton en Donald Trump. Wie die zoektermen ook intikte, in vier van de vijf gevallen beval YouTube pro-Trump-filmpjes aan. Zoekopdrachten naar Hillary Clinton leverden meestal aanbevelingen

In september van dat jaar publiceren een naar de aanbevelingen die kijkers krijgen als ze video’s van de rechtspopulistische Alternative für Deutschland (AfD) bekijken. Die aanbevelingen leidden kijkers, al snel naar video’s van meer extreme politieke groeperingen, zoals de en de Zo dient zich bijvoorbeeld een gelikt en opzwepend aan om je bij de extreemrechtse identitaire beweging aan te sluiten, de ‘snelst groeiende patriottische jeugdbeweging van Europa’.

Kijkers vallen in een algoritmisch rabbit hole van radicale en extremistische content waar ze niet snel meer uitkomen

Recenter heeft The New York Times over de resultaten van een klein onderzoek van Ray Serrato geschreven, een Berlijnse socialemedia-analist die ook voor VN-organisaties werkt. Serrato zocht naar alle YouTube-filmpjes over Chemnitz die in 2018 online waren gegaan en keek vervolgens welke video’s werden aanbevolen.

Zijn conclusie: als kijker kom je al snel terecht bij extreme videos. En als je eenmaal dat soort video’s aangeboden krijgt, blijven ze maar terugkomen in je aanbevelingen. Kijkers vallen in een algoritmisch rabbit hole van radicale en extremistische content waar ze niet zo snel meer uitkomen.

Maar hoe werkt dat dan precies met die aanbevelingen? Hoe zorgt de technologie van het platform ervoor dat je als kijker uiteindelijk terechtkomt bij video’s over ras en IQ en complottheorieën over een Joodse samenzwering?

Om hier antwoord op te geven, moeten we met een simpele vraag beginnen:

Wat is YouTube eigenlijk?

Het simpele antwoord is: het grootste videoplatform dat heeft. Iedere dag wordt er voor 1 miljard uur aan video’s bekeken en iedere minuut 400 uur aan video geüpload.

YouTube is ook de op een na grootste ter wereld: het moet alleen voor zich dulden. Een tiener die een werkstuk over de rellen in Chemnitz maakt, gebruikt hoogstwaarschijnlijk YouTube als zoekmachine.

En: YouTube is ook een van de belangrijkste sociale media voor jongeren.

Er is ook een ingewikkelder, maar een voor dit artikel relevanter antwoord op de vraag wat YouTube is. Die luidt: YouTube is een alternatief mediaplatform dat video’s aanbiedt die zorgvuldig geselecteerd zijn om gebruikers zo lang mogelijk aan het scherm gekluisterd te houden.

Achter die zorgvuldige selectie gaat complexe softwaretechniek schuil, waar we later in deze explainer dieper op in zullen gaan. Voor nu is het belangrijk om te weten dat YouTube zo is ingesteld dat het onze ‘niche’ – iets dat onze speciale aandacht heeft – probeert te achterhalen. Is YouTube daar eenmaal in geslaagd, dan biedt het ons oneindig veel video’s aan uit die niche.

0 0 0 0 0

YouTube is het grootste videoplatform, dus hoezo niche?

Wie van vogelen houdt, vindt op YouTube duizenden video’s over de zangkwaliteiten van allerlei vogels wereldwijd. Wil je je make-upvaardigheden aanscherpen? Op YouTube staat een heel leger aan beautyvloggers paraat om je dat te leren. Willen je kinderen graag de hele dag kijken? De voorraad video’s raakt nooit op.

Je kunt het zo gek niet bedenken of voor iedere niche zijn er talloze video’s op YouTube te vinden die je niet snel in de reguliere media aantreft. YouTube is dus een alternatief mediaplatform, voor makers en kijkers die hun specifieke obsessie niet zo snel zullen aantreffen bij reguliere media. In ieder geval niet op die gedetailleerde en specialistische manier die je op YouTube tegenkomt.

Daarom is YouTube ook zo’n vergaarbak van zoveel maffe en zorgwekkende dingen.

Video’s dat de aarde plat is en niet rond? Daar zijn er een hoop van. Video’s die zouden bewijzen dat de Clintons deel uitmaken van een pedofiel genootschap dat kinderen in de kelder van een pizzarestaurant misbruikt Die zijn nog steeds te vinden.

Video’s die betogen dat zwarte mensen een lager IQ hebben dan witte? Daar zijn aan gewijd. Video’s die mannen oproepen tot een celibatair bestaan omdat vrouwen onbetrouwbare zouden zijn? Ook hier kun je je dagen, weken, maanden mee vullen.

Goed, je hebt rare niches, nou en?

Die niches zijn wat YouTube zo leuk, fascinerend en verrassend maakt, waarom je er altijd iets nieuws kunt ontdekken. Die niches kunnen er echter ook toe leiden dat je bij eenzijdige en extreme video’s terechtkomt. Dat geldt vreemd genoeg vooral voor onderwerpen waar juist grote consensus over (lijkt) te bestaan.

Neem de relatie tussen ras en IQ. De wetenschappelijke consensus is dat biologisch gezien ras Er is voor de meeste mensen dan ook geen enkele reden om daar video’s over te maken. Waarom zou je? Het is daarom niet verwonderlijk dat van de vele video’s die je wel over dit onderwerp kunt vinden, verreweg de meeste betogen dat zwarte mensen over het algemeen een lager IQ hebben dan witte. Kortom: als je op YouTube een ogenschijnlijk neutrale zoektocht zou doen naar beland je automatisch in het extremistische discours. Een ander discours is er namelijk niet.

Wat je ook niet op YouTube zult aantreffen: video’s die betogen dat de aarde wel rond is, dat de Clintons geen pedofielen zijn en dat vrouwen er niet continu op uit zijn je te ontdoen van je geld, mannelijke trots en waardigheid.

Met andere woorden: het aanbod van video’s is al scheef. Dat de aanbevelingen je daar dan naartoe leiden, is dan ook niet verwonderlijk.

Oké, duidelijk, dat zijn de niches. Hoe kom je zo makkelijk bij extreme video’s uit?

Met die vraag kloppen we aan bij Bernhard Rieder, universitair hoofddocent New Media and Digital Culture aan de Universiteit van Amsterdam. Met twee doet hij onderzoek naar hoe de technische infrastructuur van YouTube bepaalt wat wij aangeboden en te zien

Het zal YouTube worst zijn of het een video aanbeveelt waarin Sylvana Simons voor ‘zwart aapje’ wordt uitgemaakt

YouTube neemt meestal niet op basis van inhoud een besluit of het je een video aanbeveelt, zoals media zouden doen. Als je naar WNL kijkt, hoef je geen programma te verwachten dat de zegeningen van veganisme bezingt en bij de VPRO zul je niet snel Temptation Island zien. Voor YouTube is alle content gelijk. Het vindt de videoclip DNA van de populaire rapper Kendrick Lamar net zo relevant als de videoclip White DNA is An ‘Abomination’ van Red Ice TV, waarin de ‘demonisering’ van het witte ras wordt gehekeld. Beide video’s kunnen naast elkaar opduiken in de zoekresultaten en aanbevelingen.

Maar juist die neutrale houding van YouTube is problematisch. Bernhard Rieder geeft het voorbeeld van twee zoektermen: ‘hamster’ en ‘Jood’. Deze zoektermen worden door YouTube hetzelfde behandeld, maar hebben een hele andere lading.

Een video over ‘Jood’ kan gaan over cultuur, maar ook over de Holocaust, of juist over Holocaustontkenning. Rieder: ‘Een term als "Jood" heeft een gevoelige geschiedenis. "Hamster" totaal niet en dan maakt het niets uit wat voor aanbevelingen we terugkrijgen.’

Met ieder onderwerp word je verder een niche ingeduwd omdat het vermoeden bestaat dat je daar geïnteresseerd in bent. Vaak doet het algoritme ook precies wat we willen: nieuwe content ontdekken. Maar er zijn situaties waarin je dat liever niet wil, waarin je wel een oordeel wil laten meewegen in wat mensen te zien krijgen. Bij maatschappelijke en politieke thema’s bijvoorbeeld, waarin gekker, maffer, extremer wél moreel problematisch kan zijn.

Kortom: de morele afweging, die veel media dag in dag uit maken bij de selectie van hun onderwerpen, ontbreekt. Het algoritme is waardevrij, ook wanneer het onderwerp zo gevoelig is dat het om een waardeoordeel vraagt.

Maar leiden die algoritmes je een bepaalde richting uit?

Dat er een ontwikkeling zit in de aanbevelingen die je krijgt, wordt wel duidelijk als je een tijdje intensief naar iets specifieks zoekt en je je aanbevelingen in de gaten houdt.

Tijdens ons onderzoek naar radicalisering op YouTube ervoeren we hoe snel deze aanbevelingen kunnen veranderen en je een tunnel kunnen induwen. We begonnen met een nieuw gebruikersaccount. Onze startpagina op YouTube zag er toen zo uit.

Er is nog niets gepersonaliseerd. De aanbevelingen bestaan uit trending video’s, auto’s, muziek, nieuws, satire. Kortom, nogal generieke content.

Na drie dagen onderzoek naar enkele extreemrechtse vloggers heeft onze startpagina op YouTube een ware gedaanteverwisseling ondergaan. Dit zijn de video’s waarvan het algoritme van YouTube nu denkt dat we ze graag willen zien.

We zien hier:

  • Video’s van en
  • Clips van het extreemrechtse ThuleanPerspective en het Zweeds-Amerikaanse Red Ice TV. Van beide hebben we video’s bekeken, dus blijkbaar denkt YouTube dat we hier meer van willen zien.
  • Een inhoudelijk negatieve video over Sylvana Simons. Over haar hebben we geen video’s bekeken, dus het is gek dat ze in onze aanbevelingen opduikt. En het is de eerste echte Nederlandse content die wordt aanbevolen.
  • Het kanaal van Rocking MrE. Zijn video’s gaan over de zegeningen van nationalisme en religie, en zijn anti-Joods en antifeministisch.
  • En vreemd genoeg het entertainmentkanaal Dutchtuber, waar we nog nooit iets van gezien hebben. Blijkbaar denkt YouTube dat we dit kunnen waarderen.

Let wel, ons kijkgedrag via dit account is niet normaal, in die zin dat we bewust heel extreme dingen hebben gezocht, die filmpjes vaak helemaal uitkeken en weinig andere video’s bekeken (zoals entertainment). Bij gewoon gebruik zul je wellicht minder snel in zo’n extreme tunnel worden geduwd, maar het blijft verrassend hoe weinig ander, in dit geval niet-extreem, aanbod er overblijft.

Achter deze verschuiving van aanbod gaan meerdere algoritmes schuil. Het ene handelt bijvoorbeeld de zoekvragen af. Het andere voert berekeningen uit op de achtergrond om uit miljoenen video’s een voorselectie van aanbevelingen te maken. En weer een ander kiest daaruit weer een aantal video’s om er een rangschikking van te maken, speciaal

Zijn er meerdere soorten aanbevelingen?

Ja, en dat maakt het uitpluizen van hoe aanbevelingen werken een stuk ingewikkelder.

Zo zijn er zeker vier soorten aanbevelingen die YouTube doet.

De eerste is de persoonlijke aanbeveling. Die zie je als je YouTube opent. Het is een mix van oude en recente filmpjes. Daaronder zie je verse content die net is geüpload en op jou toegespitst is aan de hand van jouw eerdere kijkgedrag.

Daaronder vind je een selectie van onderwerpen en kanalen die je mogelijk interessant vindt omdat je er al iets van hebt bekeken, en video’s van kanalen die Een aantal van deze aanbevelingen komt in de rechterbalk te staan naast de video (met de tekst recommended for you).

Het tweede type aanbevelingen zijn video’s van hetzelfde kanaal waar je net een video van hebt zitten bekijken. Als je een filmpje van opzet, krijg je meer materiaal aangeboden van zijn kanaal, want blijkbaar ben je in zijn werk geïnteresseerd.

Het derde type aanbevelingen betreft de verwante video’s. Dit zijn video’s die vaak samen worden bekeken, denk aan ‘mensen die deze video bekeken, keken ook naar…’. Dit type aanbeveling is inmiddels goed onderzocht om de simpele reden dat data hierover makkelijk toegankelijk zijn. Guillaume Chaslot en de Duitse onderzoekers baseren zich op dit type als ze zeggen dat aanbevelingen steeds extremer worden.

Het vierde type aanbeveling is een zogenoemde A/B-test. Deze worden gebruikt om de aanbevelingen te verbeteren. Groep A krijgt bijvoorbeeld video A voorgeschoteld. Groep B video B. Na verloop van tijd wordt gekeken waarop het meest wordt geklikt. Stel het is video A. Dan krijgt iedereen voortaan die video te zien.

Zijn we daarmee overgeleverd aan een ingewikkeld stuk technologie?

Nee, want YouTube past de manier waarop die aanbevelingen werken continu aan. In een reactie op ons onderzoek laat een woordvoerder ons weten dat de afgelopen jaren Een paar jaar geleden bleken gebruikers gefrustreerd te raken dat ze steeds clickbait met misleidende titels en beschrijvingen kregen aanbevolen. Het aanbevelingsalgoritme is toen aangepast om niet alleen naar views te kijken, maar ook naar likes, dislikes en andere data.

Recentelijk, zegt een woordvoerder, kreeg YouTube klachten dat de aanbevelingen te veel op elkaar leken. Het algoritme is daarom ingesteld om meer verschillende onderwerpen te selecteren.

Vorige zomer dat ze ‘betrouwbare nieuwsbronnen’ hoger in de aanbevelingen zou zetten dan onbetrouwbare. Dit na hevige kritiek op de vloed van misleidende complotfilmpjes naar aanleiding van de school shooting in Parkland, Florida.

En onlangs dat ‘borderline content die gebruikers schadelijk kunnen misleiden’ in de toekomst niet meer in de aanbevelingen zal opduiken. Dit is echter nog een proef, die voorlopig alleen in de Verenigde Staten wordt uitgevoerd.

Daarnaast traint YouTube software die automatisch video’s moet herkennen die de voorwaarden van het platform overtreden. Tussen juli en september 2018 haalde YouTube bijvoorbeeld naar eigen zeggen 7,8 miljoen video’s offline en werd 81 procent van die video’s door software als potentieel problematisch aangemerkt. Driekwart van die door software aangemerkte video’s had nog geen enkele view gegenereerd. YouTube probeert dus content in een zo vroeg mogelijk stadium te verwijderen.

Deze voorbeelden geven aan dat YouTube de algoritmes niet helemaal vrijlaat, dat het bedrijf wel degelijk keuzes maakt. De vraag is: is het genoeg?

Deze voorbeelden geven aan dat YouTube de algoritmes niet helemaal vrijlaat, dat mensen er wel degelijk keuzes maken in wat wel en niet wordt gepromoot of toegestaan. De vraag is, is dit genoeg, want er blijven zoveel hatelijke video’s en reacties ongemoeid. En je moet het wel heel bont maken wil je als maker van YouTube verwijderd worden.

Daarnaast zegt YouTube dat het niet met de botte bijl op de vrijheid van meningsuiting wil inhakken.

Illustratief hiervoor is de op een deel van de verzamelde data die De Correspondent en de Volkskrant voor het onderzoek hebben gebruikt. Tussen deze data, die wij deelden met het Amerikaanse hoofdkantoor van YouTube, zitten reacties (comments) waarin gesproken wordt over ‘ongedierte uit de derde wereld’, en antisemitische video’s als The Jewish Question Explained in 4 Minutes die wil aantonen hoe Joden de westerse beschaving hebben ‘ondermijnd’.

YouTube laat in een reactie per mail weten dat de video’s en reacties bij video’s ‘bij een eerste bestudering’ niet indruisen tegen de richtlijnen van het videoplatform. Daarin staat dat YouTube geen video’s accepteert die aanzetten tot geweld of haat op basis van ras, etniciteit, nationaliteit, religie of geslacht. Echter: wat aanzet tot haat en wat binnen de grenzen van vrijheid van meningsuiting valt, is niet altijd even makkelijk te bepalen, stelt YouTube. ‘De vrijheid van meningsuiting staat aan de basis van YouTube. Om die reden laten we ook content toe van mensen die controversiële of aanstootgevende overtuigingen delen.’

Voor de fijnproevers, hoe werken die algoritmes dan precies?

De filmpjes die je uiteindelijk aanbevolen krijgt, hebben een snoeiharde afvalrace overleefd. Ze zijn door twee filters gekomen. De eerste filter is de zogenoemde Candidate Generation Filter. De deep neural networks van YouTube – een geavanceerde vorm van kunstmatige intelligentie – gebruiken onder meer jouw demografische gegevens en kijkgeschiedenis om te bepalen wat mensen zoals jij bekeken hebben en wat jouw type gebruiker interessant vindt. Daar komt een lijst van enkele honderden video’s uit.

Vervolgens wordt die lijst door een andere Ranking Filter gepompt. Die bepaalt de volgorde, en die is wederom afhankelijk van een aantal persoonlijke eigenschappen, maar ook van de ‘versheid’ van de items.

Video’s die kort voor je bezoek zijn geüpload, worden bijvoorbeeld hoger gescoord. We weten dit omdat in 2016 enkele onderzoekers publiceerden waarin ze het nieuwe aanbevelingssysteem, dat toen werd uitgerold, analyseerden. Dat systeem was zeer complex en maakt gebruik van de eerdergenoemde deep neural networks.

De Amerikaanse marketeer Matt Gielen heeft voor een wat minder technisch publiek de belangrijkste punten Er zijn volgens hem bij dit algoritme drie factoren van groot belang die bepalen of je een video krijgt aangeboden.

  • De eerste is de zogenoemde watch time. Dit is niet de tijd die je aan een video besteedt, maar de tijd die je op het platform doorbrengt. Stel, je bekijkt voor driekwart een video over ras en IQ van Jared Taylor. Daarna klik je op een video van een uur waarin neonazi Richard Spencer in discussie gaat met de rechtse YouTuber Sargon of Akkad en je kijkt die helemaal uit. Vervolgens kijk je nog een korte TED-Talk over de edele kunst van het uitstellen. De Watch Time van Taylor’s video is dan behoorlijk indrukwekkend: je bent na die video zomaar twee uur op het platform gebleven. Hiermee stijgt de kans dat deze video vaker wordt aanbevolen, zowel bij jou als bij anderen.
  • Een tweede factor is zoekgeschiedenis. Als je veel naar ras en IQ hebt gezocht, zul je daar ook meer video’s over aanbevolen krijgen.
  • Een derde factor is de vaagste en geheimzinnigste: demografische informatie zoals leeftijd, geslacht, woonplaats en honderden andere variabelen waarover YouTube zwijgt.

Dus, hoe val je in de rabbit hole?

Dat heeft voor een groot deel te maken met het soort platform dat YouTube eigenlijk is: een mediaplatform waarvoor met name niches heel belangrijk zijn. Daar komt bij dat de aanbevelingsalgoritmes je op veel verschillende manieren die niches laat verkennen en je daarin vasthouden.

Gebruik je YouTube alleen om kinderfilmpjes of modeltreinvideo’s te bekijken, dan is de kans niet groot dat je zomaar politiek extreme content te zien zult krijgen. Zoek je daarentegen naar informatie over maatschappelijk gevoelige thema’s dan zul je er makkelijk op stuiten.

Het is dus niet zo dat je automatisch door YouTube naar extreme content wordt geleid, maar als je eenmaal de eerste schreden hebt gezet, al is het uit nieuwsgierigheid, word je er zó verder ingezogen.

Dit artikel is deel van een langlopende serie op De Correspondent over extreme politieke bewegingen. Deze serie wordt financieel gesteund door het De Volkskrant heeft geen bijdrage van het fonds gehad voor haar werk.

Meer lezen?

Aanbevolen voor jou op YouTube: racisme, vrouwenhaat en antisemitisme Het videoplatform waar jij kattenfilmpjes en het doelpunt van de week terugkijkt, is ook verantwoordelijk voor een van de grootste problemen van onze tijd: de verspreiding van haat, leugens en racisme. Hoe meer filmpjes je op YouTube bekijkt, hoe extremer de inhoud die je krijgt voorgeschoteld. Lees ons verhaal hier.

De reactie van YouTube op ons onderzoek naar radicalisering Naar aanleiding van ons onderzoek naar radicalisering op YouTube legden we het videoplatform enkele vragen voor. Dit zijn de belangrijkste punten uit de reactie. Lees de reactie hier

De zaak ‘Pizzagate’ – of hoe nepnieuws en complottheorieën hun weg vinden naar een breed publiek Het geweersalvo dat een Hillary Clinton-hater eind 2016 afvuurde in een pizzeria in Washington laat zien hoe nepnieuws en zelfs de meest bizarre complottheorieën weerklank vinden bij een breed publiek. Wie waren verantwoordelijk voor ‘Pizzagate’? Een reconstructie. Lees het verhaal van Dimitri hier terug