De Correspondent leest voor
Sahra Mohamed en Dimitri Tokmetzis - Video’s manipuleren met kunstmatige intelligentie
SoundCloud
Luister hier naar het voorgelezen verhaal

Op Twitter verschijnt er een video van president Donald Trump die vanachter zijn bureau de wereld toespreekt: de Verenigde Staten zijn zojuist een nucleaire aanval begonnen op Noord-Korea. 

Het bericht verspreidt zich razendsnel via Twitter, Facebook en andere socialemediaplatforms. Er breekt paniek uit – niet in de laatste plaats in Pyongyang. 

Alleen: het bericht is niet waar. Het is weliswaar Trump die spreekt, maar wat hij zegt, is door een computer gegenereerd. Zijn lippen, stem, mimiek en tekst zijn gemanipuleerd. We kijken niet naar een authentieke video-opname, maar naar een deepfake, een video die met kunstmatige intelligentie is gefabriceerd.

Lees ook: Zo werkt de technologie achter deepfakes Deepfakes zijn video’s die worden gemaakt met behulp van kunstmatige intelligentie. Een kind kan de was doen: je hoeft niet eens te kunnen programmeren om je eigen deepfake te maken. Lees de explainer hier

Dit is misschien een wat vergezocht scenario, maar de opkomst van deepfakes roept dit soort vragen op. Kun je je ogen en oren nog wel vertrouwen als bewegend beeld, stemmen en tekst beter en beter te vervalsen zijn?

Sommigen doen daar en zien in deepfakes een directe bedreiging voor de democratie. Fake news, cynisme, desinformatiecampagnes, wantrouwen, polarisatie: met kunstmatige intelligentie kunnen we onze borst pas echt nat maken (googel maar eens op ‘deepfake’ en ‘danger’.)

Met de aankomende presidentsverkiezingen in de Verenigde Staten durven grote technologiebedrijven daarom niet meer af te wachten. Facebook begin januari aan video’s te verbieden die bewerkt zijn zodat het lijkt alsof iemand iets zegt terwijl hij dat niet heeft gedaan. (Als het doel ervan misleiding is. Satire is bijvoorbeeld nog wel toegestaan.) Daags daarna maakte Reddit een soortgelijke maatregel Twitter onlangs toe voortaan op te treden tegen  

Maar zijn deepfakes eigenlijk wel zo gevaarlijk? 

De technologie wordt voor onschuldige video’s gebruikt

Om te beginnen: dit soort wordt meestal voor heel onschuldige doeleinden gebruikt. Denk aan de filters in TikTok, en Facebook, waarmee je allerlei grappige effecten kunt toevoegen aan je video’s en foto’s, zoals kattenoren, gekke neuzen of andere special effects. Dit soort technologie is razend populair bij kinderen en jongeren. 

Of denk aan een populaire Russische app die je kunt gebruiken om gezichten op foto’s te verouderen, of de haardracht of sekse te veranderen. En er is bijvoorbeeld de waarmee je je gezicht kunt projecteren op acteurs in filmscènes. 

Dat laatste lijkt al aardig op de deepfake-video’s waar zulke zorgen over zijn. Er zijn genoeg bewijzen dat er indrukwekkende video’s kunnen worden gemaakt, al hebben die vooral een grote entertainmentwaarde. 

Komiek Jordan Peele laat hier Barack Obama dingen zeggen

Hier zie je hoe in real time de expressie en spraak kan worden aangepast

Politieke deepfakes zijn meestal satire, vaak met Donald Trump als doelwit

Met soms een heel grappig resultaat

Maar ook voorstanders van Trump slaan terug, zoals hier met Nancy Pelosi, voorzitter van het Amerikaanse Huis van Afgevaardigden, die als de Joker wordt afgebeeld

Maar in de meeste deepfakes zien we andere beroemdheden, zoals hier Snoop Dogg, op zijn aaibaarst

En hier Anne Hathaway, die ineens in Matthew McConaughey verandert

Nicolas Cage is geliefd

Net als Elon Musk

Met deepfakes kunnen gezichten ook verouderd worden, zoals hier gebeurt bij Greta Thunberg

Of juist verjongd, iets waar David Hasselhoff vast blij mee zal zijn

Zelfs het hele lichaam kan gemanipuleerd worden!

De meestvoorkomende deepfake: porno

Maar er zijn ook sinisterder toepassingen. Bijvoorbeeld porno – dat is meteen ook de manier waarop deepfakes het meest worden gebruikt. 

Meestal worden gezichten van vrouwen, vooral Hollywood- en Bollywoodsterren, op het lichaam van pornoactrices geprojecteerd. Er zijn waarop gemanipuleerde pornofilmpjes staan met actrices en artiesten zoals Ariana Grande, Scarlett Johansson, Emma Watson, Emilia Clarke en Gal Gadot, die populair lijken te zijn in dit genre. Op een van die sites kunnen kijkers ook verzoekjes insturen. Soms verschijnt hun idool dan enkele dagen later in een pornofilmpje.

Er zijn ook apps en sites die vrouwen Het resultaat wordt ook wel een deepnude genoemd. Gebruikers kunnen bijvoorbeeld een foto van iemand uploaden waarop die persoon is gekleed. Met kunstmatige intelligentie wordt die kleding vervolgens verwijderd en wordt een bloot lichaam gegenereerd. Dat kan gratis, maar wie betaalt (in bitcoin) krijgt voorrang en krijgt foto’s terug van betere kwaliteit. 

Er is ook een opensourceproject waarbij gebruikers de software gewoon kunnen downloaden en op hun eigen computer deepnudes kunnen maken met allerlei parameters, zoals borstgrootte, huidskleur en GitHub, een site waar dit soort code doorgaans wordt gedeeld, heeft vorig jaar een project verboden, maar andere software duikt er dus gewoon weer op.

Van de bijna 15.000 aangetroffen deepfakes was 96 procent pornografisch

Een aantal sociale media probeert de verspreiding van deepnudes tegen te gaan: ze zijn sinds 2018 bijvoorbeeld verboden op Reddit. Maar op andere platforms, zoals 4chan en Voat (een soort Reddit, maar dan met weinig moderatie) en op hackerfora kun je nog enkele gemeenschappen vinden die dit soort materiaal produceren. 

Vorig jaar hield het Amsterdamse bedrijf Deeptrace een telling van het aantal online deepfakes. Van de bijna 15.000 aangetroffen deepfakes was 96 procent

Spraak is ook niet meer veilig

Kunstmatige intelligentie wordt ook gebruikt om spraak te begrijpen en te manipuleren. Dit is vaak onschuldig. Het begrijpen gaat al aardig goed en daar zijn al veel commerciële toepassingen voor. Als je de klantenservice van een groot bedrijf belt, zul je steeds vaker eerst een computer aan de telefoon krijgen. Die probeert simpele vragen af te handelen en als het te lastig wordt, verwijst die je door naar een medewerker van vlees en bloed. 

Digitale assistenten, zoals Alexa van Amazon, kunnen je thuis helpen met de dagelijkse klusjes: lichten aan- en uitdoen, mensen bellen, informatie opzoeken. Er bestaan Barbiepoppen waar kinderen al hele gesprekken mee kunnen voeren. En Google lanceerde vorig jaar Google Duplex, een dienst die voor jou simpele belafspraken kan afhandelen, bijvoorbeeld voor het reserveren van een tafel in een

Er is ook steeds meer software die, al dan niet met stemmen kan nabootsen. In dat geval wordt een computermodel getraind met fragmenten van iemands stem. Vervolgens kun je die stem alles laten zeggen wat jij wil. Dat is niet eens zo moeilijk. Luister bijvoorbeeld naar dit voorbeeld, waarbij we een kort audiofragment van Donald Trump hebben gebruikt om hem vervolgens alles te kunnen laten zeggen wat we willen.

De kwaliteit is niet heel goed, maar dit is gemaakt zonder diepgaande kennis van programmeren, zonder gespecialiseerde computers en met gratis middelen. Kun je nagaan wat je kunt doen als je meer vaardigheden, kennis en middelen hebt.

Onlangs werd bijvoorbeeld de laatste speech van John F. Kennedy, die hij op de dag van zijn moord zou geven, alsnog door hem uitgesproken. Het resultaat is Ook kunnen met behulp van dit soort software stemmen bewaard worden van mensen die bijvoorbeeld door hun ziekte hun spraakvermogen kwijtraken. Voortaan kunnen ze typend

Maar natuurlijk wordt daar ook misbruik van gemaakt. Vorig jaar kreeg een directeur van een Brits energiebedrijf een telefoontje van zijn baas. Die vroeg hem 240.000 dollar over te maken naar een geheime rekening in Hongarije. De directeur vond het een raar verzoek, maar voerde de opdracht uit: die kwam immers direct van zijn baas. Achteraf bleek dat iemand de stem van de CEO had nagemaakt, vermoedelijk met kunstmatige intelligentie. Het bleek dus diefstal  

Er zijn inmiddels al kant-en-klare tools op de markt waarmee je met vrij weinig audiosamples iemands spraak kunt manipuleren. Om maar aan te geven: het is niet zo moeilijk meer. 

Van racistisch monster naar filosofische Redditor

Tot slot is er nog tekst. Er wordt al decennia gewerkt aan het automatisch genereren van kwalitatief hoogstaande geschreven tekst, bijvoorbeeld voor journalistieke producties, maar ook voor online conversaties.

Een berucht voorbeeld van hoe dat mis kan gaan, is Tay, een Twitterbot gemaakt door Microsoft. Deze zelflerende bot zou op basis van conversaties op Twitter steeds betere gesprekken moeten gaan voeren. Na één dag interactie met andere Twitteraars was Tay verworden tot een racistisch monster dat de holocaust

Net als bij video en spraak is er ook bij tekst de laatste jaren een enorme sprong gemaakt. Een van de meest in het oog springende innovaties is het zogenoemde GPT-2-model, een deeplearning-model voor tekst dat vorig jaar Inmiddels beginnen computergeschreven teksten in het wild op te duiken. 

Een goede plek om de ontwikkeling hiervan te volgen een kanaal op Reddit. Alle posts en commentaren zijn gegenereerd door een machine. Andere kanalen op Reddit zijn als trainingsdata gebruikt.

SubSimulatorGPT2 zorgt vooral voor vermaak en verwondering. De vrees is dat dit soort technologie ook gebruikt kan worden voor desinformatiecampagnes en andere vormen van manipulatie. 

Eind vorig jaar publiceerde Harvard-student Max Weiss een interessant onderzoek naar manipulatie van internetconsultaties Overheden vragen geregeld om input op aankomende wetgeving. Toen de Amerikaanse toezichthouder FTC reacties vroeg op de voorgenomen afschaffing van de netneutraliteit, bleek dat een groot deel van de ingestuurde commentaren nep waren. Die nepcommentaren waren nog vrij makkelijk te herkennen, omdat er maar een paar variaties waren op een

Weiss liet echter zien dat het met het GPT-2-model mogelijk is om veel overtuigender commentaren te genereren en die automatisch in te sturen. Zo wist hij een bestaande internetconsultatie te verstoren door die te overspoelen met zijn eigen, kwalitatief goede reacties. 

En er zijn natuurlijk nog veel meer toepassingen. Om de haverklap worden er online desinformatiecampagnes gehouden op Twitter, Facebook, Instagram en andere sociale media. Recent is er weer eentje ontdekt op Twitter; klimaatsceptici lanceerden daar een campagne over de bosbranden Het GPT-2-model, zo is de vrees, zou die campagnes verder kunnen automatiseren en nog een stuk overtuigender kunnen maken. Wat doet dat met ons vertrouwen in openbare informatie?

Meer cheapfakes dan deepfakes

Moeten we bang zijn voor deepfakes? Dat ligt genuanceerd.

Eind 2018 ontstond er een explosieve situatie in het Centraal-Afrikaanse land Gabon. De president van dat land, Ali Bongo, zou ernstig ziek zijn. Al snel gingen geruchten dat hij was overleden, maar dat dat werd stilgehouden. 

Om deze geruchten de kop in te drukken, werd een video van hem vrijgegeven, maar argwanende Gabonezen dachten dat het hier om een deepfake ging en zo werd de politieke instabiliteit alleen maar verder gevoed. Het is niet definitief vastgesteld of de video een deepfake is, maar het wantrouwen is eigenlijk al genoeg om veel onrust te

Het probleem in Gabon was natuurlijk niet kunstmatige intelligentie, maar het grotere probleem van wantrouwen in nieuws en informatie van de overheid. Deepfakes zijn niet meer dan een nieuwe technologie die dat wantrouwen verder kan aanwakkeren. Desinformatie en wantrouwen zijn immers van alle tijden, waarin alle media – audio, foto’s, teksten en nu dus ook video – verdacht kunnen zijn. Met andere woorden: eigenlijk zijn deepfakes niet zo bijzonder als ze lijken.

Daarnaast zijn deepfakes voor kwaadwillenden vaak helemaal niet nodig en soms ronduit onhandig. 

Waarom zou je een dure deepfake gebruiken, als een cheapfake ook volstaat?

Als je doel is om onrust te veroorzaken, desinformatie te verspreiden, mensen tegen elkaar op te zetten, dan kun je ook uit de voeten met veel goedkopere en makkelijk te fabriceren Waarom zou je een dure deepfake gebruiken, als een cheapfake  

Vorig jaar ging bijvoorbeeld een video van de Amerikaanse voorzitter van het Huis van Afgevaardigden, Nancy Pelosi, Ze leek daarin dronken en verward. Maar als snel bleek dat de snelheid van de video was gemanipuleerd. De manipulatie werd ontmaskerd, maar pas nadat de video flink was gedeeld.

YouTube
Washington Post: ‘Pelosi videos manipulated to make her appear drunk are being shared on social media’

Of neem dit voorbeeld. In 2017 claimde Rusland dat een groep Syrische rebellen geholpen zou worden door de Verenigde Staten. Ze toonden daarbij beelden van gevechten. Die beelden bleken echter afkomstig van Simpele manipulatie dus, maar er werd wel weer dagen over gesproken.

Bron: Bellingcat

Hieronder zie je beelden uit het spel.

YouTube
Beelden uit de game

Daarnaast zijn deepfakes vaak goed te herkennen. Een deepfake is technisch op een andere manier ontstaan dan video’s die ge-edit zijn met traditionele software. Door dit verschil kunnen deepfakes online worden gevlagd. Journalisten en andere belanghebbenden kunnen daarin getraind worden en krijgen daarvoor ook gereedschappen aangereikt. Voor een is een deepfake gebruiken onhandig, juist omdat die zo anders is dan een normale video.

Daar komt bij dat een deepfake al zijn eigen bewijs van manipulatie is. Stel dat je een nepverhaal wilt verspreiden over, zeg, de koning, bijvoorbeeld dat hij een buitenechtelijke affaire heeft. Doe je dat zonder video, door geruchten te verspreiden, dan moet de koning die ontkrachten en bewijzen dat hij dat niet heeft gedaan, wat vrij lastig is. Als hij te zien is in een deepfake waarin hij een vreemde vrouw omhelst, dan hoeft hij die alleen maar onderuit te halen om zijn onschuld aan te tonen.  

Als het er echt toe doet, als het gaat om onderwerpen van nationaal en internationaal belang, zoals in het atoom-voorbeeld aan het begin van dit verhaal, kunnen we er nog steeds op rekenen dat manipulaties, hoe geavanceerd ook, uiteindelijk worden ontmaskerd. Gewoon door ouderwetse journalistiek of juist met behulp van nóg slimmere software. 

Dus nee, deepfakes zelf gaan de democratie niet slopen en leiden niet tot een informatie-apocalyps, maar dat vraagt wel dat we ons niet gek laten maken.

Wel vervelend voor vrouwen

Maar vooral ook op kleinere schaal kunnen deepfakes erg vervelend zijn. Als het gaat om video, dan is misbruik op pornografisch gebied reden tot zorg, iets waar al duidelijk een markt voor is. Ook al is de handeling niet echt en het lichaam niet het hunne, voor veel vrouwen zijn deepnudes en de verspreiding ervan erg bedreigend. Hier komen we binnenkort nog op terug.

Van spraakmanipulatie hebben we ook nog niet het laatste gehoord en ook dat kan vooral op wat kleinere schaal vervelende consequenties hebben. Denk aan criminaliteit, of vervelende pranks. Vermoedelijk zal het niet lang duren voordat ook hier nog eenvoudigere apps beschikbaar zijn waarmee je stemmen kunt manipuleren. 

Maar belangrijk blijft dat deepfakes, en de achterliggende kunstmatige intelligentie, zelf neutraal zijn. En ook gewoon leuk en interessant.

De technologie verlegt voor creatievelingen de grenzen van hun zelfexpressie, we kunnen erom lachen en kunnen onze vrienden en familie verrassen en vermaken met leuke filters en filmpjes. We kunnen steeds meer dagelijkse taken uitbesteden aan machines die voor ons spreken. We kunnen onze spraak makkelijk in tekst overzetten en de stemlozen weer een stem geven. Dus waakzaamheid is handig, maar laten we ook van deze nieuwe technologie profiteren.

Meer hierover?

Zo werkt de technologie achter deepfakes Deepfakes zijn video’s die worden gemaakt met behulp van kunstmatige intelligentie. Een kind kan de was doen: je hoeft niet eens te kunnen programmeren om je eigen deepfake te maken. Lees het artikel hier