Weten we door de opmars van AI straks nog wel wat waar is?

Maurits Martijn
Correspondent Beter internet

Onder politici en denkers bestaat grote angst dat AI zal leiden tot een tsunami aan misinformatie, waardoor mensen niet meer weten wat waar is. Maar er zijn goede redenen om hieraan te twijfelen. Meer en betere misinformatie betekent niet vanzelfsprekend dat mensen er ook meer van zullen consumeren.

Worden we straks gehersenspoeld door kunstmatige intelligentie? Nu het voor iedereen een koud kunstje is om beelden, teksten, video en audio te maken, is er een angst dat ons een van neppe informatie te wachten staat. Informatie die ook nog eens gevaarlijk echt lijkt, waardoor we nep niet meer van

Het zijn niet de minsten die hiervoor vrezen. Elon Musk, Yuval Noah Harari, Yoshua Bengio en meer dan dertigduizend anderen een – mede vanwege die misinformatie. ‘Staan wij toe dat machines onze informatiekanalen overspoelen met propaganda en onwaarheden?’ schreven ze. ‘Moeten we het risico lopen de controle over onze beschaving te verliezen?’

Een andere ‘AI-godfather’, Geoffrey Hinton, nam ontslag bij Google. Hij is bang dat mensen ‘niet meer in staat zullen zijn om te weten wat waar is’, ‘AI zal autoritaire leiders in staat stellen hun kiezers te manipuleren.’

Manipulatie en misleiding?

De angst voor misinformatie is ook doorgedrongen tot de hogere regionen van de macht. Op initiatief van de Britse premier Sunak ondertekenden tientallen landen begin november de ‘Bletchley Declaration’ Die verklaring wijst nadrukkelijk op ‘onvoorziene risico’s die voortvloeien uit de mogelijkheid om inhoud te manipuleren of misleidende inhoud te genereren’.

Zijn deze angsten terecht? Moeten we vrezen voor een wereld waar niemand meer feit van fictie kan onderscheiden?

Nee, is het antwoord van Felix Simon, Sacha Altay en Hugo Mercier. En zij kunnen het weten, want de drie zijn experts op het gebied van misinformatie op Zij doen empirisch onderzoek naar misinformatie en nepnieuws: hoe vaak het voorkomt en wat de effecten ervan zijn.

In een gezamenlijke lopen ze de drie belangrijkste argumenten van de angstigen langs: de toegenomen kwantiteit van misinformatie; de toegenomen kwaliteit en de toegenomen mogelijkheden om misinformatie te personaliseren.

Meer aanbod betekent niet meer vraag

Generatieve AI zoals ChatGPT en DALL-E maakt het makkelijker om misinformatie te creëren. Volgens de angstigen zal dat leiden tot een ‘tsunami’ in het aanbod.

Ook de drie onderzoekers erkennen dit. Maar, zeggen zij ook, dat is niet hetzelfde als een toename in de consumptie van misinformatie.

Meer aanbod van misinformatie leidt niet vanzelfsprekend tot meer vraag

Meer aanbod van misinformatie zal niet vanzelfsprekend leiden tot meer vraag. Theoretisch is dat wel mogelijk, maar alleen als er al een onvervulde vraag is naar misinformatie of een beperkt aanbod. En dat is niet zo.

Ook nu al is er vreselijk veel misinformatie vrijelijk beschikbaar en makkelijk vindbaar. Als mensen misinformatie willen consumeren dan kan dat. ‘Het is onwaarschijnlijk dat een groot deel van de samenleving op zoek is naar misinformatie, maar die niet kan vinden’, schrijven de auteurs.

Ondanks die grote hoeveelheden misinformatie, blijkt al jaren uit onderzoek dat de Sterker: er is een klein clubje zeer actieve gebruikers dat verreweg het grootste deel van alle misinformatie consumeert. En dat doen zij zeer bewust: het is niet zo dat zij bijzondere toegang tot misinformatie hebben, of geen toegang tot kwaliteitsinformatie. Nee, schrijven de wetenschappers, ‘zij verwerpen kwaliteitsinformatie en hebben een voorkeur voor misinformatie’.

Kortom: de vraag naar misinformatie is bepalend, niet het aanbod. En er is geen reden om te geloven dat generatieve AI die vraag zal vergroten.

'Betere' misinformatie betekent niet meer consumptie

En de kwaliteit van misinformatie die met behulp van AI kan worden geproduceerd? Die is toch nauwelijks nog van echt te onderscheiden? Dat mag zo zijn, schrijven de auteurs, maar ook hiervoor geldt dat dit niet logischerwijs zal leiden tot meer consumptie.

Want ook als de misinformatie van hoge kwaliteit zal zijn, zullen de meeste mensen er niet of nauwelijks mee in aanraking komen. ‘In plaats daarvan consumeren de meeste mensen overwegend inhoud van mainstream bronnen. [...] Hierdoor is elke toename in de kwaliteit van misleidende inhoud grotendeels onzichtbaar voor het grootste deel van het publiek.’

Daarnaast kunnen producenten van misinformatie nu al, zonder geavanceerde AI, op simpele wijze hun content veel betrouwbaarder laten lijken dan vaak het geval is. Dat zij dit niet doen, betekent dat het vermommen van misinformatie als betrouwbare informatie kennelijk geen prioriteit is, aldus de auteurs.

Gericht targeten kost (veel) geld

Een laatste, veelgehoorde angst is dat generatieve AI het makkelijker maakt om gebruikers zeer gericht te targeten en hen zo te overtuigen en misleiden. De onderzoekers schrijven dat AI-technologie het inderdaad mogelijk maakt om in verschillende stijlen individuen aan te spreken, maar toch zien ze ook hier niet direct een gevaar in.

Het kost geld om Henk met boodschap A en Harry met boodschap B te kunnen bestoken

Allereerst verandert AI niets aan de technische en financiële middelen die nodig zijn om individuen te kunnen microtargeten. Het kost geld om Henk met boodschap A en Harry met boodschap B te kunnen bestoken – en het moet ook technisch mogelijk zijn. AI maakt dit niet goedkoper, of makkelijker. ‘De kosten om mensen met misinformatie te bereiken blijven een bottleneck, in tegenstelling tot de kosten om misinformatie te maken.’

Daarnaast weten we uit (ander) onderzoek dat microtargeten helemaal niet zo effectief is. Mensen Dat geldt voor online advertenties voor producten, maar zeker ook voor politieke advertenties. Een grote angst is dat AI wordt ingezet bij verkiezingen, maar, zo schrijven de onderzoekers, ‘de effecten van politieke advertenties zijn klein en zullen dat waarschijnlijk ook blijven, los van hoe gericht ze zijn, want overtuigen is gewoon ingewikkeld’.

Opgeblazen angsten

Zorgen over een aanstondse misinformatietsunami zijn dus ‘opgeblazen’, volgens Simon, Altay en Mercier. Ze passen in een lange traditie van ‘morele paniek’ over nieuwe technologieën. Paniek die voortkomt uit de onjuiste aanname dat mensen naïef en goedgelovig zijn.

De auteurs pleiten voor een meer genuanceerde discussie over de effecten van AI, die op feiten en bewijzen is gestoeld in plaats van op ‘excessieve en speculatieve waarschuwingen’. Want de effecten van AI vallen misschien dan mee, de gevolgen van al die waarschuwingen kunnen wel degelijk negatief uitvallen: de suggestie dat nieuws niet meer betrouwbaar is,

Dan is het ironisch genoeg niet de technologie maar juist de angst voor AI die ervoor zorgt dat mensen niet meer weten wat ze moeten geloven.