Ja, AI kan je productiever maken. Maar wie vertrouwt jou dan nog?

Michiel de Hoog
Correspondent Sport
Illustraties door Saskia Janssen (voor De Correspondent)

Als je eerlijk ‘toegeeft’ dat je AI hebt gebruikt voor die flitsende presentatie of dat steengoede jaarverslag, vertrouwen je collega’s je niet meer. We vinden transparantie heel belangrijk, blijkt uit recent onderzoek – maar over AI kun je beter je mond houden. (Als je maar niet betrapt wordt.)

Als rechtgeaarde kenniswerker anno 2025 heb je nog maar twee opties: AI gebruiken of achterblijven.

Onlangs was daarover op deze site van Ernst-Jan Pfauth te lezen, en op LinkedIn word je al langer overspoeld met even dringende adviezen om – nu het nog kan – ‘je voorsprong te claimen met AI’.

Of nou ja: voorsprong? Binnen de subcultuur klinkt het toch meer alsof die kans al enige tijd voorbij is. Wie nu nog moet beginnen met AI, is hooguit bezig de schade te beperken.

‘Verrassend genoeg’, LinkedIn-AI-influencer Elisa Baas, ‘hebben veel mensen nog steeds moeite met het schrijven van effectieve ChatGPT-prompts.’ Nog steeds – zeg Henk, ben je nou nog steeds van die matige prompts aan het versturen?

En ook Pfauth heeft het in zijn stuk al in de verleden tijd over een ‘nieuwe kloof’ die is ontstaan, blijkbaar enige tijd geleden dus, tussen de mensen die AI zijn gaan gebruiken – ‘de nieuwe kantoorelite’ – en mensen die dat niet deden.

Dus waar wacht je nog op: ga die robot liefhebben, ga upskillen! Dan schrijf je binnenkort de ene effectieve prompt na de andere, en merk je weldra dat je inderdaad beter, leuker en sneller bent gaan werken,

Er is maar een nadeel aan het werken met AI: je kunt het maar beter stilhouden.

Want zodra mensen weten dat je AI gebruikt, concluderen twee recente wetenschappelijke publicaties, beginnen ze je te wantrouwen.

De AI-vraag voor de komende jaren: moet je AI-gebruik toegeven?

Voor de helderheid: dat AI presentaties, scripties, jaarplannen, sollicitatiebrieven, bezwaarschriften, wetsvoorstellen, e-mails of wat dan ook beter kan maken, daar kunnen we inmiddels wel van uitgaan. De twee publicaties, van de Universiteit van Arizona en van Duke University, draaiden dan ook om een andere vraag: wat doet AI-gebruik met het vertrouwen dat mensen in elkaar hebben?

Die vraag kwam voort uit over de kwestie of je je AI-gebruik moet ‘toegeven’ aan klanten en collega’s. wees transparant. Transparantie (simpelweg vermelden dat je AI hebt gebruikt) lijkt ook alleen maar voordelen te hebben. Enerzijds is transparantie een nobel doel op zich: je presenteert het werk van iemand anders, of het werk van een machine, niet als je eigen werk. Anderzijds is het een middel: transparantie geldt Vertrouwen van klanten in bedrijven en vertrouwen van collega’s

Maar hoe waar dat ook is, en of er nu richtlijnen of geen richtlijnen voor bestaan, veel werknemers blijken hun AI-gebruik toch Een boel moderne kantoorslaven zijn, zoals een AI-onderzoeker het ‘secret cyborgs’. En in beide recente onderzoeken naar AI-gebruik – en – wordt dezelfde conclusie getrokken: die stiekemerds hebben groot gelijk.

‘Onze studies wijzen naar een paradoxaal effect’, schrijven de onderzoekers van de Universiteit van Arizona, ‘waarbij transparantie over AI-gebruik, bedoeld om geloofwaardigheid mee te winnen, ironisch genoeg leidt tot een afname van vertrouwen.’ Of, zoals de Duke-onderzoekers het zeggen: je mag dan wel slimmer werk afleveren dankzij AI, maar je collega’s zien je als dommer.

Zelfs een simpele met AI geschreven e-mail is verdacht (als je er open over bent)

Met tal van proefpersonen zetten Oliver Schilke en Martin Reimann van de Universiteit van Arizona dertien experimenten op. Ze bestudeerden hoe verschillende types mensen reageerden op verschillende types AI-gebruik en op transparantie

In een van de experimenten plaatsten Reimann en Schilke de deelnemers in de rol van een HR-manager die sollicitaties moest beoordelen. Groep 1 hoorde dat de sollicitatiebrief met behulp van AI was geschreven, groep 2 hoorde dat de sollicitant was geholpen door een carrièrecoach, groep 3 hoorde niks. Het minste vertrouwen kreeg de door AI geholpen sollicitant – die werd dan ook het minst vaak aangenomen.

Middels een ander experiment legden Reimann en Schilke bloot dat mensen op zich geen probleem hebben met AI als maker. Als een e-mail, beoordeling of instructie is ondertekend door een AI-bot, vinden gebruikers dat minder erg dan als de afzender de HR-manager is, die er vervolgens bij zegt dat hij/zij het bericht met AI heeft geschreven. ‘Zodra je het woord AI gebruikt’, zegt Oliver Schilke via Zoom, ‘worden mensen een beetje bang.’

Uit een vervolgexperiment bleek dat proefpersonen die weten dat een collega geregeld gebruikmaakt van AI, die collega pas gaan wantrouwen als hij zijn AI-gebruik voor een specifiek rapport ‘toegeeft’. ‘Dit toonde aan’, zegt Schilke, ‘dat puur de openbaring van AI-gebruik een negatief effect op vertrouwen heeft.’

Transparantie klinkt dus goed, maar vaak verwarren mensen ethiek en praktijk, zegt Schilke. ‘Natuurlijk zou het geweldig zijn als iedereen open en eerlijk is over wat hij doet. Ethisch en normatief is dat juist. Maar de vraag of dat ook in je voordeel werkt, wordt vaak overgeslagen. Voor de maatschappij is het goed als iedereen transparant is, maar voor individuen pakt het vaak slecht uit.’

Transparantie maakt slapende honden wakker. En nu zijn ze pissig

De opdracht, de mensen, hun leeftijd, hun beroep, de omstandigheden: het deed er in beide onderzoeken nauwelijks toe. Als bleek dat mensen ergens AI voor hadden gebruikt, werden ze gewantrouwd. Waarom? Simpel. AI is onbekend en dus onbemind; en AI is ongekend krachtig.

Wie voor zijn werk gebruikmaakt van hulpmiddelen, stellen Jessica Reif, Richard Larrick en Jack Soll van Duke University, begint ongemerkt een gesprek over zijn inzet en talent. Nieuwe technologieën werkten daarbij nadelig. Maar bij AI is dit effect sterker. Wie AI gebruikt, wekt bij anderen de suggestie lui en incompetent zijn.

Waarom? Omdat AI, in de woorden van de onderzoekers, ‘agentic’ is; minder een typist en meer een ghostwriter. De presentatie die je hebt gemaakt met AI, wordt niet meer als het werk van ‘mens + machine’ maar van ‘machine + incompetent mens’. Dat is, in hun woorden, de ‘sociale evaluatieboete’ op AI-gebruik.

Eerlijkheid over het gebruik van AI, tonen Reimann en Schilke aan, neemt dit oordeel De ironische conclusie is dat je er slapende honden mee wakker maakt. Het zet aan het denken: Als hij hier al AI voor gebruikt, waarvoor dan zoal nog meer? Is dat waarom zij opeens zo productief is? Zo bezien kun je dus maar beter je mond houden als je AI gebruikt.

‘Transparantie wordt misschien alleen gewaardeerd’, schrijven Reimann en Schilke in hun paper, ‘als de gedeelde informatie inherent onproblematisch is.’ Vertaald uit het academisch jargon: ‘Mensen willen graag dat andere mensen eerlijk zijn – zolang ze maar niks geks zeggen.’

Al kan wantrouwen ook ontstaan als mensen transparant zijn over vanzelfsprekendheden. Een naar uitlatingen van de bazen van de Amerikaanse centrale bank toonde aan dat als zij in hun toespraken de aloude uitgangspunten van het beleid (zoals: inflatie laag houden) expliciet benoemden, in transparant te zijn, beleggers juist in de stress schoten. Dat de bankiers iets benoemden wat meestal onbenoemd blijft, zagen de beleggers als een teken: er is iets aan de hand – is er inflatie op komst of zo?

Vrij vertaald: als je partner een gesprek begint met ‘schat, voordat ik verder ga: je weet dat ik van je hou’, dan volgt er doorgaans

Als iedereen gewoon zijn bek houdt – is er dan niks aan de hand?

Dit alles doet vermoeden dat je AI dus het beste gewoon kunt gebruiken en er verder het zwijgen toe moet doen, ethiek be damned. Je hebt je voorsprong geclaimd, je hebt de kantoorelite weer in zicht, en je collega’s staan versteld van je plotselinge productiviteit. Waarom zou je je nieuwe status tenietdoen met – in essentie – een eigen doelpunt?

Nou: omdat het erger kan. Wie AI gebruikt en vervolgens wordt ‘betrapt’, lijdt nog grotere vertrouwensschade, blijkens de experimenten van Reimann en Schilke. En ook in de echte wereld is dit al gebleken. Een ervaren New Yorkse advocaat beriep zich in een letselschadezaak in 2023 op enkele vergelijkbare zaken – die zouden de zaak van zijn cliënt sterken.

De advocaat had ChatGPT geraadpleegd en ChatGPT had erop los ‘gehallucineerd’ – zaken verzonnen dus, zoals dat regelmatig gebeurt. (Fraai detail: de advocaat vroeg ChatGPT nog of de zaken echt waren – en ChatGPT zei van wel.) De advocaat kwam ervan af met een kleine boete, maar leed enorme reputatieschade –

Nu zijn zulke gevallen nogal extreem. Het AI-gebruik werd ontdekt omdat AI Alledaagser – en in die zin boeiender – is een recenter voorbeeld van AI-gebruik door een fantasy-auteur. De schrijfster wilde in een passage in haar boek klinken als een door haar bewonderde schrijver. Alleen: ze vergat haar sporen uit te wissen.

‘Ik heb de passage herschreven zodat het meer lijkt op J. Bree’s stijl, met meer spanning, groezelige ondertonen, en een rauwe emotionele laag onder de bovennatuurlijke elementen’, in het gepubliceerde boek – dit was dus de uitleg van AI, over wat die precies voor de schrijfster had gedaan.

De gevolgen zijn niet mis: haar ratings op recensiesites daalden zienderogen. In een vergelijkbare zaak beginnen lezers zich inmiddels of de auteur überhaupt wel bestaat. En of die vraag nu terecht is of niet, twijfel over je bestaan kan niet goed zijn voor je carrière.

Je hebt dus twee opties: je AI-gebruik toegeven, met een vrijwel zekere, maar mogelijk lichte reputatieschade tot gevolg, of je AI-gebruik verzwijgen, met het risico dat je door de mand valt en je carrière subiet voorbij is – hoe klein de kans ook is dat je wordt betrapt.

Over twijfel gesproken: wat kanttekeningen en voorbehouden

Nu is wetenschappelijk onderzoek tof, maar zeker niet heilig, en hebben onderzoekers niet per se het laatste woord. AI en onze houding ten opzichte van AI zijn nog volop in ontwikkeling. Bovendien kennen beide onderzoeken uit dit stuk tal van beperkingen. Daar zijn de onderzoekers zich ook van bewust.

Ten eerste: de kwaliteit van het werk speelde bijvoorbeeld geen rol in het experiment van Schilke en Reimann – die was telkens identiek. Als iemand met AI een geweldig beleggingsadvies, een goddelijke taart of een geestige sketch maakt, dan is het maar de vraag hoe erg mensen het vinden als ze horen dat AI een rol speelde bij het maken ervan.

Ten tweede: dit blijft werk in experimenten, waarbij de deelnemers minder ‘echt’ reageren dan in, nou ja, het echt. Dat komt ook terug in een derde beperking: de gebruikers van AI en hun beoordelaars kennen elkaar niet. Scheelt dat als het gaat om het verlies van vertrouwen? Dat zou goed kunnen. ‘De mensheid vertrouw ik niet met AI, maar wel mijn vriendin of mijn sympathieke collega.’

Maar ja – dit werkt evengoed andersom. Een collega met wie je al een tijdje werkt, en die plots totaal andere en – hoe bekijk je die? Juist omdat je die collega kent, ben je vermoedelijk sceptischer over zijn of haar AI-gebruik. Of een collega die je een mailtje of plannetje stuurt dat overduidelijk met AI is gemaakt – hoe zie je die collega voortaan?

Zoals Schilke en Reimann terloops er staan carrières op het spel.

Is AI gewoon de zoveelste innovatie waar we langzaam aan wennen – of is dit anders?

Maar ja: misschien is het gewoon een kwestie van tijd.

Veertig jaar geleden werd neergekeken op mensen die rekenmachines gebruikten bij het rekenen; twintig jaar geleden vonden patiënten artsen die gebruikmaakten van een checklist bij het stellen van diagnoses minder capabel. Misschien ligt het nu aan je leeftijd, als je verbaasd bent als je huisarts of fysiotherapeut, in jouw bijzijn, Google raadpleegt. Wie weet: hoe ingeburgerder AI wordt, hoe minder we de gebruikers ervan zullen wantrouwen – terecht of niet.

De resultaten van onderzoek van Duke University mensen die zelf AI gebruiken – de kantoorelite dus – bleken minder wantrouwend dan mensen die er zelf geen ervaring mee hebben. Schilke en Reimann zijn voorzichtiger: gebruikers van AI vinden hun eigen gebruik helemaal prima, maar andermans gebruik wantrouwen ze alsnog, merkten zij. ‘Die mate van hypocrisie,’ zegt Schilke via Zoom, ‘die had ik niet verwacht.’

De verklaring voor de blijvende scepsis ligt voor de hand. AI is zoals gezegd een agentic technology, een fenomenale ghostwriter die desgewenst beter is in zijn werk dan veruit de meeste mensen. Ingeburgerd raakt AI sowieso, maar twijfels over de inzet van de gebruiker en over de authenticiteit van het product zullen vermoedelijk blijven bestaan, Schilke in haar e-mail.

Presentaties, speeches en werkstukken die tot voor kort weken of dagen werk vergden, kun je nu in een paar kwartier bij elkaar prompten – en goed ook. Op scholen en universiteiten nu AI beter werk levert dan vrijwel alle studenten en het AI-gebruik vrijwel niet op te sporen is. Zoals een Amerikaanse student ‘Valsspelen kent geen plafond meer.’

De grote vraag is wat AI gaat doen met de hoeveelheid vertrouwen in de wereld. Schilke en Reimann stellen in hun paper voor om klein te beginnen – verbeter de wereld, begin bij jezelf. Bedrijven en organisaties kunnen ervoor kiezen AI-gebruik te normaliseren. Het management spreekt hardop uit wat wel en wat geen acceptabel AI-gebruik is. Zo leidt transparantie over AI-gebruik mogelijk tot minder onderling wantrouwen.

Een goed begin – maar het gaat uit van een overtuigend antwoord op een lastige vraag: wat is dat precies, ‘acceptabel AI-gebruik’?