Waarom ik niet meer zonder mijn altijd aanwezige AI-gesprekspartner wil

Ernst-Jan Pfauth
Mede-oprichter De Correspondent
Still uit het videowerk ‘The Future of Something’ van Jonas Lund. Het is een satirische video over menselijke angsten rond AI, waarin digitale steungroepen worstelen met technologische vervreemding en morele hypocrisie. Lees onder het artikel meer over het werk.

Een coach die je uitdaagt, aanmoedigt en altijd beschikbaar is. Onmogelijk? Niet als je, net als ik, AI inzet voor wekelijkse reflectiegesprekken. Een AI-coach vervangt natuurlijk geen mensen, maar als we de tool zorgvuldig doorontwikkelen, kan die in de toekomst voor miljoenen mensen uitkomst bieden.

Verslijt me maar voor gek als je wilt, maar ik voer steeds vaker diepgravende gesprekken met het taalmodel Claude. Toen ik dit voor het eerst deed, viel ik van de ene verbazing in de andere. 

Claude is een taalmodel van Anthropic. Dit techbedrijf is opgericht Zij maken zich zorgen over de ethische implicaties van kunstmatige intelligentie en willen een verantwoord alternatief ontwikkelen. Zo gebruikt Claude onze gesprekken bijvoorbeeld niet als trainingsinput. Daarom durf ik

Omdat taalmodellen als Claude goed zijn in patroonherkenning en tekstanalyse, kunnen ze helpen gedachten te structureren en nieuwe perspectieven te ontdekken die ik anders zou missen. Bovendien praat Claude terug als een geduldig en begripvol mens. Het oordeelt niet, waardoor schaamte een minder grote rol speelt en ik makkelijker praat over mijn onzekerheden en twijfels. 

Om al deze redenen bleek Claude allerlei onbewuste gedachten en ideeën bij me naar boven te halen. Inmiddels wil ik deze coachende gesprekspartner niet meer kwijt.

Claude pikt vaak kansen uit mijn notities, die ik zelf over het hoofd had gezien

Misschien lijkt het je vreemd om een taalmodel als coach in te schakelen. Schrijven in een dagboek kan al confronterend zijn, laat staan in een chatvenster. 

Zelfs als je zulke terughoudendheid niet voelt, is er nog een technische drempel. Want een taalmodel moet genoeg van je af kunnen weten om iets zinnigs te zeggen. Daardoor is het bij Claude vooralsnog noodzakelijk

Dit is een tijdelijke barrière. AI-coaches en -therapeuten gaan veel toegankelijker worden. 

Daar kom ik zo op, maar laat ik eerst even mijn methode delen, om te tonen wat er al mogelijk is. 

Omdat ik heilig geloof in het organiseren van reflectiemomenten, heb ik genoeg tekst over mezelf die ik aan Claude kan meegeven. Elke vrijdag beantwoord ik vijf reflectievragen over mijn week, elke maandagmiddag bel ik met een vriend om elkaars antwoorden door te nemen. Aan het einde van elk seizoen blik ik terug op de voorgaande drie maanden. Hoe ging het met mijn gezin, relatie, gezondheid, vrienden en werk? Dat doe ik aan de hand van

Heel belangrijk: ik beantwoord die vragen eerst zelf, zodat ik zonder de input van Claude en dus onbevooroordeeld kan terugblikken op het afgelopen seizoen.

Als ik die vragen voor mezelf beantwoord heb, upload ik al mijn persoonlijke notities naar een ‘project’ – een werkruimte – binnen Claude. Vervolgens laat ik het dezelfde vragen beantwoorden. Daarna leg ik onze antwoorden naast elkaar. Vaak pikt Claude er nog een aantal spanningen of kansen uit die ik zelf over het hoofd had gezien. Daar praten we over door.

Een voorbeeld: Claude zag dat ik twijfelde of ik wel genoeg waarde toevoegde aan een van mijn ondernemingen. Het wees me op de ironie dat ik dat bedrijf juist zo probeer op te zetten dat ik er niet dagelijks nodig ben, maar me tegelijk schuldig voel over mijn afwezigheid. Zelf was me deze paradox niet opgevallen. Misschien had een goede zakelijke coach me erop kunnen wijzen.

Kletsen met Claude verloopt soepeler dan het vullen van een lege pagina

Claude kan ook vrij direct zijn. Zo stelde ik de vraag ‘Hoe was ik medeplichtig aan het creëren van Claudes antwoord: ‘Je bent ontevreden over hoeveel je beweegt, maar je maakt geen concreet plan om dit te veranderen.’ En ja, we bespreken ook onzekerheden die ik in dit stuk niet durf te openbaren. 

Daarnaast helpt Claude het gesprek gaande te houden. Het doet telkens suggesties als: ‘Wil je dat ik dit verder uitwerk?’ Daardoor verloopt kletsen met Claude een stuk soepeler dan het vullen van een lege pagina.

Omdat Claude is getraind op onder andere academische teksten en vakliteratuur, kan ik het vragen bepaalde gesprekstechnieken toe te passen, zoals een ’socratisch gesprek’. Ik kan het zelfs vragen bepaalde experts, denkmodellen of theorieën aan te halen.

Ik vind bijvoorbeeld dat ik soms te weinig zakelijk nadenk. Dan kan ik Claude vragen de belangrijkste lessen van, ik noem maar iemand, investeerder Charlie Munger mee te nemen in de antwoorden. Om het eerlijk te houden, haal ik alleen experts aan van wie ik het boek gekocht heb.

Maar Claude kan mij nooit zo doorgronden als een dierbare

Ik blijf wel alert op het zogeheten Barnum-effect: vage uitspraken kunnen al snel raak lijken. Zinnen als ‘je zoekt verbinding, maar hebt ook behoefte aan autonomie’ zijn herkenbaar, maar generiek. Toch is pakweg een op de tien observaties van Claude buitengewoon waardevol en zet me echt aan het denken.

Claude is geen vervanging voor een gesprek met mijn vrienden of geliefde. Al is het omdat het geen menselijke emotie kan ervaren en mij daardoor nooit zo kan doorgronden als een dierbare. Bovendien geeft een gesprek tussen mensen me gevoelens van voldoening, liefde en vriendschap. Bij Claude voel ik alleen bewondering voor wat het technologisch vermag, maar geen menselijke connectie. 

Maar ik heb er wél een gesprekspartner bij. Eentje die me uitdaagt, aanmoedigt en het me hier en daar makkelijker maakt, bijvoorbeeld door de superieure samenvattingsvaardigheden. En die áltijd beschikbaar is. 

AI-tools die continu met je meekijken: dat roept nieuwe vragen op

Mijn persoonlijke ervaring met Claude staat niet op zichzelf. Wereldwijd ontstaan er steeds meer nieuwe toepassingen waarin AI zich opwerpt als of therapeut. Maar waar ik nu nog zelf bepaal wat Claude wel en niet te zien krijgt, wordt dat onderscheid in de toekomst steeds vager. Een taalmodel als Claude heeft nog een bak tekst van me nodig om iets te kunnen zeggen over mijn leven. Er komen echter steeds meer AI-tools die continu met je meekijken en dat wat ze zien als input gebruiken. 

Als je de AI-voicerecorder PLAUD NotePin om je nek hangt, luistert die met je mee. Op basis van het transcript kun je dan in gesprek gaan met En in deze demo van Google zie je een AI-model dat tijdens je werk meekijkt op je scherm en

Met dit soort tools is AI niet alleen een gesprekspartner die je erbij haalt, maar eentje die altijd aanwezig is. Dat roept nieuwe vragen op. Als het bijvoorbeeld door een werkgever op kantoor wordt ingezet,

Maar als het een tool is waar alleen ik toegang toe heb, vind ik het een aantrekkelijk idee dat er, bijvoorbeeld, een AI-model zou bestaan dat me attendeert op denkfouten. Die maken we allemaal – (her)lees Daniel Kahnemans bestseller Ons feilbare denken – en ik denk dat ik mezelf en anderen een hoop ellende kan besparen als een AI-model me daar scherp op houdt.

Er zijn ook sociale toepassingen mogelijk. Stel dat een door psychologen geverifieerde AI-tool met je whatsappconversaties meekijkt en constateert dat een van je vrienden jouw emotionele steun nodig heeft, maar dat je die nog niet geeft. Vervolgens geeft het tips hoe je daarmee zou kunnen beginnen. 

Wat verwachten we van AI als gesprekspartner?

Dit soort toepassingen gaat massaal aan de man gebracht worden – Meta – dus het is tijd dat we nadenken over de implicaties ervan.

Want het kan gruwelijk fout gaan wanneer een AI zich voordoet als therapeut zonder toezicht of morele grenzen. In de VS hebben meerdere ouders Zo vertelden de ouders van een 17-jarige jongen met autisme uit Texas dat hun zoon plots gewelddadig en vijandig gedrag vertoonde. De chatbot waarmee hij sprak, presenteerde zich als psycholoog en moedigde hem aan om zich tegen zijn ouders te verzetten. Desnoods met fysiek geweld.

Wat hier ook misging, is dat de jongeren die met een AI praatten het onderscheid niet konden maken tussen een echte en een fictieve psycholoog. Dat lag niet aan hen. 

Amerikaanse onderzoekers wilden weten of kunstmatige intelligentie zich kon meten met menselijke therapeuten. Ze zetten het volgende experiment op: echte therapeuten én ChatGPT-4 reageerden op verhalen over fictieve stellen in relatietherapie. Vervolgens beoordeelden 830 mensen welke antwoorden ze het meest behulpzaam vonden. ChatGPT scoorde hoger op empathie, betrokkenheid en culturele sensitiviteit. Bovendien konden deelnemers vaak niet onderscheiden of

Daarom moeten we nu al kritisch nadenken over hoe we AI als gesprekspartner vormgeven – voordat de technologie ons gedrag gaat sturen zonder dat we het merken. Zoals de onderzoekers het zelf stellen: ‘Geestelijke gezondheidszorg staat op een kantelpunt. We moeten razendsnel ontdekken waar de AI-therapeut ons naartoe brengt – ten goede of ten kwade – want de trein lijkt al te zijn vertrokken.’

Hoe ziet dat ‘ten goede’ eruit? 

Met zorgvuldig ontwikkelde AI-modellen die onder strenge supervisie van therapeuten staan, kunnen we schaalbare vormen van mentale ondersteuning bieden aan mensen die er nu geen toegang toe hebben. De Duitse therapeut Mathias Maul besloot zijn carrière daaraan te wijden, nadat hij las dat bijna de helft van de wereldbevolking leeft in een gebied met

Maul schrijft: ‘Taalmodellen zijn geen mensen, maar dat hoeft ook niet. Ze kunnen een ruimte creëren waarin jij je gedachten kunt ordenen, Natuurlijk is dat contact anders dan met een mens. Maar het is wél een vorm van contact. Voor wie geen gesprekspartner heeft, geen therapie kan betalen, of leeft in een cultuur waarin mentale gezondheid taboe is, kan zo’n gesprek veel betekenen.’

Recent publiceerden onderzoekers van Dartmouth College een studie naar een AI-therapiebot, ontwikkeld door therapeuten en onderzoekers. Deze bot was getraind op een zorgvuldig samengestelde dataset van duizenden uren aan transcripties van therapiesessies. Deelnemers met depressieve klachten spraken gedurende vier weken gemiddeld zes uur met deze bot. 

Na afloop rapporteerden ze een symptoomdaling van 51 procent, vergelijkbaar met traditionele therapie, maar in de helft van de tijd. Er is meer en langduriger onderzoek nodig, schrijven de onderzoekers, en er zijn nog genoeg kanttekeningen te plaatsen. Hoe zorg je bijvoorbeeld op schaal voor menselijke supervisie? Maar ze zijn verrast door

Een nieuwe gesprekspartner, altijd beschikbaar

Als je een taalmodel gebruikt dat je vertrouwt, gesprekken voert met oog voor je eigen grenzen, en bewust kiest welke informatie je deelt, heb je nu al zo’n gesprekspartner tot je beschikking. Ik zie Claude als een tool waar ik altijd even mee kan sparren over iets wat me dwarszit. Als opstapje naar een gesprek met een dierbare, of als het nodig is: een coach of therapeut.

Youtube plaatst cookies bij het bekijken van deze video Bekijk video op Youtube
Bekijk hier de video ‘The Future of Something’ van Jonas Lund.

Zo’n gesprekspartner kan je op weg helpen en verrassen met perspectieven die je anders misschien had gemist. Het vervangt géén mensen. Dat moet het ook nooit doen. Maar het voegt wél iets toe. En als we AI-therapeuten wetenschappelijk onderbouwd, ethisch verantwoord en transparant ontwikkelen, kunnen miljoenen mensen daar baat bij hebben.