Dit boek helpt je de vele gedaanten van kunstmatige intelligentie te doorgronden

Maurits Martijn
Correspondent Beter internet

Politici en ambtenaren zijn dol op kunstmatige intelligentie, maar tegelijkertijd weten ze vaak niet of een AI-systeem echt doet wat het moet doen. Hoe herken je valse beloftes en onderscheid je verschillende soorten AI? Het boek AI Snake Oil biedt uitkomst aan iedereen die de technologie wil snappen.

Tijdens haar eerste werkbezoek als zorgminister had Fleur Agema (PVV) een openbaring. 

In het Elisabeth-TweeSteden Ziekenhuis (ETZ) in Tilburg werd ze rondgeleid langs een aantal experimenten met kunstmatige intelligentie. Zo kreeg ze een demo van chatbots die complexe informatie over neurochirurgie laagdrempeliger moeten maken voor patiënten. En ze zag een AI-toepassing die een gesprek tussen arts en patiënt transcribeerde, zodat de arts geen scherm meer nodig heeft in de spreekkamer. 

‘Een revolutie’, noemt de minister kunstmatige intelligentie sindsdien. Een revolutie die haar zal helpen het enorme tekort aan personeel in de zorg te bestrijden. 

Maar Agema is veel te optimistisch,   Het gaat nog heel veel tijd en moeite kosten om de AI-toepassingen, die momenteel in een gecontroleerde omgeving worden getest, naar de ziekenhuisvloer te krijgen. ‘Dat heb ik de minister ook verteld’, zei Berden. ‘Vertrouw niet op iets wat zich nog niet voldoende in de praktijk bewezen heeft.’

Op dezelfde dag als het Nieuwsuur-interview publiceerde de Algemene Rekenkamer een  Het gebruik van AI neemt toe, schrijft de Rekenkamer, maar is nog niet wijdverbreid. Er wordt vooral veel geëxperimenteerd. 

Een opvallende bevinding is dat overheidsinstanties vaak niet weten of een AI-systeem doet wat het moet doen: van 35 procent van de AI-systemen is onbekend of ze de verwachtingen ervan waarmaken. Ook opvallend: bij meer dan de helft van de AI-systemen zijn de kansen niet afgewogen tegen de risico’s. En nogal schokkend: volgens de Rekenkamer schatten overheidsdiensten de risico’s van AI-toepassingen geregeld laag in, zodat ze niet aan allerlei wettelijke eisen hoeven te voldoen.

Een boek over AI-kwakzalverij

Ik moest aan Fleur Agema en het Rekenkamer-rapport denken toen ik AI Snake Oil  Ik volg Narayanan al een paar jaar – hij is een grootmeester in het debunken van al te optimistische claims over technologie. Dat deed hij eerder met bitcoin en blockchain, en nu heeft hij – samen met zijn promovendus Kapoor – zijn pijlen gericht op kunstmatige intelligentie.

Die pijlen zijn zo scherp en schieten zo raak dat je hoopt dat alle ambtenaren, bewindvoerders en bestuurders die beslissingen over AI nemen het boek lezen. Twee inzichten zijn met name relevant:

1. De ene AI-variant is de andere niet, maar één variant is altijd problematisch

Kunstmatige intelligentie wordt vaak op één hoop gegooid, terwijl het in werkelijkheid een verzamelnaam is voor veel verschillende technologieën. 

De afgelopen jaren gaat het veel over ‘generatieve AI’, een variant die tekst, beeld en geluid kan genereren, en waarvan ChatGPT het bekendste voorbeeld is. Narayanan en Kapoor zijn er enthousiast over, maar benadrukken dat de technologie nog inherent onbetrouwbaar is. Daardoor is het onduidelijk hoe bruikbaar die uiteindelijk zal zijn. Vorige week nog

Een totaal andere vorm van kunstmatige intelligentie is ‘predictive AI’, een type dat toekomstige uitkomsten voorspelt op basis van historische data. Over dit type worden de meeste onhaalbare beloftes gedaan. Bijvoorbeeld: het voorspellen van toekomstige prestaties van sollicitanten, welke studenten de grootste kans lopen uit te vallen bij een opleiding en of iemand nogmaals een misdaad zal plegen. 

Narayanan en Kapoor laten overtuigend zien dat voorspellende AI inherent problematisch en foutgevoelig is. Menselijk gedrag is onvoorspelbaar, en afgaan op data uit het verleden leidt vaak tot onnauwkeurige en schadelijke voorspellingen die levens kunnen verwoesten. De auteurs noemen de toeslagenaffaire als voorbeeld, waarbij een algoritme voorspelde wie mogelijk toeslagenfraude zou plegen. 

De Nederlandse overheid gebruikt meer van dit soort toepassingen, zo is in het Rekenkamer-rapport te lezen. Bijvoorbeeld AI-modellen die het risico op overtredingen voorspellen en burgers of bedrijven vervolgens extra controleren. 

Het is belangrijk om het onderscheid te kennen tussen verschillende typen AI. Anders kun je makkelijk denken dat de opzienbarende trucs van de ene AI – ChatGPT bijvoorbeeld – ook opgaan voor de andere varianten, zoals voorspellende AI. 

2. De hype rond AI is een vicieuze cirkel

Kunstmatige intelligentie wordt enorm gehypet. Narayanan en Kapoor spreken van een ‘draaikolk’ waarin verschillende partijen er baat bij hebben de hype te voeden en in stand te houden. 

Zo overdrijven techbedrijven die AI-producten maken de mogelijkheden van kunstmatige intelligentie, om zo klanten en investeerders te verleiden. Niet zelden sjoemelen ze daarbij met cijfers. Maar ook onderzoekers doen met regelmaat grootse uitspraken over AI, omdat ze op zoek zijn naar financiering voor hun onderzoek.

Media en journalisten versterken de overdreven claims door ze klakkeloos – en clickable – over te nemen en er geen gedegen onderzoek naar te doen. Politici omarmen AI graag als wondermiddel voor grote maatschappelijke problemen. En sectoren als de zorg en het onderwijs, die met te weinig middelen structurele problemen moeten oplossen, zijn met name vatbaar voor de valse beloftes over AI. 

Hoe voorkom je dat die draaikolk je meesleurt? Twee tips. Allereerst: lees AI Snake Oil, zodat je de verschillende AI-smaken leert onderscheiden en valse beloftes herkent. En twee: luister naar het advies van ziekenhuisbestuurder Bart Berden en vertrouw niet op iets wat zich nog niet in de praktijk bewezen heeft.

Dit verhaal verscheen eerder in mijn tweewekelijkse nieuwsbrief over de macht, de mythes en de mogelijkheden van technologie.