Alsjeblieft: een lees-, luister- en kijklijst voor wie AI wil begrijpen

Maurits Martijn
Correspondent Beter internet

In 2023 maakten veel mensen voor het eerst echt kennis met kunstmatige intelligentie. Maar wat is AI nou precies? Wat kan het, en vooral: moeten we er bang voor zijn? In deze bronnen vind je antwoorden op de belangrijkste vragen over deze (niet zo magische) technologie.

Ik denk niet dat ik ooit zo veel gehype over technologie heb gezien als de hype over kunstmatige intelligentie in 2023. Teken aan de wand: in mijn LinkedIn-netwerk popten sinds begin dit jaar plots allerlei AI-experts op die tot voor kort nog jurist waren, Web3-entrepreneur of simpelweg allround ‘techexpert’. Ineens schrijven zij nieuwsbrieven vol over kunstmatige intelligentie, geven ze er goedbetaalde keynotes over en mogen ze in verschillende media hun zegje doen.

Deze nieuwe experts praten graag over de toekomst, want daar mag je over speculeren zonder factcheck. Ze vertellen hoe AI de arbeidsmarkt gaat ontwrichten, kanker zal doen verdwijnen of De inbreng van deze moderne waarzeggers doet het debat over AI geen goed. Dat heeft juist echte expertise nodig, want er staat veel op het spel.

Ik ben geen AI-expert. Voor mij betekende 2023 veel bijleren over deze fascinerende technologie. Ik schreef als techjournalist al wel zijdelings over AI en AI-applicaties, maar dit jaar ging ik de diepte in. Ik leerde over de rijke geschiedenis, de politiek-economische keuzes die er gemaakt worden, de risico’s en de kansen. Ik leerde over de mythes, de macht en de mogelijkheden van deze wetenschap, die – anders dan de berichtgeving doet voorkomen –

Hieronder vind je een door mij gecureerde selectie van bronnen waar ik veel van leerde: boeken, een podcast, infographics en een cursus van denkers, journalisten en wetenschappers die wél weten waar ze het over hebben. Ik denk dat jij er ook wat aan hebt als je beter wilt begrijpen wat AI is. De toekomst leer je er niet mee voorspellen, maar je kan er het heden wel wat beter door begrijpen.

De leerzame Finse cursus Elements of AI doet wat hij belooft: in simpele taal loodst deze gratis online leermodule de gebruiker langs de fundamentele bouwstenen van kunstmatige intelligentie. Het doel van de cursus is om ‘de mystiek rond AI’ weg te nemen. En inderdaad: na deze cursus vergeet je alle sciencefictionachtige doembeelden over ‘superintelligente’ AI die ons uitroeit, en leer je alles over en over hoe je een kip een rivier over kunt zetten te midden van roofzuchtige vossen (en waarom je dat moet weten om AI te begrijpen). Je leert begrijpen dat AI niets meer is dan ‘geautomatiseerde redeneringen op basis van begrijpelijke beginselen en een berg data’. Elements of AI is een uitstekend beginpunt voor de AI-noob.

De Nederlandse journalist Bennie Mols schreef een goed, handzaam boek over kunstmatige intelligentie. Perfect getimed ook: het verscheen in mei vorig jaar, toen de AI-hype over ChatGPT op een hoogtepunt was. Mols, die al jaren over AI schrijft, legt nuchter uit wat kunstmatige intelligentie is, wat het niet is, en wat het kan zijn. Rode draad van het boek is dat deze technologie geen magie is maar ‘op-en-top mensenwerk’ en – in het beste geval – de mens een ‘turboboost’ kan geven. Dit toegankelijke boek zonder grote woorden of filosofische bespiegelingen is een aanrader voor iedereen die AI beter wil begrijpen.

De Amerikaanse informaticus Melanie Mitchell is een veteraan in het vak; sinds eind jaren tachtig behoort ze tot de top van Amerikaanse AI-onderzoekers. Daarnaast kan Mitchell erg goed schrijven. Haar boek Artificial Intelligence: A Guide for Thinking Humans is een geweldige, grondige en toegankelijke introductie in de wetenschappelijke discipline van AI. Mitchell behandelt de belangrijkste concepten – van neurale netwerken tot machine learning en van natuurlijke taalverwerking tot – en stelt vragen als: kunnen machines ooit echt redeneren? Welke risico’s kleven er aan AI? Haar boodschap: wij mensen onderschatten onze eigen intelligentie nog weleens, terwijl we de intelligentie van machines vaak overschatten.

In zes afleveringen bespreekt interviewer Ilyaz Nasrullah met zes experts een aantal belangrijke thema’s: de betrouwbaarheid van AI-producten, de ingeslopen vooroordelen, de gevolgen voor de arbeidsmarkt en de grootste risico’s. Nasrullah is zelf informaticus en dat levert inhoudelijke en toch toegankelijke gesprekken op. De serie als geheel ontzenuwt de hypes over AI en dat gebeurt met een nieuwsgierige houding die vol inzet op de inhoud.

Ik weet uit ervaring hoe lastig het kan zijn om de technologische fundamenten van kunstmatige intelligentie uit te leggen. Het is iedere keer weer een uitdaging om het eerst zelf te begrijpen en vervolgens op een toegankelijke, aantrekkelijke en inzichtgevende manier uit te leggen. De Financial Times laat met een fenomenale infographic over de zogenoemde ‘Transformer’-technologie zien hoe dat moet. Dat klinkt saai maar is cruciaal voor het type AI dat nu vol in de aandacht staat: generatieve AI zoals ChatGPT, DALL-E en Midjourney waarmee teksten, beelden of code worden gegenereerd. De infographic van de Financial Times laat je al scrollend dit technische fundament begrijpen, stapje voor stapje, waardoor je doorgrondt hoe deze technologie zo goed is in het analyseren en genereren van content, en wat de inherente beperkingen ervan zijn.

In een boeiend paper analyseert de Canadese onderzoeker Nick Srnicek kunstmatige intelligentie als een productieproces. Hij onderscheidt vier verschillende fasen: dataverzameling, dataverwerking, productie van het model en toepassing van het model. Een van Srniceks conclusies is dat die laatste twee fasen steeds belangrijker zullen worden, en dat er maar een paar partijen bestaan die het kapitaal, de computerkracht en de experts in huis hebben om daar een serieuze rol in te spelen. Met andere woorden: AI vormt geen bedreiging voor de bedrijven die wij kennen als ‘Big Tech’, integendeel: Big Tech wordt waarschijnlijk alleen maar bigger omdat het de middelen bezit die nodig zijn om AI te maken.

De Nederlandse promovenda Dieuwertje Luitse komt samen met co-auteur Wiebke Denkena tot een vergelijkbare conclusie in een paper over grote taalmodellen – large language models (LLM’s) – zoals GPT. Zij analyseren de ‘Transformer’, de onderliggende architectuur van de meeste LLM’s die in 2017 werd uitgevonden door medewerkers van Google. Deze architectuur maakt het kort gezegd mogelijk om veel sneller taalmodellen te trainen. Maar je raadt het al: het toepassen van de Transformer vereist heel veel computerkracht en/of kapitaal en dat is, wederom, vooral voorbehouden aan Big Tech.

Tips?

Heb jij nog tips voor goede bronnen over kunstmatige intelligentie? Boeken, documentaires, podcasts, papers of artikelen waar jij veel van leerde? Deel die dan hieronder in de bijdragesectie met een korte toelichting.