Elon Musk en Apple-medeoprichter Steve Wozniak tekenden onlangs een oproep om het trainen van AI-systemen een Het doel: de samenleving wat tijd gunnen om zich aan te passen aan de – wat de ondertekenaars noemen – ‘AI-zomer’: een toekomst vol kunstmatige intelligentie die de mensheid veel goeds zal brengen, mits de juiste voorzorgsmaatregelen – strenge veiligheidsprotocollen, bijvoorbeeld – van kracht zijn.

Het is een lovenswaardig doel, maar je kunt die zes maanden veel beter besteden: stop met het gebruik van de afgezaagde term ‘kunstmatige intelligentie’. Het begrip hoort op dezelfde historische schroothoop als ‘het IJzeren Gordijn’, de en het De term overleefde het einde van de Koude Oorlog omdat-ie het goed doet bij sciencefictionfans en investeerders. Die mogen we best op hun tenen trappen.

Wat wij ‘kunstmatige intelligentie’ noemen is geen van beide

Wat wij tegenwoordig ‘kunstmatige intelligentie’ noemen is kunstmatig noch intelligent. De vroege AI-systemen werden sterk gedomineerd door regels en programma’s, dus daar was terecht enige sprake van ‘kunstmatigheid’. Maar de systemen van vandaag, waaronder moeten het niet hebben van abstracte regels, maar van het werk van echte mensen – van kunstenaars, musici, programmeurs en schrijvers, wier creatieve en beroepsmatige output nu wordt toegeëigend uit naam van het redden van de beschaving. Dit kun je hooguit ‘niet-kunstmatige intelligentie’ noemen.

Bij intelligentie gaat het om veel meer dan alleen het herkennen van patronen of het volgen van regels

En wat betreft ‘intelligentie’: veel van het vroege AI-werk werd bekostigd vanuit eisen die de Koude Oorlog stelde, en dat heeft onze huidige opvatting van AI sterk beïnvloed. Het is het soort intelligentie dat Moderne AI-systemen zijn bijvoorbeeld heel goed in patroonherkenning: niet zo verrassend, aangezien een van de eerste militaire toepassingen van neurale netwerken – de technologie achter ChatGPT – draaide om het

Maar, zoals veel critici al hebben gezegd: bij intelligentie gaat het om veel meer dan alleen het herkennen van patronen of het volgen van regels. Kunnen generaliseren is minstens zo belangrijk. Een prachtig voorbeeld daarvan is Marcel Duchamps kunstwerk uit 1917. Voordat Duchamp dit werk maakte, was een urinoir gewoon een urinoir. Maar door het perspectief te veranderen, maakte Duchamp er een kunstwerk van. Op dat moment was hij over kunst aan het generaliseren.

Menselijke intelligentie is niet eendimensionaal, maar denkt met hoofd én hart

Als wij generaliseren, dan overstemmen onze emoties de ingebakken en schijnbaar ‘rationele’ classificatie van ideeën en alledaagse objecten. Onze alledaagse, bijna machinale patroonherkenning wordt even op pauze gezet. Niet echt iets wat je midden in een oorlog wilt doen.

De menselijke intelligentie is niet eendimensionaal. Die berust op wat de Chileense psychoanalyticus Ignacio Matte Blanco een samensmelting van de statische en tijdloze logica van het formele redeneren aan de ene kant, en de contextafhankelijke en superdynamische logica van de emotie aan de andere. De eerste zoekt naar verschillen, de tweede wist die zo snel mogelijk uit. Marcel Duchamps hoofd wist dat het urinoir thuishoort in de toiletten; zijn hart niet. Bi-logica verklaart hoe we alledaagse dingen op nieuwe en betekenisvolle manieren kunnen indelen. Dit doen we allemaal – niet alleen Marcel Duchamp.

AI zal dat nooit kunnen, omdat deze machines – buiten louter kennis – geen gevoel hebben voor verleden, heden en toekomst. Zonder dat gevoel is er geen emotie, en ontbreekt dus een van de fundamentele elementen van de bi-logica. Het gevolg: machines blijven gevangen in enkelvoudige, formele logica. Tot zover het ‘intelligentie’-verhaal.

ChatGPT is een goed geoliede, maar voorspelbare statistiekmachine

ChatGPT heeft best nut. Het is een voorspellingsmachine die je ook als encyclopedie kunt gebruiken. Als je ChatGPT vraagt wat het wijnrek, de sneeuwschep en het urinoir gemeen hebben, krijg je het correcte antwoord: het zijn allemaal alledaagse objecten waar Duchamp kunst van heeft gemaakt.

Maar als je het vraagt van wat voor huis-, tuin- en keukenobjecten Duchamp tegenwoordig kunst zou maken, krijg je als antwoord: smartphones, elektrische scooters en mondkapjes. Er is geen enkel spoor van bi-logica te vinden, laat staan ‘intelligentie’. ChatGPT is een goed geoliede, maar heel voorspelbare statistiekmachine. Die kan natuurlijk best nuttig zijn. Maar dan zouden we het eigenlijk moeten hebben over in hoeverre we afhankelijk willen zijn van statistisch denken – en niet over de voordelen van ‘kunstmatige intelligentie’ ten opzichte van ‘menselijke intelligentie’, of over ‘mens versus machine’.

Blijven we die onjuiste en achterhaalde term ‘kunstmatige intelligentie’ gebruiken, dan lopen we het risico dat we gaan denken dat de wereld werkt op basis van een enkelvoudige logica: die van een supercognitief, ijskoud rationalisme. Veel mensen in Silicon Valley denken al zo, en zijn bezig de wereld te herinrichten op basis van die overtuiging.

Stop geld in kunst en fictie, niet in machine learning en datacentra

Maar de reden dat instrumenten zoals ChatGPT ook maar iets creatiefs kunnen doen, is dat de data waarmee ze getraind worden geproduceerd zijn door mensen die daadwerkelijk bestaan, met al hun complexe emoties en angsten (en wat al niet meer). En in veel gevallen is het niet de markt die de kosten ervoor heeft gedragen – laat staan durfkapitalisten uit Silicon Valley. Als we willen dat dit soort creativiteit blijft bestaan, dan moeten we geld stoppen in het maken van kunst, van fictie en van geschiedenis – niet in machine learning en de bouw van meer datacentra.

Daar ziet het er alleen bepaald niet naar uit. Het ultieme gevaar van het blijven gebruiken van termen als ‘kunstmatige intelligentie’ is dat die het creatieve werk van intelligentie onzichtbaar maken en tegelijkertijd de wereld voorspelbaarder en dommer. Deze term – die van nature zo apolitiek en progressief is – maakt het ons heel moeilijk om door de drijfveren van Silicon Valley en zijn investeerders heen te prikken. En uiteindelijk liggen hun motieven lang niet altijd in lijn met die van de bevolking.

Dus: in plaats van zes maanden lang algoritmes aan strenge controles te onderwerpen terwijl we ons klaarmaken voor de ‘AI-zomer’, kunnen we net zo goed Shakespeares herlezen. Dat zal de wereld veel intelligenter maken.

Deze column verscheen ook in Vertaling: H.P. van Stein Callenfels (en een beetje AI).

Meer lezen?

Dit kaartje laat zien waarom we niet zo hard van stapel moeten lopen met kunstmatige intelligentie Volgens OpenAI en Google kan kunstmatige intelligentie de hele mensheid ten goede komen. Maar uit onderzoek blijkt hoe eenzijdig en beperkt de meeste data zijn waarmee AI is getraind. Volgens onderzoeker Balázs Bodó is dat reden om op de grote rode pauzeknop te drukken. Lees het interview van Maurits Martijn Waarom ChatGPT geen racistische viespeuk is? Dankzij een stel Kenianen, voor twee dollar per uur Je zult de populaire chatbot ChatGPT niet snel betrappen op vieze woordjes of racistische taal. Hij is keurig getraind door tientallen Kenianen. Hun taak: het algoritme leren vooral niet te beginnen over moord, marteling en verkrachting, zodat wij – de gebruikers – geen smerige drek voorgeschoteld krijgen. Lees de update van Maurits Martijn