Iedereen heeft het over kunstmatige intelligentie. Maar wat ís het?
De een is bang voor killer robots, de ander denkt dat het de oplossing is voor klimaatverandering: kunstmatige intelligentie is overal. Maar wat is het?
Techmagnaat Elon Musk wil ‘een soort van symbiose tussen menselijke en kunstmatige intelligentie’ bereiken. Dat vertelde hij onlangs tijdens een presentatie van zijn bedrijf Neuralink.
Het idee: draden met elektroden, dunner dan mensenhaar, worden in het brein geïmplanteerd om zo bijvoorbeeld een prothese aan te sturen of een neurologische ziekte te genezen. Neuralink test de technologie nu al op ratten en wil eind 2020, zegt Musk, aan de slag met mensen.
Musks verhaal is – niet verrassend – nogal extreem. Het lijkt sterk dat hij volgend jaar al de goedkeuring krijgt van de Food and Drug Administration om te experimenteren op mensen. Wel is dit nieuws onderdeel van een grotere trend: je hoort de laatste tijd veel over kunstmatige intelligentie.
Alleen al de afgelopen weken versloeg een computer vijf van de beste pokerspelers tegelijk,* werd bekend dat Google meewerkt aan de ontwikkeling van militaire technologie en riep de Nederlandse AI Coalitie op tot meer investeringen in kunstmatige intelligentie.*
Iedereen heeft het erover, maar weten we wel waar we het over hebben?
Wat is kunstmatige intelligentie?
De meningen verschillen nogal over wat ‘kunstmatige intelligentie’ betekent. Sommigen definiëren het zo smal dat alleen zelflerende robots ertoe behoren. Anderen definiëren het juist weer zo breed dat ook, bijvoorbeeld, heel eenvoudige statistische modellen AI worden genoemd.
Wacht even, waarom zeg je ‘AI’ en geen ‘KI’?
AI komt van artificiële intelligentie. KI roept associaties op met kunstmatige inseminatie, dat moet je misschien niet willen. Plus, mensen in het (Nederlandse) vakgebied spreken veelal over ‘AI’.
Goed, die definitie dus
AI is een enorme hype en daarom wordt de term op van alles en nog wat geplakt. AI levert onderzoeksbeurzen, investeringen en media-aandacht op. En waar iets te verdienen valt, houden mensen van overdrijven.
Zo schreef ene Mike Mallazzo laatst een artikel over zijn baan bij het bedrijf Dynamic Yield. Dit ‘AI-powered Personalization Anywhere™ platform’ werd dit voorjaar voor driehonderd miljoen dollar gekocht door McDonald’s.
Alleen is wat Dynamic Yield doet helemaal geen kunstmatige intelligentie, vindt Mallazzo. Het zit in de business van het ‘personaliseren’. Dat je in de McDrive bijvoorbeeld op een warme dag een McFlurry krijgt aangeraden. Of dat de bestelzuil weet hoe gek jij bent op een McKroket.
Dat betekent niet meer en niet minder dan dat de start-up goed is in het oplossen van ‘het heel saaie en alomtegenwoordige probleem van datamanagement om te personaliseren’.
Dat wist het bedrijf ook wel, maar ze bleven het AI-label maar opgeplakt krijgen. ‘De markt wilde dat we een AI-bedrijf waren, dus we gniffelden en besloten dat we ons zo zouden noemen.’
Is er echt geen definitie te vinden van AI?
Ze bestaan zeker. Op Wikipedia staat bijvoorbeeld deze: ‘Een apparaat dat zijn omgeving waarneemt en actie onderneemt, zodat zijn kans om zijn doelen te halen maximaliseert’.* Een andere omschrijving is ‘Het vermogen van een machine om intelligent menselijk gedrag te imiteren.’*
En daar zit hem het probleem, want wat is ‘intelligent menselijk gedrag’? Ooit vonden we het een wonder dat een rekenmachine een moeilijke som kon oplossen. Later dat een computer een potje schaak kon winnen. Toch zou niet iedereen dit nog AI noemen.
Dat is het ‘AI-effect’: als we eenmaal weten hoe we een computer iets kunnen laten doen, dan is de magie eraf. Maar dat is toch niet intelligent? Zoals Douglas Hofstadter schrijft in Gödel, Escher, Bach: ‘AI is wat nog niet gedaan is.’
Je kunt zelfs dubben over ‘kunstmatig’. Want de term suggereert een duidelijk verschil tussen mens en machine. Maar wat als een mens niet meer is dan een ingewikkelde computer? Waar zit dan de grens tussen kunstmatige en menselijke intelligentie?
Al met al is de definitie nogal een filosofische discussie, zonder eenduidig antwoord.
Als ik iets lees over AI, waar gaat dat dan over?
Veel van de AI in dit artikel is machine learning. Dat is het gebruik van algoritmes en statistische modellen om een machine een taak uit te laten voeren, zonder expliciete regels.
Stel dat je een computer leert een kat te herkennen. Je kunt allerlei regels instellen. Heeft dit object vier poten? Heeft het een vacht? Heeft het puntige oren? Lastig, want zelfs met driemaal ‘ja’ zou het nog steeds een hond kunnen zijn. En sommige katten hebben maar drie poten, zijn kaal of hebben gevouwen oortjes.
Het zijn dingen die kleine kinderen met gemak leren, maar computers lastig vinden. Hier komt machine learning goed van pas: je geeft de computer niet eindeloos veel als-dan voorwaarden mee, maar laat het zelf leren. Met een neuraal netwerk, bijvoorbeeld.
Een wat?
Neurale netwerken zijn dé hit in AI-land. Veel van wat je leest over AI gaat hierover. Ze worden gebruikt in zelfrijdende auto’s, in de spraakherkenning in je telefoon, in Google Translate.
En neem vooral een kijkje op This Person Does not Exist, waar het beeld bij dit artikel vandaan komt. Op deze site vind je foto’s van personen die niet bestaan, op het moment zelf gegenereerd met kunstmatige intelligentie. Ook weer dankzij die neurale netwerken.
(Voor de liefhebbers: This Cat Does not Exist. Werkt minder goed, maar is voer voor een middagje lachen.)
Het lijkt misschien helemaal 21ste eeuw, maar al in 1943 werd de basis gelegd voor neurale netwerken. Neurofysioloog Warren McCulloch en logicus Walter Pitts bedachten toen de eerste kunstmatige neuron, geïnspireerd op de hersenen. Het was als een schakel in een elektriciteitsnet: een neuron kon aan- of uitstaan en daarmee informatie doorgeven of achterhouden.
In de daaropvolgende decennia werd het idee van een neuraal netwerk verder ontwikkeld. Pas sinds een paar jaar kunnen we ook echt iets met die neurale netwerken doen, want tot voor kort was er te weinig rekenkracht en data.
Hoe werkt zo’n neuraal netwerk?
Stel dat we een neuraal netwerk willen gebruiken om te herkennen of er een kat op een zwart-witfoto staat of niet.
De eerste bouwsteen is de input, de foto. Of beter gezegd: alle pixels op de foto. Die vormen de invoer voor de ‘neuronen’ in de eerste laag van ons netwerk. Die staan nu niet meer aan of uit, zoals bij McCulloch en Pitts, maar de een staat méér aan dan de ander. Of wiskundig gezegd: elke neuron heeft een getal tussen 0 en 1, waarbij de code staat voor hoe zwart (0) of wit (1) de pixel is.
De tweede bouwsteen is de output: staat er een kat op de foto, ja of nee? Dit is één neuron die aan (een kat) of uit (geen kat) staat. Ook hier kan de neuron weer een waarde aannemen, in dit geval tussen de 0 en de 1. Bij een waarde van 0,8 is het model voor 80 procent zeker dat er een kat op de foto staat.
De derde bouwsteen is het netwerk van lagen neuronen tussen de input en de output. Daarom wordt het gebruik van neurale netwerken ook wel deep learning genoemd, omdat de informatie door verschillende lagen heen gaat.
Weer staat elke neuron meer of minder ‘aan’, wat betekent dat hij meer of minder informatie doorgeeft aan een neuron in de volgende laag. Misschien verzamelt één neuron wel alle pixels rond de snoet, bekijkt de volgende of er lijnen te zien zijn en ziet de neuron daarna: hé, dat zijn snorharen.
Alleen vertel je de computer niet wat elke laag moet bekijken, dat zoekt hij zelf uit door te ‘trainen’. Je geeft een heleboel foto’s met labels (wel/geen kat) en laat het systeem uitproberen welk netwerk de beste resultaten geeft. Heeft hij de eerste keer – zeg – 90 procent van de foto’s fout, dan kan hij aanpassen hoe de neuronen informatie doorgeven zodat het de volgende keer beter werkt.
Dit is slechts een voorbeeld. Wil je neurale netwerken beter begrijpen? Het YouTube-kanaal 3Blue1Brown heeft een toegankelijke serie gemaakt over de methode. Bekijk hier de eerste aflevering:
En werkt het een beetje?
In 2015 speelde een bijzondere speler tegen Fan Hui, de Europese kampioen go. Dit bordspel staat bekend om het enorme aantal mogelijke zetten: meer dan er atomen zijn in het universum. Kun je een schaakcomputer nog een aantal voorwaarden meegeven die waarschijnlijk tot winst leiden, bij go is dat onmogelijk.
Enter: neurale netwerken. AlphaGo, het netwerk ontwikkeld door Google DeepMind, vermorzelde Hui in 2015. De score was 5-0. Toen het programma het opnam tegen Lee Sedol, achttienmalig wereldkampioen, won het met 4-1.
AlphaGo is misschien wel het bekendste succesverhaal van AI. Zo zijn er meer: modellen die kankercellen kunnen detecteren, modellen die het weer voorspellen, die gezichten kunnen herkennen.
Dus het is allemaal geweldig?
Mwah. Toen developer Jacky Alciné op een avond in 2015 door Google Photos heen scrolde, was hij onder de indruk.* Google had zijn foto’s wonderbaarlijk goed getagd: een foto met een vliegtuig kreeg het label plane, een fiets het label bike en zijn broer in een toga graduation.
Tot Alciné een selfie van zichzelf met een vriend tegenkwam, allebei Afro-Amerikanen. Gorillas stond er. Hij scrolde door naar andere foto’s van die dag. Gorillas, gorillas, gorillas.
De voorbeelden van ‘bias’ in AI zijn talrijk. Een chatbot van Microsoft op sociale media, bedoeld als tienermeisje, ontwikkelde zich al snel tot een fascistische vrouwenhater.* Een programma om recidive te voorspellen, richtte zijn pijlen op zwarte mannen.* En This Person Does not Exist, waar het beeld bij dit stuk vandaan komt, laat overwegend witte mensen zien.
Dat kun je de modellen niet kwalijk nemen. Ze leren van data en dus van ons. Dat sociale media vol zitten met haatdragende berichten, dat de politie aan etnisch profileren doet, zie je nu eenmaal terug in de gegevens die je verzamelt. De wereld is bevooroordeeld en de modellen daarmee ook. Troep erin betekent troep eruit.
Daarbij kan een model zo ingewikkeld worden, dat zelfs de maker er niet veel meer van snapt. Nogal lastig als een beslissing impact heeft op je leven. Waarom krijg ik geen lening? Tsja, een algoritme. Waarom ben ik afgewezen voor een baan? Hmmm, AI.
Volgens de nieuwe Europese wetgeving heb je dan ook recht op een ‘menselijke blik’.* Dat een mens nog een keer naar de beslissing kijkt en die eventueel heroverweegt. Maar dat is niet zo gemakkelijk, want je hebt vaak niet eens door dat een model (of het nu AI is of niet) een beslissing over jouw leven neemt.
Enne…
Ja, zeg het maar.
Gaan robots de wereld nou overnemen?
Het is maar net aan wie je het vraagt. Mensen als Stephen Hawking, Nick Bostrom en Elon Musk dachten en denken dat we bang moeten zijn voor ‘superintelligentie’, een vorm van intelligentie die de menselijke ver overtreft.
‘De eerste ultra-intelligente machine is de laatste uitvinding die de mens ooit zal doen’, stelde wiskundige Irving Good al in 1965. Apple’s mede-oprichter Steve Wozniak is niet per se bang, maar denkt wel dat wij op een gegeven moment huisdieren worden van robots.*
Veel AI-experts denken dat het niet zo’n vaart zal lopen. ‘Je zorgen maken over moordende AI is alsof je je zorgen maakt over overbevolking op Mars’, zegt de uitgesproken AI-onderzoeker Andrew Ng.
Ook worden verwachtingen bijgesteld, bijvoorbeeld over zelfrijdende auto’s. Ford en andere autofabrikanten geven nu toe dat ze de komst van autonome voertuigen hebben overschat.*
Al zijn er opzienbarende dingen gebeurd met AI de afgelopen jaren, alle succesvolle modellen hadden een beperkt doel: een bordspel winnen, een gezicht herkennen, een zin vertalen. Zet een stapje verder en het dondert al snel in elkaar. Probeer Siri maar eens wat gekke vragen te stellen.
Misschien komt er ooit superintelligentie, misschien ook niet. Het is lastig te voorspellen. En erger nog: zulke sciencefictionzorgen leiden af van de echte problemen met AI. Problemen die nu al spelen.
Zoals?
Neem deepfake, levensechte video’s die worden gecreëerd met AI. Zo werden nep-pornofilms gemaakt met sterren als Scarlett Johansson, Emma Watson en Gal Gadot. Zulke nepvideo’s kunnen ook worden gebruikt om politieke opponenten zwart te maken.
Hieronder zie je hoe iemand, in dit geval Barack Obama, woorden in de mond gelegd krijgt.
Nog een voorbeeld van problematisch gebruik van AI: China bouwt aan een surveillancestaat en gebruikt daar onder andere gezichtsherkenning voor. Nu al zijn hotels, vliegvelden en zelfs openbare toiletten uitgerust met de technologie. Maar de Chinese overheid is nog ambitieuzer: in 2020 moeten alle naar schatting 200 miljoen camera’s verenigd zijn in één netwerk.*
Ook dichter bij huis wordt gezichtsherkenning ingezet. Zo wordt het in Londen gebruikt om overtreders te vinden. Alleen: uit verschillende experimenten bleek dat de technologie in 96 procent van de gevallen ernaast zat.*
AI zal nog lang in de macht van mensen blijven. En de mens beslist dus wat we ermee doen. Dezelfde algoritmes die achter de deepfake video’s zitten, kunnen ook helpen om kanker te diagnosticeren.* De echte vooruitgang zit ‘m nu dan ook niet meer in nog betere techniek, maar in hoe wij ermee omgaan en welke keuzes we maken.
De robots komen er misschien ooit aan. Maar de mens is al hier.
Correctie 6 augustus: De verwijzing naar de video van Nancy Pelosi is verwijderd, omdat deze niet door AI tot stand is gekomen maar door het vertragen van de video. Ook is ‘1Blue3Brown’ veranderd in ‘3Blue1Brown’. Ook heb ik nog een uitklaptekst toegevoegd om duidelijk te maken dat AlphaGo niet alleen neurale netwerken gebruikte.
Correctie 8 augustus: Een lid wees me erop dat ook bij schaken niet alle zetten kunnen worden doorgerekend, maar dat - anders dan bij go - er wel regels te bedenken zijn die waarschijnlijk leiden tot winst. Dat heb ik aangepast in het artikel. Ik kan de betreffende bijdrage in zijn geheel aanraden, met een interessante uiteenzetting over waarom het zo lastig is om het spel go door een computer te laten spelen (en hoe het programma AlphaGo er toch in slaagde om te winnen van de wereldkampioen).
Elke vraag in dit artikel verdient op zijn minst een eigen stuk. Ik blijf daarom nog even doorschrijven over artificiële intelligentie, dus kom vooral door met vragen en suggesties. Dank aan iedereen die ik de afgelopen weken heb gesproken over AI. In het bijzonder dank aan Daniel Worrall (Philips Lab, UvA), die het artikel heeft tegengelezen.