Killerrobots: wat als het wapen zelf bepaalt wie het doelwit is
Was ik nog maar een normale oorlogsjournalist, die zonder veel na te hoeven denken frontlinies over rende voor een paar pakkende quotes. In plaats daarvan probeerde ik de afgelopen weken te achterhalen hoe wiskundige formules de oorlogen van de toekomst veranderen.
Als je Google en co. moet geloven wordt ons leven binnenkort bepaald door algoritmes, en dat beseft ook het leger. Kijk de vacatures van defensie er maar op na: als je verstand hebt van informatica, data science of kunstmatige intelligentie ben je meer dan welkom.
Komen de killerrobots eraan?
Of deze technici de robots gaan ontwikkelen die de oorlogen van de toekomst gaan uitvechten moet nog blijken. Feit is dat ‘autonome wapensystemen’, zoals ze in defensiejargon heten, veel dingen beter en sneller kunnen dan mensen.
Zoals bijvoorbeeld het werk van dronepiloten. Zij zitten soms dagen achtereen te turen naar een scherm om op basis van een vrij beperkte profielschets een doelwit te vinden, te volgen en vervolgens te doden. Algoritmes kunnen dat veel sneller en mogelijk beter.
Zowel de techniek als de ethiek voor dit soort autonome wapensystemen worden nu uitgedacht, en het zal je niet verbazen dat dit leidt tot discussie.
Zo is het niet altijd duidelijk hoe een ‘besluit’ van een algoritme tot stand komt, hoe ze zichzelf doorontwikkelen, en waartoe dat leidt. Je hoeft niet heel veel films te hebben gekeken om je daar een voorstelling bij te kunnen maken.
Kun je ethiek vangen in code?
Je kunt je ook afvragen of ethiek wel iets is wat je om kunt zetten in code. Want hoe programmeer je dat het beter is om twee criminelen te doden, in plaats van bijvoorbeeld drie baby’s? Zo’n algoritme maakt het niet uit.
Als die beslissingen worden gemaakt op basis van data die is verkregen uit de samenleving, bestaat de kans dat je een soort moordmachine krijgt die diep vanbinnen denkt als een gemiddeld AVROTROS-lid. Het is een serieuze zorg dat minderheden het slachtoffer worden van door algoritmes gedreven wapentuig, als niet duidelijk is welke data worden gebruikt.
Voorlopig schrijven vooral witte mannen de code voor de killerrobots van de toekomst. Dat geeft hun macht. Mocht de Witte Man ooit van zijn voetstuk vallen, dan geeft Hollywood wederom een aardig idee wat hiervan de mogelijke gevolgen kunnen zijn. Terminator waarschuwde niet voor niets: I’ll be back.
Zijn er ook lieve killerrobots?
Ik ben ze nog niet tegengekomen. Maar gelukkig kunnen algoritmes de wereld ook een betere plek maken. Bijvoorbeeld door oorlogen te voorspellen, zodat je ze vervolgens kunt voorkomen. De afgelopen maanden heb ik proberen te achterhalen of dit kan, en dat verhaal is eindelijk af. Dat volgt deze week.
De statistische modellen leiden mogelijk ook tot verandering van militaire strategie. Wat er precies gebeurt tijdens trainingsmissies, wederopbouwmissies en geheime operaties blijft schimmig. Over welke regio’s of groepen militaire bewindspersonen zich nu de meeste zorgen maken, en hoe ze zich daarop voorbereiden, is veelal geheim.
Ik zou geen journalist zijn als ik toch wil weten hoe het zit. Weet je meer, laat het dan weten. Ik ben namelijk heel benieuwd hoe je bijvoorbeeld preventief oorlog voert.
Ik ben al aardig op weg. De afgelopen week las ik een paar artikelen die een tipje van de sluier oplichten. Zo stomen Amerikaanse speciale eenheden in Duitsland verzetsstrijders uit de Baltische staten klaar voor een eventuele invasie van Rusland. In The New York Times stond een artikel over Amerikaanse speciale eenheden die Hongaarse collega’s trainen in het bestrijden van een volksopstand gesteund door Russische commando’s in burger, zoals ook in Oost-Oekraïne gebeurde.
Les: je kunt maar beter goed voorbereid zijn op het onbekende. Of dat zinvol en effectief is, valt te betwijfelen. Want zoals de Denen zeggen: het is lastig voorspellingen te doen. Vooral over de toekomst.
Tot de volgende keer!
P.S. Voor de liefhebber: check deze podcast door Jake Hanrahan van Popular Front over Libië. Die over IS in Iran is ook vet.