Wat heb je tegenwoordig nodig om verkiezingen te manipuleren? Een mediamonopolie? Knokploegen? Omgekochte medewerkers in het stemlokaal?
De controle over het Google-algoritme is genoeg.
Vorige week publiceerde psycholoog Robert Epstein de voorlopige resultaten van een studie naar de verkiezingen in India. Epstein verdeelde zijn proefpersonen - ruim 2.000 kiesgerechtigde Indiërs die nog niet wisten op welke partij ze zouden stemmen - over drie verschillende groepen. Iedere proefpersoon kreeg de opdracht te googelen naar de lijsttrekkers van de drie grootste partijen van India.
De zoekresultaten die de proefpersonen te zien kregen, waren door het team van Epstein gemanipuleerd. Bovenaan de lijst verschenen per groep uitgesproken positieve artikelen over één kandidaat, terwijl de positieve artikelen over de andere twee kandidaten juist onderaan de zoekresultaten waren geplaatst.
Na afloop vroeg Epstein zijn proefpersonen welke kandidaat hun voorkeur had. Uit de resultaten bleek dat de proefpersonen gemiddeld meer geneigd waren voor de kandidaat te stemmen waarvan de positieve artikelen bovenaan stonden. Epstein zei dat hij in staat was het aantal stemmen voor een kandidaat gemiddeld met ruim 12 procent te verhogen.
Ook al is er aardig wat kritiek te leveren op Epstein, zijn onderzoek raakt aan een essentieel thema van deze tijd: de invloed van algoritmen op ons gedrag. Deze algoritmen slurpen informatie over ons op, verwerken en analyseren dat, koppelen het aan andere data, en geven ons vervolgens bepaalde informatie terug met als doel ons tot een bepaalde handeling te doen overgaan.
Het beïnvloeden van verkiezingen is een extreem voorbeeld, maar we worden dagelijks geconfronteerd met algoritmen die ons gedrag proberen te sturen. Het Spotify-algoritme dat aan de hand van ons luistergedrag vertelt welke andere muziek we leuk zullen vinden. Het datingsite-algoritme dat ons in contact brengt met de ‘perfecte partner’. Maar ook: het algoritme van de Car2Go-huurauto dat ons vertelt dat we ‘roekeloos rijgedrag’ vertonen als we te hard optrekken of het algoritme van de Time Out!-app, die controleert of partners die ruziemaken wel genoeg fysieke afstand van elkaar houden en, als dit niet het geval is, ‘automatisch een contactpersoon’ belt.
Volgens deze advertentie ben je zwanger
Ergens heeft het iets prettigs. Een machine die van ons leert en keuzes voor ons maakt. Ingewikkelder wordt het als de machine ons beïnvloedt op manieren die wij niet doorhebben of kunnen doorgronden. Zoals de jonge Amerikaanse vrouw die er via gerichte advertenties van winkelketen Target achterkwam dat ze zwanger was doordat de algoritmen haar koopgedrag hadden geanalyseerd.
Of neem Wonga, een Brits bedrijf dat online leningen verschaft, waarvan de algoritmen aan de hand van - voor de gebruiker onbekende - bronnen bepaalt of iemand daarvoor in aanmerking komt. Of de newsfeed van Facebook, een belangrijke informatiebron voor miljoenen gebruikers, waarvan we niet weten hoe de volgorde van de berichten wordt bepaald.
Worden we slaven van de machine als deze geautomatiseerde systemen ons leven een bepaalde kant op sturen?
Hoe moeten we ons verhouden tot algoritmen die ons vertellen hoe we ons moeten gedragen, wat we moeten lezen en wanneer we in beweging moeten komen? Worden we slaven van de machine als deze geautomatiseerde systemen ons leven een bepaalde kant op sturen? Maakt het ons moreel lui als we beslissingen over hoe we moeten leven uitbesteden aan apps en software? En kunnen we de algoritmen ter verantwoording roepen als zij keuzes voor ons maken die ons niet bevallen?
Onderdeel van de mens worden
Allemaal vragen waar Peter-Paul Verbeek, hoogleraar Filosofie van Mens en Techniek van de Universiteit Twente, zich al jaren mee bezighoudt. Hij doet onderzoek naar de manier waarop technologieën onze moraal beïnvloeden.
We ontmoeten elkaar - waar anders? - in het Nederlandse hoofdkantoor van Google aan de Amsterdamse Zuidas. Na een korte rondleiding krijgen we waar we voor gekomen zijn: speeltijd met de Google Glass, de bril met spraakherkenning die Google nog meer dan nu al het geval is met de gebruiker moet doen versmelten. Via een beeldscherm in het glas heeft de gebruiker toegang tot het Google-universum, terwijl hij tegelijkertijd naar de wereld om hem heen kijkt. Google als laag over de werkelijkheid.
Verbeek heeft zich al maanden op dit moment verheugd. De hoogleraar heeft al verschillende interviews gegeven over de potentiële gevolgen van de bril en besteedt er aandacht aan in zijn nieuwe boek Op de vleugels van Icarus. Dit is de eerste keer dat hij de bril ook echt gaat gebruiken.
Verbeek zet de bril op en geeft een paar gesproken opdrachten aan de zoekmachine, maakt foto’s met het lensje naast het beeldscherm en vraagt de weg naar het Centraal Station. Verbeek is zichtbaar teleurgesteld in de bril. ‘Dit is niet de revolutionaire technologie die ik had verwacht,’ zegt hij na afloop. ‘Het woord bril suggereert ook dat de manier waarop je naar de wereld kijkt mede door Google vorm krijgt. Dat er een soepele integratie is tussen de bril en het alledaagse leven. Vragen naar een routebeschrijving of dingen opzoeken in de zoekmachine, dat geloof ik allemaal wel. Interessanter wordt het als dingen mogelijk worden met de bril die niet mogelijk zijn in het gewone leven. Als er bijvoorbeeld automatisch informatie wordt achterhaald op grond van wat je ziet, dat de Glass zelf kan kijken en je vertelt waar je bent. Dit is niet meer dan een draagbaar beeldschermpje.’
De ambities van Google reiken daarentegen wel veel verder dan een draagbare bril met internetverbinding. Google wil een onderdeel van de mens worden. Zo zei oprichter Sergey Brin al in 2004 over de missie van het bedrijf: ‘Ultimately you want to have the entire world’s knowledge connected directly to your mind’. En in 2010: ‘We want Google to be the third half of your brain.’
Die wens tekent zich af in een aantal grote recente bedrijfsovernames. Google zet vol in op kunstmatige intelligentie en robotica: het bedrijf spendeerde de afgelopen twee jaar miljarden aan onder andere Boston Dynamics, een bedrijf dat militaire robots produceert, en DeepMind, een bedrijf dat zelflerende algoritmen ontwikkelt, gebaseerd op inzichten uit de neurowetenschap.
En daar komt de aanstelling van Ray Kurzweil als Director of Engineering nog bij. Kurzweil (1948) is een vermaard én verguisd uitvinder en toekomstvoorspeller, die ervan overtuigd is dat in 2029 computers alles kunnen wat mensen kunnen. Kurzweil wil, zo vertelde hij The Guardian een paar maanden geleden, van Google een grote zelfdenkende machine maken die ‘het antwoord op jouw vraag kent voordat je hem gesteld hebt.’
Technologiehuiver is van alle tijden
Google is een van de trekkers van de nieuwste automatiseringsgolf: van robots die taken van ons overnemen en algoritmen die ons gedrag sturen. Die ontwikkeling zorgt voor aardig wat onrust, óók in de kolommen van De Correspondent. Zo schreef collega-correspondent Rutger Bregman drie maanden geleden een column waarin hij citeerde uit het alarmerende rapport ‘ Intieme technologie’ van het Rathenau Instituut: ‘Er wacht ons ‘een explosie van privacyvraagstukken,’ de ‘integriteit van lichaam en geest’ staat op het spel, ‘ons gedrag wordt gemanipuleerd’ en ‘onze sociale vaardigheden dreigen af te brokkelen.’ Het is geen sciencefiction meer, het is actualiteit.’
We zijn van nature fundamenteel verweven met de technologieën om ons heen. De vrees dat nieuwe technologieën onze autonomie bedreigen is dan ook onzinnig
Die huiver voor nieuwe technologie, zegt Verbeek, is van alle tijden. Nu vrezen we robots of algoritmen, vroeger waren we doodsbang voor een technologie als de bril. ‘De eerste brillen werden met veel argwaan bekeken,’ vertelt hij. ‘Je deed een ingreep in de menselijke natuur en dat is altijd omstreden. Vóór de bril konden sommige mensen zien en anderen niet. Heel simpel. Opeens werd dat maakbaar. We hadden het idee dat we op de stoel van God gingen zitten. De versmelting van mens en technologie heeft altijd iets overmoedigs, maar we hebben die bril toch echt een plek gegeven in ons bestaan.’
Technologie is wat ons mens maakt, zegt Verbeek. ‘Wij zijn altijd al cyborgs geweest,’ vertelde de techniekfilosoof mij toen ik hem twee jaar geleden voor Vrij Nederland interviewde over zijn vorige boek De Grens van de Mens. ‘Deels organisch, deels techniek. Apen kunnen takken vinden en daar bananen mee uit de bomen slaan. Wij kunnen zelf iets van die takken maken. Onze niche in de evolutie is de technologie.’
En omdat we van nature fundamenteel verweven zijn met de technologieën om ons heen, is de vrees dat nieuwe technologieën onze autonomie bedreigen onzinnig: ‘Wij zijn nooit autonoom ten opzichte van technologie, net zo min als dat wij autonoom zijn ten opzicht van zuurstof of zwaartekracht. Wij bestaan niet los van de Google-algoritmen, de bril of de twintigwekenecho. Wij bouwen die technologieën, maar ze bouwen ons ook.’
Geen Google Glass, wel vindbaar via LinkedIn
In zijn nieuwe boek Op de vleugels van Icarus, formuleert Verbeek een techniekethiek. Van de technologieën die wij gebruiken, schrijft Verbeek, gaat een moraal uit: er zit een visie op het goede leven in. Zo vertellen de OV-chipkaartpoortjes op stations ons dat we niet zwart mogen rijden en geven flitspalen aan dat we niet te hard mogen rijden op de snelweg. Onze moraal wordt door al die technologieën en apparaten medebepaald. Zo heeft de anticonceptiepil bijvoorbeeld een belangrijke rol gespeeld bij de acceptatie van homoseksualiteit. De pil zorgde er namelijk voor dat het niet meer als onnatuurlijk werd gezien om seks te hebben zonder je voort te planten.
Van de technologieën die wij gebruiken, gaat een moraal uit: er zit een visie op het goede leven in
Anders dan veel andere techniekdenkers interesseert Verbeek zich dan ook niet zozeer in de vraag óf we nieuwe technologie wel moeten toelaten. ‘Het gaat niet over ‘ja’ of ‘nee’, maar om ‘hoe’.’ We reflecteren op hoe we ermee omgaan. We moeten onszelf stileren in interactie met technologie.’
Dat ‘stileren’ kan alleen door technologieën te gebruiken, legt Verbeek uit. ‘Sociale codes en ethische kaders ontwikkelen zich samen met technologie. Dat vergt een praktische, toegepaste ethiek. We moeten niet zomaar zeggen over de Google Glass: de privacy gaat eraan! Nee, techniek verandert onze opvattingen over privacy en bepaalt voor een groot deel welke aspecten van onszelf we liever voor onszelf houden en welke niet. Het lijkt nu een angstaanjagend vooruitzicht dat mensen met een Google-bril jouw gezicht straks kunnen herkennen, maar als je nu mijn naam intypt op Google vind je ook veel foto’s van mij. Op sommige plekken zoeken we openbaarheid op, op andere juist de privéruimte. Dat komt mede doordat technologie nieuwe keuzes daarover mogelijk maakt.’
Je teen in het water steken
Terug naar de algoritmen. Want Verbeek mag dan wel zeggen dat we moeten leren omgaan met nieuwe technologieën, de vraag is hoe je omgaat met een algoritme waarvan je niet weet hoe het werkt of waarvan je het hele bestaan niet kent. Hoe kun je je verhouden tot iets als je niet weet wat dat ‘iets’ is?
‘Het op ondoorzichtige wijze beïnvloeden van onze overtuigingen en gedragingen is wel echt een nieuwe stap,’ beaamt Verbeek. ‘Er wordt met deze algoritmen, zonder dat mensen het doorhebben, beslist wat ze wel of niet belangrijk vinden. Er zit een soort vooringenomendheid in wat de machine jou teruggeeft. Er wordt je een venster op de wereld aangereikt.’ Lachend: ‘Google is eigenlijk al een bril, onze bril op de wereld, die bepaalt hoe we de wereld ervaren. Het is zaak dat we die ervaring goed in ogenschouw houden.’
Moeten we het allemaal over ons heen laten komen met het risico dat we slaven worden van de machine? ‘Dat is toch weer dat angstbeeld,’ zegt Verbeek. ‘Onze manier van denken en onze moraal worden beïnvloed door technologie. Gevoelsmatig wil je daar controle over hebben, maar de maximale controle die je kunt hebben is dat je de aard van die invloed probeert te doorzien en je daartoe gaat verhouden. Technologie is altijd een sprong die je moet wagen, maar dat betekent niet dat je niet eerst met je teen in het water kunt voelen of het überhaupt de moeite waard is om erin te springen. We moeten leren om de teen in het water te steken.’
Een algoritme kan best tegen kritiek
Goed, we hebben de algoritmen volgens de techniekfilosoof dus te aanvaarden. Maar niet willoos. We moeten de algoritmen kritisch gebruiken en daar hebben we handvatten voor nodig, zegt Verbeek. We moeten meer weten over de sturende algoritmen, beter begrijpen hoe ze werken en tot meer inzicht komen in de manier waarop ze tot hun beslissingen komen. Bedrijven zouden dus ook veel transparanter moeten zijn over de manier waarop hun algoritmen functioneren. Welke informatie wordt verzameld en hoe dat leidt tot een bepaalde opdracht.
‘Er moeten mensen zijn die gedetailleerd in kaart brengen wat de subtiele effecten van technologie op ons dagelijks leven zijn. Je kunt niet meer in je eentje zien wat die algoritmen allemaal met je doen’
En laat de Tweede Kamer ook maar eens stevig over algoritmen debatteren, zegt Verbeek. ‘De permanente discussie over privacy-issues zorgt ervoor dat we helemaal niet meer nadenken over de invloed van informatietechnologie op de kwaliteit van onze samenleving. Hoe kun je mensen toerusten om kritisch om te gaan met zoekmachines, zodat ze meer inzicht krijgen in de invloeden waaraan ze blootstaan? Welke eisen kun je stellen aan de manier waarop deze algoritmen werken, om te voorkomen dat ze mensen op wezenlijke punten oneigenlijk beïnvloeden, bijvoorbeeld wanneer ze zich oriënteren op politieke partijen in verkiezingstijd? De kwaliteit van de publieke ruimte is in het geding, en die omvat heel wat meer dan privacy.’
Burgerschap in de technologische cultuur
Verbeek ziet een belangrijke rol weggelegd voor journalisten, filosofen en wetenschappers. ‘Er moeten mensen zijn die gedetailleerd in kaart brengen wat de subtiele effecten van technologie op ons dagelijks leven zijn. De meeste mensen weten dat autoverkopers je proberen te verleiden en dat politici in campagnetijd alles eraan doen om je stem te winnen. Zoals wij omgaan met autoverkopers en politici, zo moeten wij ook omgaan met apps en software.’
Er is eigenlijk maar één grens, zegt Verbeek. ‘Als je de invloed van het algoritme op geen enkele manier meer kunt doorzien, dan is er geen gelijkwaardige interactie meer mogelijk. Dan gaat de techniek met jou om in plaats van andersom.’
Als we vertrekken bij het hoofdkantoor van Google lopen we langs het bureau van een Google-medewerker. Hij laat ons zien waar hij aan werkt. Op een van de beeldschermen verschijnt een grote kaart met allerlei kleurtjes. We zien namen van politici en kiesdisctricten. Waar ben je mee bezig, vraagt Verbeek.
De techneut antwoordt: ‘De verkiezingen in India.’
Dit verhaal heb je gratis gelezen, maar het maken van dit verhaal kost tijd en geld. Steun ons en maak meer verhalen mogelijk voorbij de waan van de dag.
Al vanaf het begin worden we gefinancierd door onze leden en zijn we volledig advertentievrij en onafhankelijk. We maken diepgravende, verbindende en optimistische verhalen die inzicht geven in hoe de wereld werkt. Zodat je niet alleen begrijpt wat er gebeurt, maar ook waarom het gebeurt.
Juist nu in tijden van toenemende onzekerheid en wantrouwen is er grote behoefte aan verhalen die voorbij de waan van de dag gaan. Verhalen die verdieping en verbinding brengen. Verhalen niet gericht op het sensationele, maar op het fundamentele. Dankzij onze leden kunnen wij verhalen blijven maken voor zoveel mogelijk mensen. Word ook lid!