Laten we het eens over Rob Wijnberg hebben.

Op het eerste gezicht is hij succesvol. Hoogopgeleid. Oprichter van een aantal bedrijven en bezitter van een koophuis in Amsterdam. Zijn naam staat geregeld in de kranten, zijn hoofd verschijnt weleens op tv, hij is populair op sociale media.

Er lijkt weinig mis te zijn met onze hoofdredacteur. Maar de harde data vertellen een ander verhaal.

Zou je Rob Wijnberg bijvoorbeeld een inboedelverzekering verstrekken als je weet dat er in zijn negen succesvolle inbraken zijn gepleegd sinds juni?

Neem je een column van Rob Wijnberg over klimaatverandering serieus als je weet dat zijn woning heeft, de laagst mogelijke score?

En hoe sociaal is hij eigenlijk? Op heeft hij maar liefst 83.000 volgers, maar hij volgt er zelf iets meer dan 300 - waaronder ook nog eens al zijn werknemers bij De Correspondent. Wijnberg lijkt iemand die meer praat dan luistert, liever zendt dan ontvangt.

Nee, de data vellen een hard oordeel over Rob Wijnberg: zijn socialerisicoscore is 29 op een schaal van 0 (geen risico) tot 100 (extreem veel).

Het kan slechter: Bram Moszkowicz zit op 100. Maar het kan ook beter. Zo is columnist Jan Dijkgraaf met een score van 11 Wijnberg de

Heel Holland Transparant

Deze score komt uit het project dat vandaag lanceren. Heel Holland Transparant doet publiek wat talloze instanties en bedrijven achter gesloten deuren doen: burgers en consumenten scoren.

Bekijk Heel Holland Transparant hier Heel Holland Transparant is een lijst die bestaat uit 71 Nederlanders. Zij zijn gerangschikt op grond van hun risicoscore. Die score is berekend op basis van openbare gegevens. Zoals de site zelf schrijft: 'Zo bieden wij burgers, bedrijven en overheid inzicht in de cijfers achter de mens.' Bekijk de site hier

Overheidsinstanties, bedrijven en werkgevers kunnen deze scores gebruiken om te bepalen of ze met de gescoorden in zee willen gaan, of ze die scherper in de gaten moeten houden, of juist allerlei aanbiedingen moeten doen.

Aan de hand van een analyse van wijzen we binnen Heel Holland Transparant 35 bekende en 36 onbekende Nederlanders een toe. VVD-Kamerlid Joost Taverne heeft bijvoorbeeld een score van 14, zangeres Marianne Weber scoort 49, de onbekende Gerda Sikkema zit op 64 en tv-presentator Matthijs van Nieuwkerk scoort met 88 heel

Wat je met die scores zou kunnen?

Ook zanger Gordon staat op de lijst. Sinds juni zijn er twintig inbraken geweest in zijn buurt. Handige informatie voor een inboedelverzekeraar

Wij zien bijvoorbeeld dat de onbekende H. van Norden in een wijk (Kruiskamp, Amersfoort) woont waar de kans op vroegtijdige sterfte hoog is. Handig voor een levensverzekeraar om te weten.

In het van oud-bestuursvoorzitter van de Universiteit van Amsterdam Louise Gunning wonen veertig mensen die een gemiddeld bruto maandinkomen van 9.200 euro verdienen. Handig om te weten als je kopers van luxeproducten zoekt.

Oud-topadvocaat Bram Moszkowicz is mogelijk niet de beste persoon om een krediet aan te verstrekken. Hij staat in het openbare een verzameling gerechtelijke uitspraken over faillissementen en schuldsaneringen. Veel gebruikt door bedrijven die kredietscores samenstellen.

Ook zanger Gordon staat op de lijst. Sinds juni zijn er twintig geweest in zijn buurt. Handige informatie voor een inboedelverzekeraar.

Journalisten zijn niet altijd de vrolijkste mensen. GeenStijlhoofdredacteur Marck Burema en onze eigen economiecorrespondent Jesse Frederik zijn weinig optimistische Van alle personen uit Heel Holland Transparant tweeten zij het negatiefst. Dat is interessante informatie voor, pak ’m beet, een potentiële toekomstige werkgever.

Sociaal kredietsysteem

Heel Holland Transparant bestaat niet écht, maar dat had je waarschijnlijk al door. Het is een project van De Correspondent, Bits of Freedom en ontwerpstudio Yuri Veerman. Wij willen hiermee de aandacht vestigen op wat wij ‘de scorebordsamenleving’ noemen.

De scorebordsamenleving is een samenleving waarin burgers scores krijgen toegekend door overheden en instanties, bedrijven en werkgevers. Die scores zijn berekeningen op basis van heel veel data. Ze voorspellen of iemand in de toekomst bepaald gedrag gaat vertonen. En die scores bepalen of je van een bepaald recht of dienst gebruik mag maken en tegen welke prijs.

Cruciaal is dat dit vaak gebeurt zonder dat burgers het doorhebben. Welke persoons- of gedragsgegevens gebruikt worden voor de scores, hoe de scores worden berekend én waarvoor ze worden gebruikt, blijft meestal in nevelen gehuld.

Een halfjaar geleden liet een artikel in de extreemste vorm van de scorebordsamenleving zien. China heeft in 2014 het Sociaal Kredietsysteem geïntroduceerd waarbinnen iedere Chinees een score krijgt toegekend voor zijn ‘gedrag.’ Verschillende data bepalen die score: iemands schulden, iemands uitingen op sociale media én de scores van de mensen met wie iemand contact heeft. De score wordt voor tal van toepassingen gebruikt. Wie slecht scoort, zou kunnen worden uitgesloten van bepaalde banen, huisvesting of kredietverlening.

Schokkend. Het punt is: het Sociaal Kredietsysteem verschilt niet zo veel van wat wij in het vrije Westen al jaren aan het doen zijn. Alleen is dat niet verpakt in zo’n eenduidige sociale score en gaat het hier niet om het behoud van ‘socialistische kernwaarden,’ maar om het minimaliseren van allerlei risico’s - van wanbetaling tot terroristische aanslagen.

Een paar voorbeelden.

1. Bijna alle Nederlanders hebben een kredietscore. Die score wordt berekend op basis van kredietverleden, faillissementen, data van de Kamer van Koophandel en, steeds vaker, data van sociale media en buurtgegevens. Die score bepaalt of jij een lening kunt krijgen en tegen welke rente.

2. Met de invoering van het krijgen alle nieuwe gezinnen een risicoscore toegewezen. Aan de hand van een lange vragenlijst wordt bepaald welke risicofactoren een gezonde ontwikkeling van het kind kunnen bedreigen. Als er een opeenstapeling van risicofactoren is, kan worden ingegrepen.

3. Van iedere passagier die naar de Verenigde Staten vliegt, wordt een score Die komt tot stand aan de hand van ongeveer dertig verschillende databronnen - waaronder bronnen van commerciële datahandelaren en sociale media, biometrische gegevens en gegevens over eerdere reizen. Wie hoog scoort, wordt aan extra controles onderworpen of, in het extreemste geval, geweigerd.

4. Syri een overheidssysteem dat als doel heeft om uitkerings- en belastingfraude te voorkomen. Uit een grote bak gegevens - over onder meer zorgverzekering, schulden, huisvesting en pensioenen - tovert een algoritme een risicoscore voor iedere burger. Zo weet Syri, bijvoorbeeld, dat laag watergebruik op fraude kan duiden en neemt dat mee in de score. ‘Alle burgers worden onderworpen aan een integriteitstoets,’ zei emeritus hoogleraar Staats- en Bestuursrecht Margriet Overkleeft-Verburg daarover.

5. Ook de Belastingdienst geeft prioriteit aan het opstellen van profielen en scores op basis van de enorme hoeveelheden data die de fiscus in huis Zo bepaalt de Belastingdienst wat de kansen zijn dat belastingplichtigen hun belastingen betalen, om vervolgens aan de hand daarvan

We hebben dan misschien geen Chinees Sociaal Kredietsysteem, maar ook wij, Nederlanders, worden continu beoordeeld, in rankings geplaatst, doorgemeten en geanalyseerd. De taal en de beweegredenen van het Chinese systeem mogen anders zijn, de logica is hetzelfde: de score die wij krijgen toebedeeld doet een voorspelling over ons toekomstige gedrag.

Slimme machines

Bij Heel Holland Transparant zijn alle data handmatig ingevoerd en is de score per persoon berekend. Een simpele én archaïsche vorm van scoren, want de meeste scores komen tegenwoordig geautomatiseerd tot stand, aan de hand van de analyse van grote hoeveelheden data.

Daar zitten positieve aspecten aan. Eenvoudige beslissingen voor én over mensen zijn prima te automatiseren. Wat voor advertentie je te zien krijgt. Welke zoekresultaten relevant zijn. LinkedIn, Spotify en Netflix kunnen allerlei scores berekenen om je goede aanbevelingen te doen waardoor je net die juiste persoon bevriendt, dat prachtige liedje vindt of die bijzondere film ontdekt die je anders over het hoofd zou hebben gezien.

Ook voor meer complexe beslissingen zijn geautomatiseerde beslissingen vaak heel nuttig. Mensen zijn goed in het vinden van patronen, maar computers kunnen dat doorgaans nog veel beter. Als de data goed zijn en de rekenprocedure ook, dan kunnen computers mensen helpen betere beslissingen te nemen, bijvoorbeeld door prioriteiten te stellen als veel mensen beoordeeld of gecontroleerd moeten worden. Schaarse tijd wordt nuttiger besteed. De mens, met al zijn vooroordelen en bagage, wordt bijgestaan door een computer die het niets kan schelen of je arm of rijk, blank of zwart, ongezond of fit, atheïst of moslim, hoogopgeleid bent of nooit een opleiding hebt afgemaakt.

Deze automatische benadering lijkt eerlijker en minder willekeurig.

Maar die claim is niet waar te maken, zegt Solon Barocas, die aan Princeton onderzoek doet naar geautomatiseerde besluitvorming. Vorig jaar publiceerde hij met jurist Andrew Selbst een invloedrijk over de impact van Big Data. De kern: de manier waarop computers grote datasets verwerken, leidt geregeld tot onbedoelde discriminatie. Dit kan bestaande ongelijkheden in de samenleving juist vergroten.

Om dit te begrijpen, legt Barocas uit, moeten we weten hoe dit algoritmische proces werkt. Hierbij draait alles om het zogenoemde Barocas geeft leningen als voorbeeld. Er zijn bedrijven die telefoondata gebruiken om de kans op terugbetaling te berekenen en zo beslissen of het verstandig is iemand een lening te verstrekken. Zij hebben een dataset van de belgeschiedenis van 10.000 telefoonabonnees én ze hebben een dataset met het kredietverleden van die mensen. Die voegen ze samen, waarop ze de computer vragen: als je nu kijkt naar hoe telefoons worden gebruikt, wat valt je dan op bij de mensen die hun schulden niet afbetalen? De computer zoekt en vindt patronen en komt met een antwoord: de machine heeft geleerd.

Illustraties: Maus Bullhorst

Illustraties: Maus Bullhorst

Hypothetisch voorbeeld: bij mensen die ‘s avonds laat bellen, is de kans groot dat ze hun lening niet op tijd af kunnen betalen. Als er dan een aanvraag komt voor een lening, kijk je naar iemands belgeschiedenis om te zien in hoeverre die aan dat negatieve profiel voldoet. Op basis daarvan wijs je de lening toe of af, of bereken je een hogere of lagere rente.

Dit lijkt eerlijk, maar is het niet altijd.

Barocas legt uit dat de patronen die een algoritme ontdekt vaak bestaande maatschappelijke patronen zijn. Neem het gebruik van machine learning in het veiligheidsdomein. Steeds meer politiekorpsen dat om misdaadvoorspellingen te doen. Ze gaan dan preventief surveilleren in bepaalde wijken waar een hogere kans lijkt op crimineel gedrag. Maar juist doordat de politie daar extra surveilleert, zal zij misdaad vinden. Die misdaad vindt elders ook plaats, maar blijft daar onopgemerkt. De volgende keer zal de politie naar dezelfde wijk gaan. Op deze manier kan een ogenschijnlijk valide statistisch model bestaande ongelijkheden en discriminatie ‘herontdekken’ en zo onbedoeld versterken.

‘Als de makers van de scores en algoritmen ze al niet snappen, dan heeft het niet zoveel zin ze te openbaren’

Maurits Kaptein, docent Kunstmatige Intelligentie aan de Radboud Universiteit benoemt nog een andere eigenschap van machine learning: de bouwers van de algoritmen snappen de uitkomsten ook niet altijd. Kaptein beschrijft een onderzoek waar hij aan werkt in samenwerking met een bank. ‘De uitdaging van dat onderzoek is: wat is de optimale prijs voor een lening? Welke rente kan de bank aan een individu vragen zodat de bank er de meeste winst op maakt? Wij bedenken dan allerlei formules en berekeningen, maar uiteindelijk gaat de machine zelf leren en komt er een prijs uit. Ik kan dan ook niet meer exact terughalen waarom die prijs op dat moment naar voren komt.’

Dit legt misschien wel het grootste probleem van de geautomatiseerde scorebordsamenleving bloot, zegt Hans de Zwart van Bits of Freedom: bij wie moet je als individu aankloppen als er een fout is gemaakt? ‘Wat gebeurt er als je aan de verzekeringsmaatschappij vraagt: hoe zijn jullie tot deze beslissing gekomen? en zij zeggen: die is gebaseerd op de totale hoeveelheid data die wij hebben en onze rekenmodellen. En, nee, wij weten ook niet exact hoe dit komt?’

Rob Wijnberg - of waarschijnlijker: Bram Moszkowicz - kan ervoor kiezen om Heel Holland Transparant voor de rechter te slepen. Als hij het niet eens is met de score en last heeft van de gevolgen bijvoorbeeld. Maar hoe zit dat met al die geautomatiseerde systemen, die wij vaak niet zien en daardoor niet kunnen adresseren? Wat als de gevolgen van een score niet meer tot een oorzaak zijn te herleiden? Een algoritme kun je niet aanklagen.

Volgens sommige critici is totale transparantie de oplossing: bedrijven zouden hun algoritmen en scores moeten openbaren. ‘Dat zie ik niet gebeuren,’ zegt De Zwart. ‘Je zit er als individu niet op te wachten om continu op zoek te moeten gaan naar alle profielen en scores die van jou zijn. Bovendien, als de makers van de scores en algoritmen ze al niet snappen, dan heeft het niet zoveel zin ze te openbaren. Hoewel het natuurlijk belangrijk blijft om de gegevens over jezelf in te kunnen zien, geloof ik veel meer in transparantie in de zin van: kan ik als maker het model nog uitleggen? Ik vind dat je als bedrijf bij een rechter moet kunnen verantwoorden met een aannemelijk verhaal waarom jij bepaalde beslissingen hebt genomen.’

Energielabel G?

Rob Wijnberg las op Heel Holland Transparant dat zijn woning energielabel G heeft. Dit is het slechtst mogelijke label dat aangeeft dat zijn huis zeer energieonzuinig is.

Vreemd, vond onze hoofdredacteur. Zijn huis is twee jaar geleden verbouwd en opnieuw geïsoleerd. Waar is dat label dan op gebaseerd? En welke consequenties heeft dat?

Vragen waar hij niet zomaar een antwoord op kan krijgen. Om zijn energiescore te verbeteren, is hij in zijn administratie gedoken. Op zoek naar zijn nieuwe, naar eigen zeggen, veel betere score. Tevergeefs, tot nu toe.

Heeft Rob Wijnberg geen belangrijker dingen te doen? Ja, natuurlijk. Maar niemand wil achtervolgd worden door een score die niet klopt.

Bekijk hier de lijst met Nederlanders (misschien sta je er wel tussen) Heel Holland Transparant maakt risicoprofielen van willekeurige Nederlanders op basis van objectieve data. Op deze website kunt u alle profielen inzien en kostenloos downloaden. Zo bieden wij burgers, bedrijven en overheid inzicht in de cijfers achter de mens. De site vind je hier

Het project Heel Holland Transparant is een samenwerking van De Correspondent, Bits of Freedom en Atelier Yuri Veerman. Het project is deels gefinancierd door Open Society Foundations. De score van Heel Holland Transparant kwam tot stand met behulp van Maurits Kaptein van de Radboud Universiteit en correspondent Sanne Blauw. Wij bedanken ook Maarten de Rijke, Anne Schuth en Christoph van Gysel​ van de Universiteit van Amsterdam voor hun adviezen over de analyse.

Speciale dank aan Rico Disco voor hulp bij het onderzoek en de analyse daarvan.

Morgen publiceren wij een artikel over een onderzoek van gastcorrespondent Maaike Goslinga naar datahandel in Nederland.

Wil je meer te weten komen over dit onderwerp? Meld je dan aan voor de nieuwsbrief van Maurits Martijn. Zo houdt hij je op de hoogte van de artikelen die hij publiceert op De Correspondent en gidst hij je langs de mooiste journalistiek op het gebied van privacy, surveillance en geheime diensten. Schrijf je hier in voor de nieuwsbrief van Maurits Martijn

Baas Belastingdienst over Big Data: ‘Mijn missie is gedragsverandering’ Hans Blokpoel is de algemeen directeur van de Belastingdienst. Hij experimenteert met nieuwe technologieën om iedere Nederlander beter te leren kennen én te beïnvloeden. Maurits sprak met hem over de vraag: hoe ver mag je als Belastingdienst gaan om ervoor te zorgen dat burgers aan hun belastingplicht voldoen? Lees het interview hier terug