Waarom Volkswagen een onverwachte overhoring had moeten krijgen
Als cijfers een doel op zich worden, gaat het vaak mis. Kijk maar naar Volkswagen, de bankensector of het hbo. Maar wat kun je daaraan doen? Econoom Tim Harford geeft in zijn boek Messy een verstandige oplossing, die iedereen bekend zal voorkomen.
John German had het niet verwacht. De grijsharige ingenieur uit Michigan wilde alleen maar laten zien dat strenge regels een goed idee waren. Dat de Amerikaanse regels ervoor zorgden dat auto’s schoner reden. Zodat hij en zijn collega’s konden zeggen: ‘Kijk, ze zijn schoon in de Verenigde Staten, dus het kan ook in Europa.’
Maar hij vond iets heel anders: een van de grootste schandalen van de afgelopen jaren - de Volkswagenfraude. De fraude waarbij dieselauto’s automatisch minder vervuilende stoffen gingen uitstoten als ze in een laboratorium werden getest.
Toen het eenmaal bekend werd, waren de gevolgen niet te overzien voor Volkswagen: aandelenkoersen crashten, de topman stapte op, en het bedrijf zou miljarden kwijtraken aan schadevergoedingen en boetes.
Hoe had German de fraude ontdekt? Niet door ingewikkeld speurwerk. Wat hij en zijn collega’s van het International Council on Clean Transportation (ICCT) hadden gedaan, was niet veel anders dan het laboratoriumonderzoek. Ze hingen meetapparaten aan wat auto’s.
Het verschil: ze gingen naar buiten en maakten een autorit - van San Diego naar Seattle. De auto’s bleken te veel vervuilende stoffen uit te stoten. Tot wel 35 keer te veel.
Wat German had gedaan, was niet ingewikkeld. Wel onverwacht.
De cijferdictatuur
Als cijfers een doel op zich worden, gaat het vaak mis. Goed mis. De Volkswagenfraude is slechts één voorbeeld. Zo schreven Jesse Frederik en ik eerder over de cijferdictatuur in de publieke sector. Een greep uit de voorbeelden die we gaven:
- Het hbo, waar instellingen werden beloond naar het aantal diploma’s. Het gevolg: studenten kregen voor praktisch niks een diploma.
- De politie, waar korpsen een bepaald aantal bekeuringen moesten uitdelen. Het gevolg: er werden zelfs speciale ‘bonnendagen’ georganiseerd, waarop agenten zo veel mogelijk bekeuringen moest uitdelen. Het quotum is intussen afgeschaft.
- De ggz, waar de vergoedingsstructuur leidde tot perverse prikkels. Het gevolg: gesjoemel met de behandelduur van patiënten.
De Britse econoom en journalist Tim Harford geeft in zijn nieuwe boek Messy nog meer voorbeelden van zulk cijfergepruts. Van de bosbouw in de achttiende eeuw tot de bankensector in de eenentwintigste eeuw. Van de Britse gezondheidszorg tot de millenniumdoelen van de Verenigde Naties.
Cijfermatige doelen leiden tot perverse prikkels
Telkens weer leiden cijfermatige doelen tot perverse prikkels. ‘Officiële maatstaven en targets kunnen nooit perfect de rommelige realiteit van de wereld kwantificeren,’ schrijft Harford, ‘maar ze hebben genoeg invloed om die [de realiteit, SB] te veranderen.’
De diagnose is één ding, maar hoe los je dit probleem op?
Nog strengere afspraken?
Een mogelijke oplossing: complexere afspraken maken. Slecht idee, vindt Harford. De geschiedenis wijst uit dat mensen of organisaties telkens weer manieren vinden om het systeem te manipuleren.
Kijk maar naar de Bazel-akkoorden, bedoeld voor de stabiliteit van de financiële sector. Het eerste akkoord - ‘Bazel I’ uit 1988 - was slechts dertig pagina’s lang. De Bazel I-regels bleken niet toereikend. Ze waren te simpel, en banken vonden manieren om toch veel risico te nemen. Zo ontstond het Bazel II-akkoord in 2004, ditmaal 347 pagina’s lang.
Maar wat volgde al snel op dit mega-ingewikkelde akkoord? Juist, een mega-ingewikkelde crisis. En dus hebben we nu een Bazel III-akkoord.
‘Het ingewikkelder maken van targets zorgt er niet voor dat ze niet meer gemanipuleerd worden,’ schrijft Harford, ‘het leidt er alleen toe dat ze worden gemanipuleerd op ingewikkeldere en onvoorspelbaardere manieren.’
De oplossing ligt in de schoolbanken
Bij Volkswagen werkten striktere afspraken ook niet. De emissietesten waren streng, maar toch lukte het de autofabrikant om de uitkomsten te manipuleren. Volkswagen wist exact waarop de laboratoria zouden controleren.
Het is alsof je een scholier de examenvragen al van tevoren geeft, schrijft Harford. Dan haalt uiteindelijk ook iedereen een tien.
Het antwoord ligt dan ook niet in de laboratoria die de fraude over het hoofd zagen, maar bij het clubje dat het ontdekte. Wat John German en collega’s deden was niet ingewikkeld. Wel onvoorspelbaar, net als examens.
Toezichthouders zouden meer als docenten moeten werken
Toezichthouders zouden volgens Harford dan ook meer als docenten moeten werken. Test autofabrikanten, overheidsinstellingen, banken op onverwachte momenten op onverwachte punten.
Andy Haldane, de hoofdeconoom van de Britse Centrale Bank, ziet zulke willekeurige targets wel zitten. En ook verschillende Britse experts in de gezondheidszorg - zoals David Spiegelhalter en Gwyn Bevan - denken dat het een goed idee is.
Hier en daar gaan toezichthouders al iets meer als docenten te werk. Zo vragen Amerikaanse toezichthouders de banken om informatie, maar zeggen ze er niet bij hoe de cijfers worden geëvalueerd.
Maar waar (onverwachte) overhoringen op scholen dagelijkse kost zijn, daarbuiten blijven ze een uitzondering.
Meer vertrouwen
Natuurlijk zitten er haken en ogen aan Harfords oplossing. Wordt het niet te subjectief? Ook dat antwoord ligt in de schoolbanken: maak een syllabus met alle vereisten en test een willekeurig onderdeel.
En wat doe je met belangenverstrengeling? Zo hebben bestuurders vaak ook baat bij positieve uitkomsten. Daarom, schrijft Harford, moet toezicht en bestuur zo ver mogelijk van elkaar verwijderd zijn.
Mijn eigen bezwaar tegen Harfords idee: de focus op controle. Soms is het antwoord niet méér of andere controle, maar meer vertrouwen.
Hoe dan ook, de kern van het idee snijdt hout. In een rommelige wereld heb je ook rommelige controle nodig. Of een ritje van San Diego naar Seattle.