Stop de demonisering van het algoritme

23/08/18

Nu algoritmen steeds vaker voor ons beslissen, kijken we naar hen wanneer het mis gaat. Er verschijnen onderzoeken en interviews waarin met een beschuldigende vinger wordt gewezen naar de wiskundige formules waarmee data worden omgezet in inzichten of beslissingen. Onterecht, oordelen PwC’s data analisten dr. Jeroen Goudsmit en Marvin Oeben. ‘Algoritmen voeden zich vaak met bevooroordeelde data. Hier, en niet bij de algoritmen, ligt de kern van het probleem. Stop dus met het demoniseren van algoritmen. Want het probleem is niet het algoritme, maar wat we het voeden.'

Algoritmes houden ons een spiegel voor

Algoritmes worden beschuldigd van discriminatie op ras, geslacht of seksuele geaardheid. Ook krijgen ze de schuld van het vergroten van sociale en inkomensverschillen door de winnaars te bevoordelen en de verliezers te benadelen. ‘Natuurlijk, er is reden voor zorg. Algoritmes zijn complex en onttrekken zich aan de gangbare controlemechanismen, Maar wat er in feite gebeurt, is dat de algoritmes ons een spiegel voorhouden’, stellen Goudsmit en Oeben. ‘Ze zijn de weerslag van menselijk handelen, inclusief de vooroordelen en handelingen uit het verleden die bepaalde bevolkingsgroepen sterk benadeelden. Deze vooroordelen moeten we herkennen en bestrijden, niet de algoritmes die ons er mee confronteren.’

'Algoritmes zijn de weerslag van menselijk handelen, inclusief vooroordelen. Deze vooroordelen moeten we herkennen en bestrijden, niet de algoritmes die ons er mee confronteren.’

Dr. Jeroen Goudsmit en Marvin Oeben

Wettelijke maatregelen schieten tekort

Zo bekeken vormt de mens zelf de grootste bedreiging voor de geloofwaardigheid van het algoritme. Zeker als vooroordelen in algoritmen een eigen leven gaan leiden en als neutrale uitkomsten worden gepresenteerd. Daardoor wordt het steeds moeilijker om ze te identificeren en als ongewenste uitwassen te verwijderen. ‘Het herkennen van vooroordelen blijft vooralsnog hoofdzakelijk mensenwerk’, beamen Goudsmit en Oeben. ‘Dat staat eigenlijk loodrecht op het doel van de algoritmen. Op zich is het dan ook begrijpelijk (en verleidelijk) om te vragen om wettelijke tegenmaatregelen, zoals hier en daar al gebeurt. De in mei 2018 van kracht geworden Algemene Verordening Gegevensbescherming is een stap in de goede richting om data doorzichtiger te maken. Alleen, de ontwikkeling van nieuwe of aanvullende wetgeving kan het tempo waarmee nog weer slimmere en snellere technologie zich aandient niet bijbenen. De nationaal georganiseerde jurisdictie ervan is ontoereikend in de grenzeloze digitale dimensie.’ 

Code of conduct voor controle en toezicht

Om een goede controle en toezicht mogelijk te maken, moet eerst een code of conduct worden opgesteld, vinden de data-analisten. ‘Om dit kracht bij te zetten, kan het onderdeel worden van het jaarverslag. Hierdoor kan door een audit geborgen worden dat de code of conduct ook daadwerkelijk wordt nageleefd. In de code of conduct dient voor de binnen- en buitenwereld duidelijk te worden gemaakt welke morele uitgangspunten de organisatie hanteert op het gebied van privacybescherming en de zorgvuldigheid van de gegevensverwerking, een zogenaamde algorithm fairness. Ook moet antwoord worden gegeven op cruciale vragen als: begrijpen we waarom onze algoritmen een beslissing maken? Weerspiegelen de uitkomsten onze normen en waarden? Waar liggen voor deze beslissingen de grootste risico’s, voor ons als organisatie en de samenleving als geheel? Basisvoorwaarde is rekening houden met disparate impact: als er significante verschillen in uitkomsten zijn tussen ogenschijnlijk vergelijkbare groepen, moeten er onmiddellijk alarmbellen afgaan.’

Contact

Jeroen Goudsmit
Manager Forensic Services, PwC Netherlands
Tel: +31 (0)88 792 30 49
E-mailadres

Marvin Oeben
Senior Associate, PwC Netherlands
Tel: +31 (0)88 792 70 32
E-mailadres

Volg ons