'Computercode van de gemeente verdacht alleenstaande Rotterdamse moeders vaker van bijstandsfraude'
Als je een vrouw bent in de bijstand, alleen voor je kinderen moet zorgen, gezondheidsproblemen hebt, de taal niet goed spreekt en er volgens gemeenteambtenaren in Rotterdam ook nog niet ‘netjes verzorgd’ uitziet, dan was de kans de afgelopen jaren groot dat je een brief op de mat kreeg: je moest op gesprek komen om je uitkering te controleren. Niet omdat er iets niet klopte, maar omdat een computer had gezien dat jij wel erg lijkt op iemand die eerder fraudeerde.
Een groep onderzoeksjournalisten dook de afgelopen jaren in dit algoritme dat de gemeente gebruikte om fraude met de bijstandsuitkering op te sporen. Rotterdam gebruikte het ‘risico-inschattingsmodel‘ van 2018 tot 2021.
Mensen die een hoge score kregen, moesten zich bij de gemeente melden voor een heronderzoek. De vraag: heb jij nog wel recht op het geld dat je krijgt? Alle bankafschriften, bezittingen en aankopen van een paar maanden werden onder de loep genomen, op zoek naar iets wat misschien niet klopt.
Het computermodel voorspelde simpel gezegd hoe groot de kans was dat iemand fraudeerde. Om dat rekensommetje te kunnen maken, werd het algoritme eerst gevuld met de kenmerken van mensen bij wie in het verleden iets mis was met de uitkering. Mensen die bijvoorbeeld te veel bijstand kregen, of bewust of onbewust iets voor de gemeente verzwegen.
Vervolgens ging het algoritme die kenmerken vergelijken met mensen die op dit moment een uitkering krijgen. Iedereen kreeg een score van 0 tot 1, op basis van ruim 300 kenmerken. Uiteindelijk kwam er een lijst uit van een paar honderd mensen die op gesprek moesten komen, omdat het algoritme ze aanwees als ‘risico’. Niet omdat ze fraudeerden, maar omdat ze volgens het computermodel veel dezelfde kenmerken hadden als mensen die eerder waren betrapt op fraude of fouten met hun uitkering.
Was dat algoritme wel eerlijk? Onderzoeksjournalisten van OPEN Rotterdam, Vers Beton en Lighthouse Reports kwamen erachter dat bepaalde persoonlijke kenmerken ervoor zorgden dat iemand ineens een hogere score kreeg. Vaak kenmerken waar iemand niets aan kan doen. Zo vormde een vrouw volgens het algoritme een groter risico dan een man in verder precies dezelfde situatie. Als ze gescheiden is, steeg ze weer een paar duizend plekken omhoog op de frauderisicolijst. Ook gezondheid, woonsituatie en taalbeheersing hadden invloed op het risicocijfer.
Spelletje verkocht via Marktplaats
De Rotterdamse platformen Vers Beton en OPEN Rotterdam spraken met een jonge, alleenstaande moeder die al haar bankafschriften van de afgelopen drie maanden moest meenemen op het controlegesprek. De gemeenteambtenaar vroeg streng naar een bijschrift van 17 euro. Ze had dat overgemaakt gekregen omdat haar zoontje via Marktplaats een spelletje had verkocht. De gemeenteambtenaar dreigde dat haar uitkering zou worden teruggevorderd als ze zoiets nog een keer zou doen.
Een andere gescheiden, chronisch zieke, oudere moeder ervoer zo’n controlegesprek als ‘beangstigend en vernederend’. Haar broer moest schriftelijk verantwoorden dat hij haar 150 euro kado had gedaan voor haar verjaardag. Ze werd uiteindelijk niet gekort op haar bijstand, maar dat bleef voor deze vrouw maandenlang onduidelijk.
Oordelende algoritmes
Een algoritme kan waardevolle dingen uitrekenen of adviseren op basis van gegevens uit het verleden. Zo raadt Netflix films of series aan op basis van wat je eerder keek. Maar zodra een algoritme moet berekenen of mensen misschien iets verkeerd doen, gaat het vaak mis. Een bekend voorbeeld is de Toeslagenaffaire. Ook daar werden mensen verdacht gemaakt op basis van kenmerken die ze hadden. Ze moesten daardoor zelfs - zo bleek later - onterecht heel veel geld terugbetalen terwijl ze daar gewoon recht op hadden.
Het computermodel van Rotterdam keek niet of mensen in de bijstand zich wel of niet aan de regels hielden. Het vertelde de gemeente wie op fraudeurs leken. Daardoor werden sommige groepen vaker gecontroleerd dan andere.
Controles zijn vervelend en stressvol
Als je arm en kwetsbaar bent, dan zijn brieven van de gemeente of de Belastingdienst vaak al eng en stressvol. Zeker als je niet weet of je iets verkeerd hebt gedaan.
De controle op bijstand is erg streng en de toon is hard. Alle papieren moeten op tafel en je moet elke euro op je rekening kunnen uitleggen. Alleen al zo’n controlegesprek is bijzonder vervelend, ook als blijkt dat je niets verkeerd hebt gedaan.
Het algoritme discrimineerde
Volgens de wet mag je mensen niet discrimineren op basis van geslacht, leeftijd, gender of afkomst. Maar dit algoritme maakte wél onderscheid op deze kenmerken. Niet direct op afkomst, maar met een omweg wel op taalbeheersing. Alles bij elkaar wees het algoritme vooral mensen aan die in een kwetsbare situatie zitten. Zoals jonge, alleenstaande moeders en mensen die slecht Nederlands spreken.
Het computermodel gebruikte ook kenmerken die gekleurd zijn. Bijvoorbeeld hoe goed iemand Nederlands spreekt of hoe verzorgd iemand eruit ziet. Dat is niet objectief, het is maar wat je nette kleding noemt.
Geen goed beeld van de werkelijkheid
Om een goede berekening te kunnen maken, moet een computermodel een goed beeld van de werkelijkheid hebben. De gegevens die je erin stopt, moeten niet gekleurd of onvolledig zijn. Dat was bij dit algoritme hoogstwaarschijnlijk wel het geval, zagen de onderzoekers.
Als je een computer bijvoorbeeld alleen maar fraudeurs uit Spangen laat zien, zal het niet snel iemand uit Crooswijk als risico aanwijzen.
Daarbij kreeg het algoritme ook nog te weinig informatie om goed ingewikkelde verbanden te leggen. Volgens een vooraanstaande computerwetenschapper waagde het algoritme eerder een gokje dan dat het een betrouwbare berekening maakte. Mensen werden dus op het matje geroepen omdat een computer gokte dat ze misschien wel fraudeerden.
Niet doorzichtig genoeg
De gemeente Rotterdam stopte in 2021 met dit algoritme, vanwege een kritisch rapport van de Rekenkamer en een boze gemeenteraad. Het plan is om met een betere versie te komen, maar het blijkt lastig om een algoritme te maken dat geen vooroordelen heeft én helemaal doorzichtig is. Dat laatste wil zeggen dat de gemeente Rotterdam en de mensen zelf altijd moet snappen waarom het computermodel iemand aanwijst als mogelijk fraudeur.
Wel gaf de gemeente de journalisten voor dit onderzoek volledig toegang tot het algoritme en de gegevens waarmee het algoritme werd gevoed.
Om goed te werken, moeten dit soort computermodellen doorzichtig zijn. Het moet voor iedereen duidelijk zijn waarom de een wel en de ander niet wordt geselecteerd, ook voor de mensen om wie het gaat.
Volgens de gemeente Rotterdam was het doel van dit alles niet per se het vinden van fraude. Het zou ook in het belang van bijstandsgerechtigden zijn om fouten zo snel mogelijk recht te zetten en te voorkomen dat iemand later ineens veel moet terugbetalen.