Weg met algoritmen in de sociale zekerheid!

(Afbeelding van de website van de gemeente Amsterdam.)

Onlangs heb ik als medewerker van de Bijstandsbond gesproken met een journalist van Lighthouse Reports. Zij was helemaal vanuit Los Angeles naar Amsterdam gekomen om onderzoek te doen naar de “slimme check” die de gemeente Amsterdam wilde invoeren bij potentiële bijstandsgerechtigden die een uitkering aanvragen. Ze werkt samen met een journalist van dagblad Trouw om enkele artikelen te schrijven, die over ongeveer twee maanden gepubliceerd gaan worden. Een Engelstalig artikel zal verschijnen op de website MIT Technology Review.

De “slimme check” was een algoritme waarbij vijftien kenmerken van een bijstandsaanvrager in de computer werden ingevoerd. Het algoritme moest dan bepalen of er een vergroot risico is op fraude, en zo ja, dan moest in die gevallen een uitgebreider onderzoek plaatsvinden. De gemeente Amsterdam heeft besloten om die “slimme check” voorlopig niet in te voeren, omdat er teveel fouten in het systeem zitten. Lighthouse Reports is geïnteresseerd in de “slimme check” omdat men aan het onderzoeken is of die algoritmen sowieso wel geschikt zijn om in te voeren in het bovenstaande. Is er eigenlijk wel een systeem mogelijk waarin geen fouten zitten? Daarvoor heeft men ook het algoritme onderzocht dat in Rotterdam functioneerde. Naar zeggen van de journaliste was dat nog veel slechter was dan het Amsterdamse.

De journaliste stelde ons een uur lang vragen. Wij hebben uitgelegd hoe de Bijstandsbond werkt, hoe het sociale zekerheidssysteem in Nederland in elkaar zit en welke problemen we op het spreekuur tegenkomen. Wat betreft de invoering van ict (informatie- en communicatietechnologie) brachten we naar voren dat we op het spreekuur vaak worden geconfronteerd met mensen die niet digitaal vaardig zijn en die bijvoorbeeld geen online formulier kunnen invullen. Dat zijn er in Amsterdam naar onze schatting duizenden in de bijstand. Daar komt nog bij dat veel mensen analfabeet of laaggeletterd zijn. Die mensen, van wie er velen in de bijstand zitten, kunnen er al helemaal niet mee omgaan. De overheid, maar ook grote bedrijven waarvan je afhankelijk bent, zoals de ziektekostenverzekeringen, de banken en de energiemaatschappijen, voeren een beleid waarbij je onder druk wordt gezet om alles digitaal af te handelen en waarbij mensen die dat niet kunnen, worden geconfronteerd met lange wachttijden aan de telefoon. Soms is men telefonisch helemaal niet bereikbaar, terwijl de instantie moeilijk doet over het verstrekken van fysieke formulieren. De leefwereld van bijstandsgerechtigden, arbeidsongeschikten en baanlozen kwam tijdens het interview met de journaliste ook meer in het algemeen ter sprake.

Tegen invoering van algoritmen

Zij vroeg ons ook wat wij van het algoritme vonden. Daarop hebben we het volgende geantwoord. Wij zijn tegen de invoering van algoritmen. In de eerste plaats is de invoering overbodig, want de sociale recherche en de handhavers krijgen veel tips binnen, vooral van naaste familie en naaste buren, zoals een sociaal rechercheur mij ooit eens vertelde. En veel van die tips worden terzijde gelegd, omdat men geen tijd en menskracht heeft om het allemaal te onderzoeken. Bovendien zijn veel van die tips loos alarm, en er gaat veel tijd in zitten om dat allemaal te constateren, uiteindelijk. Maar de sociale diensten zijn goed op de hoogte van fraude. Je hoeft dan niet ook nog eens een algoritme in te voeren om de controle nog scherper te maken.

In de tweede plaats zijn algoritmen vaak discriminerend en leveren ze hits op van mensen die als verdacht worden geregistreerd, terwijl er niets aan de hand is. Je krijgt dan een Big Brother is watching you-systeem, waarin ze alles van je weten. Door de vele ingewikkelde regels die voor minima in het algemeen en bijstandsgerechtigden in het bijzonder gelden, maakt iedereen wel eens een foutje, zoals een vraag verkeerd beantwoorden op de vaak ingewikkelde formulieren, en dan word je door die algoritmen meteen aan de schandaal genageld.

Sociale ongelijkheid

In dit verband brachten we het Inlichtingenbureau naar voren, die door koppeling van databanken alles van je weten. In de derde plaats bevorderen algoritmen sociale ongelijkheid. Mensen aan de ‘onderkant’ van de samenleving, die afhankelijk zijn van de instanties, worden streng gecontroleerd, terwijl de ‘bovenlaag’ van rijke mensen niet wordt gecontroleerd. Of, als ze tegen de lamp lopen, een dure advocaat kunnen inhuren om er onderuit te komen. En soms is verrijking in officiële en formele zin helemaal niet illegaal, bijvoorbeeld bij speculatie, terwijl het in mijn ogen toch diefstal is.

Wij brachten bij al die ict-systemen het toekomstige schrikbeeld naar voren dat je door invoering van AI-systemen straks, als je om hulp vraagt, geconfronteerd wordt met een robot die de aanvraag afhandelt. Nu al worden robots gebruikt in telefoonsystemen, waarbij je, als je belt, een robot aan de telefoon krijgt. Aan die robot moet je dan het probleem en de daaraan gekoppelde vragen uitleggen. Die robot geeft dan antwoord en verbindt je soms niet door. Of de robot heeft het verkeerd begrepen en je wordt met de verkeerde afdeling verbonden. Als je een beetje moeite hebt om je probleem en vraag in steekwoorden te formuleren, dan word je door zo’n robot het bos ingestuurd. Of de robot meldt: ”Ik begrijp u niet”. De gemeente Amsterdam bijvoorbeeld heeft zo’n systeem. Wij zijn benieuwd wat de journaliste van Lighthouse Reports en dagblad Trouw met de interviews gaan doen.

Piet van der Lende

Dit artikel is eerder verschenen op de site van de Bijstandsbond.)