Groot maatschappelijk debat over kunstmatige intelligentie en AI

Maatschappelijk debat over kunstmatige intelligentie barst los

Geschreven door

De werking van algoritmes onder een vergrootglas

De overheid gebruikt op grote schaal voorspellende algoritmes. Dat blijkt uit een vertrouwelijke inventarisatie van de NOS onder 54 overheidsinstanties. De publieke omroep verkreeg deze informatie door een beroep te doen op de Wet Openbaarheid Bestuur. Inmiddels heeft  het VVD Tweede Kamerlid Jan Middendorp de initiatiefnota ‘Menselijke grip op algoritmes’ ingediend. De maatschappelijke discussie over artificial intelligence en de rol van algoritmes in onze samenleving lijkt hiermee ontketend.

Onder meer landelijke organisaties als de politie, de Belastingdienst en het Centrum Indicatiestelling Zorg leunen volgens de onderzoekers op voorspellende algoritmes, maar ook gemeenten, zoals Rotterdam, Tilburg en Groningen.

De overheid gebruikt bijvoorbeeld algoritmes om fraude en criminaliteit op te sporen, maar ook om in te schatten wat voor zorg iemand nodig heeft en wat de kans is dat een leerling van school gaat voordat zijn of haar opleiding is afgerond, zo blijkt uit een reportage van het NOS Journaal.

Als bijvoorbeeld bekend is welke kenmerken een voortijdige schoolverlater heeft, kan een computer met behulp van een algoritme onderzoeken wie nog meer aan die kenmerken voldoen. Computers kunnen ingewikkelde patronen immers veel beter herkennen dan mensen.

Op de vraag of ze gebruikmaken van algoritmes geeft circa 50 procent van de overheidsinstanties aan dat te doen, zo blijkt uit een verkennend CBS-onderzoek. Een deel van die algoritmes maakt gebruik van vormen van kunstmatige intelligentie. Tegelijkertijd experimenteren veel Nederlandse bedrijven met algoritmes en artificial intelligence.

Discriminatie ligt op de loer

“Bij het gebruik van voorspellende algoritmes bestaat een groot risico op discriminatie”, zo licht onderzoeker Marlies van Eck van de Universiteit Leiden desgevraagd toe. Zij doet onderzoek naar gebruik van algoritmes. “Discriminatie is inherent aan deze technologie”, aldus Van Eck tegen de onderzoekers. Zij is verbaasd over de omvang van het gebruik van algoritmes binnen overheidsinstellingen. “Ik vind het bizar dat er zoveel onder de motorkap gaande is dat we niet weten.”

Als bijvoorbeeld een politieagent bewust of onbewust mensen uit een bepaalde bevolkingsgroep vaker staande houdt, komen hun kenmerken frequenter voor in de politiestatistieken. En zo wordt een bepaalde groep buitensporig vaak gecontroleerd maar kunnen criminelen met andere kenmerken onopgemerkt blijven.

Maar ook buiten de overheid bestaat volgens de onderzoekers het risico op discriminatie. Vrijwel alle zelfrijdende auto’s herkennen mensen met een donkere huidskleur bijvoorbeeld slechter dan mensen met een lichtere huidskleur. Dat is de opvallende conclusie van een recent onderzoek. En gevaarlijk bovendien, omdat auto’s hierdoor niet goed anticiperen op getinte voetgangers.

Geheimhouding of niet?

Iedereen zou beter geïnformeerd moeten worden over het gebruik van algoritmes volgens Van Eck. “Het vindt buiten ons gezichtsveld plaats, en dat druist in tegen hoe we tot nu toe omgingen met de macht van de overheid.” Eerder oordeelde staatssecretaris Van Ark van Sociale Zaken en Werkgelegenheid juist dat overheden hun gebruikte algoritmes geheim mogen houden.

Algoritmes om bijstandsfraude op te sporen

Ook Werk en Inkomen Lekstroom (WIL), een samenwerkingsverband van gemeenten ten zuiden van Utrecht dat bijstandsuitkeringen uitkeert en fraude opspoort met algoritmes, is zich bewust van de risico’s ervan. “Het heeft de schijn van discriminatie”, aldus het samenwerkingsverband van onder meer Nieuwegein, Houten en IJsselstein.

Bestuurders in de regio Lekstroom willen in ieder geval elke schijn van discriminatie voorkomen. “Wij willen dat klanten die recht hebben op een uitkering, een uitkering krijgen, en andersom niet”, zegt Rob Esser van het Utrechtse samenwerkingsverband in het NOS Journaal. “Dat is een arbeidsintensief proces, maar met algoritmes kunnen we dat slimmer doen.” Maar juist daarbij bestaat een risico op discriminatie, betoogde ook hoogleraar ICT-recht Lokke Moerel in dezelfde aflevering van het NOS Journaal. “Het probleem is dat je gegevens uit het verleden in het algoritme stopt”, zegt Moerel. “Maar vaak zit er in die data al een bias, een vooringenomenheid.”

Geautomatiseerde besluiten

In geen van de door de NOS onderzochte gevallen leidden de algoritmes overigens tot een automatische beslissing. Zo wordt bijvoorbeeld een uitkering niet automatisch stopgezet als een algoritme dat dicteert. Uiteindelijk zit er altijd nog een ambtenaar aan de knoppen die de beslissing neemt.

Maar zijn of haar beslissing kan wel worden gestuurd door de uitkomsten van het algoritme, zegt het Centrum Indicatiestelling Zorg. “Medewerkers vinden het soms lastig af te wijken van het algoritme als de situatie van de cliënt daar om vraagt”, schrijft die instantie aan de onderzoekers.

Dat risico ziet ook de gemeente Uden, die er bewust voor heeft gekozen om geen voorspellende algoritmes in te zetten. “Het risico is te groot om data als werkelijkheid te zien”, schrijft de gemeente aan de NOS. Als data een te grote rol krijgen, “zijn er meer problemen te verwachten dan we er mee oplossen”.

Onder de motorkap

Overheden zijn volgens de NOS-onderzoekers niet altijd even open over hun gebruik van algoritmes. Als uit een algoritme van een gemeente komt rollen dat er een kans is dat jij fraudeert, en die gemeente begint een onderzoek, dan kom je vaak niet te weten dat de extra controle een gevolg is van een algoritmische beslissing. “De AVG vereist dat je transparant bent, ook als het algoritme slechts ondersteunt”, zegt ict-jurist Arnoud Engelfriet.

De Raad van State heeft in haar Ongevraagd advies over de effecten van de digitalisering voor de rechtsstatelijke verhoudingen uitgebreid aangegeven waarom overheidsinstellingen altijd moeten onderbouwen hoe zo’n beslissing tot stand is gekomen. Een door een computer gegenereerd besluit van de overheid moet nu al aan dezelfde eisen voldoen als een besluit dat door overheidsdienaren wordt genomen. Digitale besluiten moeten inzichtelijk worden gemaakt, anders kunnen ze worden vernietigd.

Algoritme-waakhond

De Tweede Kamer maakt zich ook zorgen om het gebruik van algoritmes. Onlangs diende zowel D66 als de VVD een Kamerstuk in. Volgens beide partijen moet er meer toezicht op het gebruik van algoritmes komen. D66 pleitte al eerder in een Actieplan kunstmatige intelligentie voor het instellen van een algoritme-waakhond. Een algoritme-waakhond zou elk algoritmesysteem, inclusief de datasets die aan het systeem toegevoegd worden, moeten gaan controleren. De waakhond zou ook bedrijven moeten kunnen controleren. Eerder al pleitte gemeente Amsterdam op eigen houtje voor “eerlijke” computers in de stad en het screenen van alle algoritmes, waarmee de hoofdstad enkele kritisch Kamervragen uitlokte.

Menselijke grip op algoritmes

Het VVD Tweede Kamerlid Middendorp doet nu in zijn initiatiefnota een aantal voorstellen om de menselijke grip op algoritmes te behouden. Data-analyse, kunstmatige intelligentie en de algoritmes die deze twee aansturen maken volgens Middendorp ons leven mooier, makkelijker en vrijer. We moeten volgens hem daarom in Nederland de grote mogelijkheden die algoritmes bieden, benutten.

Hoe kunnen innovatie ruim baan geven, zonder ons helemaal over te leveren aan de sturing van algoritmes?

Pleidooi voor publieke algoritme-toezichthouder

Het gebruik van algoritmes kan volgens Middendorp echter ook een keerzijde hebben omdat zij ook gebruikt kunnen worden om mensen emotioneel of financieel te benadelen of te sturen. Vaak zonder dat zij dat zelf door hebben.

“We moeten innovatie de ruimte geven, maar mensen niet, in een digitale jungle overlaten aan de sturing van algoritmes. Ook in een digitale toekomst, waarin we de enorme kansen pakken die algoritmes bieden moeten mensen online veilig zijn en in vrijheid zelf keuzes kunnen blijven maken”, aldus Middendorp, die onder meer pleit voor een specifiek algoritmetoezicht. Accountants zouden bijvoorbeeld met algoritme gebruikende instellingen moeten gaan meekijken. Daarnaast moet er volgens hem een publieke algoritmetoezichthouder komen.

Maatschappelijk debat

Gebruik van algoritmes kunnen volgens Middendorp onze grondrechten aantasten en bijvoorbeeld (1) dehumanisering, (2) discriminatie, (3) beperking keuzevrijheid, (4) kansenongelijkheid en (5) het aantasten van onze privacy veroorzaken. De snelle opkomst van algoritmes vereist daarom een maatschappelijk debat over normen en waarden in de digitale toekomst. Immers onze grondrechten moeten ook in de digitale wereld geborgd zijn.

Om menselijke grip op algoritmes te behouden is samenwerking, transparantie, bewustwording nodig. Maar ook nieuwe instrumenten die mensen weerbaar maken en een slim georganiseerd toezicht. Een concrete eerste stap daartoe is meer communicatie met de samenleving over algoritmes door de instellingen die deze gebruiken. Dat begint ermee dat instellingen zelf meer inzicht creëren in kansen, risico’s en vooral de gevolgen van de algoritmes die zij gebruiken.

Geef je mening, plaats je reactie hieronder

Daan van Beek, eindbaas van Passionned Group, gaf onlangs al zijn visie op algoritmes in een speciale uitzending van Brandpunt+. Volgens hem moeten AI en algoritmes altijd ten dienste staan van de mens. Wat is jouw mening?

  1. Mogen besluiten volledig geautomatiseerd worden genomen, of moet er altijd nog een mens aan te pas komen?
  2. Mogen overheidsdiensten en bedrijven hun algoritmes geheimhouden, of zou iedereen onder de motorkap mogen kijken?
  3. Moet er een algoritme-waakhond komen?
  4. Mensen discrimineren net zo hard als algoritmes
  1. Avatar Maatschappelijk debat over kunstmatige intelligentie barst los Daan van Beek schreef:

    Er is afgelopen week veel ophef geweest over het feit dat algoritmes zouden discrimineren. Mijn stelling is dat een algoritme dat niet discrimineert geen effectief algoritme is. Het doel van een algoritme is juist om te “discrimineren” om zo de krenten uit de pap te halen zodat je als (overheids)organisatie veel effectiever kunt handelen. Je geeft de aandacht aan die burgers, klanten, prospects, boeven, et cetera die het het hardst nodig hebben.

    Natuurlijk moet er altijd een mens aan te pas komen, al was het maar om de validiteit van het algoritme met regelmaat te toetsen. De wereld verandert natuurlijk ook steeds sneller en fraudeurs passen zich ook aan op het algoritme. Maar de mens heeft ook een limiet als het gaat om tot hoever hij of zij de beslissingen van een algoritme nog kan volgen. Zie ook volgende punt.

    Algoritmes geheim houden hoeft niet per se. Je mag er open over zijn dat je algoritmes inzet om je effectiviteit als team en organisatie te vergroten. De vraag is natuurlijk als je uitleg verlangt van een algoritme of de mens die uitleg nog kan volgen, zeker als het gaat om neurale netwerken en meer geavanceerde algoritmes zoals bij deep learning. Er zitten ook tegenstrijdigheden in algoritmes, die nemen voor jouw gevoel misschien volstrekt onlogische beslissingen. Daarnaast: een mens kan in een analyse hooguit 4-6 variabelen tegelijkertijd in ogenschouw nemen en een optimum bereiken, een algoritme kan voor honderden zo niet duizenden variabelen tegelijkertijd een optimum zoeken. Dit gaat de pet van de gemiddelde mens te boven. En in die situaties heeft het dus geen zin om uitleg te verlangen van een algoritme. Laat staan dat het zin heeft om een algoritme-waakhond op te richten.

  2. Avatar Maatschappelijk debat over kunstmatige intelligentie barst los Leo Kerklaan schreef:

    Als het verhaal achter data niet helder is, kun je ook geen goede algoritmes opstellen. Op korte termijn zou ik overheidsalgoritmes niet vertrouwen. En al zeker niet als ze ten grondslag liggen aan overheidsbesluiten waartegen niet meer in beroep gegaan kan worden. Of aan vonnissen die nog niet onherroepelijk zijn. Biases en vooroordelen sluipen niet alleen ongemerkt in het gewone leven binnen, maar ook in algoritmes.

    • Avatar Maatschappelijk debat over kunstmatige intelligentie barst los Yaron, Elmaliah schreef:

      Ik sluit me bij het standpunt van Leo aan. We zien nog te vaak dat algoritmes onbedoeld vooroordelen reproduceren.

  3. Avatar Maatschappelijk debat over kunstmatige intelligentie barst los Alex de Jong schreef:

    Toen ik het nieuws gisteren las, miste ik nog een groot onderwerp waar ik nog niks over heb gezien: datakwaliteit. Ik heb van dichtbij meegemaakt dat de interpretatie van ingevoerde data soms heel lastig is en ook vaak gewoon foutief of inconsistent. Ik geef een concreet voorbeeld. Toen een consultingfirma bij gemeente Rotterdam bezig was om de data te analyseren met programma’s zoals R, hadden ze niet zonder een sleutelfunctionaris gekund, die constant met mensen in gesprek is geweest om het verhaal achter de data te zoeken. Zonder dat verhaal is de kans echt groot dat de verkeerde conclusies worden getrokken.

  4. Avatar Maatschappelijk debat over kunstmatige intelligentie barst los Mark de Kort schreef:

    Ik denk dat we een onderscheid moeten maken voor het sociale en het fysieke domein. Onze discussie betreft het sociale domein, daar waar gedrag en motivatie de hoofdrol spelen!
    Algoritmes geven een beeld van historisch (wellicht fout) gedrag en keuzes van die ambtenaren. Dat was prima geweest als deze het ook echt snapten. Dat “snappen” zullen we eerst moeten voeden om de algoritmes in de toekomst beter en bruikbaarder te kunnen maken.

  5. De overheid dat zijn wijzelf! Wij willen regulering en vertegenwoordiging en dat laten we uitvoeren door een groep die we de naam van ‘overheid’ hebben gegeven. En natuurlijk gaat elke groep zichzelf belangrijk maken, regels stellen met allerlei gewenste en ongewenste effecten. Tot zover mijn wereldbeeld…

    Als die groep voor ons en namens ons handelt, lijkt het mij dat zij zich open opstellen over de wijze waarop zij dat (voor en namens ons) doet. Dus transparantie voor de overheid en de bedrijven die in opdracht van de overheid een maatschappelijke taak uitvoeren.

    Algoritmes discrimineren per definitie; dat is de kern van een goed algoritme. Het is de mens die er betekenis aan geeft.

    Niet een mens hoeft een besluit te nemen – de mens aan de knoppen van het algoritme is wel een charmant idee – maar welke kwaliteitseisen stellen we dan aan die mens? Beter is het om een mens verantwoordelijk te houden voor de werking van het algoritme en die eventueel op het jasje te spugen. Laten we de focus leggen op degenen die richten en niet op degenen die verrichten. Dit principe kennen we al met de toepassing van bestuurlijke verantwoordelijkheid en indien nodig het inzetten van het rechtssysteem. Maar misschien zijn er denkers die vinden dan bestuurlijke verantwoordelijkheid niet sterk genoeg is en te willekeurig wordt toegepast.

    Omdat elke groep het eigen bestaansrecht wil onderbouwen cq wil vergroten vind ik het onwenselijk om een waakhond te hebben die meer mag dan blaffen. Dus aan de ketting met die waakhond! Laten wijzelf maar goed blijven luisteren naar het geblaf.

Reageer ook op dit artikel van Eric van der Steen

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Een selectie van onze klanten

Word nu ook klant

Wil je ook klant bij ons worden? Wij helpen je maar wat graag verder met groot maatschappelijk debat over kunstmatige intelligentie en ai of andere zaken waar je slimmer van wordt.

Daan van Beek, Managing Director

DAAN VAN BEEK MSc

Managing Director

neem contact met mij op

Fact sheet

Organisaties geholpen
25935
Trainingen & workshops
25936
Deelnemers opgeleid
25937
Beoordeling klanten
8,9
Consultants & docenten
25938
Kantoren
3
Jaar ervaring
14