De ethiek van AI en big data | 5 ethische principes | Verantwoorde AI

Data ethiek: de 5 heilige principes voor verantwoorde toepassing van AI

Geschreven door

De schaduwkant van algoritmes

Zelflerende algoritmes nemen steeds vaker zelfstandig zakelijke beslissingen en dringen steeds verder ons privédomein binnen. Besluiten van overheden, creditcardmaatschappijen en banken zijn soms volledig gebaseerd op algoritmes. “Computer says no” betekent dan meestal einde discussie, omdat het algoritme verder geen uitleg of toelichting geeft. Ergens op de grensvlakken tussen IT, wetgeving en ethiek begint het te schuren en ontstaan maatschappelijke discussies.

Ethische dilemma’s concentreren zich vooral rondom principes als “fairness” (eerlijkheid), transparantie, verantwoording en “biases” (vooroordelen). Hoe staat het met de ethiek, moraal en ethisch handelen in het algoritmetijdperk? Samen met Jack Esselink, docentt bij Passionned Academy, maken we de tussenbalans op.

Hoewel er inmiddels wereldwijd tientallen gedragscodes voor het ethisch gebruik van Artificial Intelligence (AI), big data en algoritmes zijn geschreven, blijven steeds meer burgers zitten met een onbehagelijk gevoel.

Ethiek afvangen met een keurmerk?

In hoeverre worden we gestuurd of gemanipuleerd door algoritmes? Surveillance capitalism is een nieuwe term die de kritische Harvard-hoogleraar Shoshana Zuboff in dit verband gebruikt. Is het tijd voor een algoritme waakhond, of is een keurmerk voor ethisch handelen vooralsnog afdoende?

Wat is ethiek?

Ethiek is een wetenschap waarbij mensen proberen om bepaalde handelingen als goed of fout te kwalificeren. Op ethische vragen is echter geen eenduidig antwoord te vinden omdat ze vaak erg persoonlijk zijn.

Vormen van ethiek

Ethiek kan zowel descriptief als prescriptief zijn. Bij de beschrijvende (descriptieve) vorm wordt het eigen oordeel weggelaten. Bij de voorschrijvende (prescriptieve) ethiek nemen mensen ook zelf standpunten in.

Ethiek in de praktijk: toegepaste ethiek

De voorbeelden waar toegepaste ethiek om de hoek komt kijken, liggen voor het oprapen.

  • China bouwt aan een ongeëvenaard surveillancesysteem. Nu al hangen er naar schatting 200 miljoen camera’s in het land, een aantal dat rap groeit. Koploper is de stad Chongqing dat omgerekend één camera per zes inwoners heeft geïnstalleerd. Hoe zit het met de privacy?
  • De Nationale Politie experimenteert al enkele jaren met CAS, een Criminaliteit Anticipatie Systeem. Deze vorm van “predictive policing” moet voorspellen waar en wanneer misdrijven als straatroof en inbraak zullen gaan plaatsvinden. Discriminatie ligt op de loer.
  • Steeds meer banken experimenteren met AI voor een veelheid aan doeleinden. Denk hierbij aan risico-scoring gebaseerd op machine learning modellen, early warning-systemen voor witwaspraktijken en het automatiseren afhandelen van aanvragen voor leningen. Worden leningen wellicht ten onrechte geweigerd? Is er sprake van seksisme bij het beoordelen van de kredietlimiet, zoals onlangs is aangetoond bij de lancering van de nieuwe creditcard die Apple uitgeeft?
  • SyRI is niet de spraakherkenningssoftware van de iPhone, maar staat voor Systeem Risico Indicatie: een systeem van de Nederlandse overheid dat persoonsgegevens van burgers aan elkaar koppelt om verschillende vormen van fraude op te sporen. Met behulp van AI stelt zij risicoprofielen op. In hoeverre worden onschuldige burgers gecriminaliseerd?

Het rode gebied van de AI ethiek

Kortom: AI zit al in de haarvaten van onze samenleving. Maar omdat de wetgever altijd achter loopt op de realiteit, zul je het grijze gebied, daar waar AI bepaalde ethische grenzen overschrijdt, moeten zien te beteugelen. Dit proces begint met bewustwording.

Omdat de wetgever altijd achter loopt op de realiteit, zul je het grijze gebied, daar waar AI bepaalde ethische grenzen overschrijdt, moeten zien te beteugelen

Aan gedragscodes voor big data ethiek geen gebrek

Filosofen, sociologen, futurologen en antropologen buigen zich over ethische kwesties. Zelfs theologen pijnigen hun hersens. Iedereen lijkt op zoek naar praktische richtlijnen en gedragscodes voor AI en het omgaan met big data ethiek. Ondertussen trekken nerds hun agile sprintjes. Met hun ingenieursbril op schrijven zij algoritmes zonder zich ogenschijnlijk te bekommeren over de ethiek en gevolgen van hun noeste arbeid. Dat is geen onwil, maar soms zijn ze gewoon “onbewust onbekwaam”.

Raamwerk voor ethiek

Maar wat is ethiek eigenlijk en wat zijn de belangrijkste ethische principes waaraan AI moet voldoen? Luciano Floridi en Josh Cowls schetsen in de Harvard Data Science Review een helder raamwerk en beoordelen de belangrijkste gedragscodes in een “vergelijkend warenonderzoek”.

Ethisch principe 1: AI bevordert de rechtvaardigheid door vooroordelen (“biases”) aan te pakken.

Biases (vooroordelen) kunnen zich diep wortelen in mensen, data én algoritmes. Vaak gebeurt dat ook in die volgorde. Data die je opslaat is niet zo objectief als je denkt, het is de neerslag van wie wij zijn als mens. Alle impliciete waarden en vooroordelen zitten ook in de big data. Discussies over het (vermeende) discriminerende karakter van algoritmes spitsen zich toe op het begrip “fairness”, een lastig te definiëren begrip. Algoritmes zouden systematisch discrimineren en tot “unfaire” uitkomsten leiden. Het algoritme wijst mensen met een buitenlandse achternaam of een bepaalde postcode af voor een baan of lening, zo luidt de beschuldiging. Maar helaas zijn menselijke beslissingen ook niet vrij van vooroordelen. ‘If you want the bias out, get the algorithms in’, zo stelt Andrew McAfee van het MIT dan ook. Menselijke besluiten zijn bovendien moeilijk toetsbaar. Mensen kunnen liegen of onbewust discrimineren.

Ethiek bij de politie ligt gevoelig

Bij ongewenste uitkomsten zijn de onderliggende data en de gebruikte trainingsdata voor machine learning meestal de grote boosdoeners, niet het algoritme zelf. Soms is sprake van een self-fulfilling prophecy. Als de politie in bepaalde probleemwijken intensiever surveilleert, zal zij ook meer criminaliteit aantreffen en vaker poolshoogte gaan nemen. Een “silver bullet” of ”quick fix” voor biases bestaat niet, zo concluderen onderzoekers van McKinsey. Bij ethische kwesties blijft het menselijke beoordelingsvermogen van belang.

Ethisch principe 2: AI bevordert het welzijn van de mens en onze planeet

AI zou principieel ten goede moeten komen aan zoveel mogelijk burgers. Al in de bijbel (Genesis 1:28) kunnen we lezen dat God de mens opdroeg om goed voor de aarde te zorgen. Pas in de jaren negentig van de vorige eeuw kwamen de drie P’s in zwang: People, Planet en Profit, waarbij onze planeet een prominente plaats krijg. Anno 2019 is het aantal initiatieven op het terrein van het zogenoemde “AI for Good” al heel lang niet meer op twee handen te tellen. Google, Microsoft, IBM, de Verenigde Naties, de Europese Commissie en nationale overheden, ze beloven allemaal dat ze AI slechts inzetten ten faveure van de mensheid en een duurzame samenleving.

Ethiek: het is geen PR tool of marketinginstrument

Hoewel de intenties op de werkvloer meestal wel goed zijn, is er ook sprake van “greenwashing”: organisaties en overheden doen zich mooier voor met PR-praatjes. Een IT-bedrijf claimt dat ze mensenlevens redden, want een bekende hulporganisatie gebruikt immers hun software. Met een heldere visie op ethiek heeft dat niet zoveel te maken, met marketing des te meer.

Ethiek en techniek

De mogelijkheden van AI scheppen nieuwe ethische dilemma’s. Is een Chinese overheid die haar burgers wil conditioneren met een sociaal kredietsysteem wel goed bezig? Wat moeten we vinden van een superefficiënte, kostenbewuste samenleving waarin chromosoomafwijkingen leidend tot het Downsyndroom worden aangegrepen om zwangerschappen vroegtijdig af te breken? En in hoeverre zijn technologische trends als genetische modificatie, augmented reality en het transhumanisme bedreigingen? Wie wil er samenleven met een bionische supermens?

Wat kunnen we leren van de bio ethiek?

Het ontwikkelen van ethische principes voor AI staat pas in de kinderschoenen. Precedenten ontbreken. Volgens Floridi kunnen we daarom veel leren van de bio-ethiek, die zich bezighoudt met ethische aspecten van menselijke ingrepen in het leven van mensen, dieren en planten. De bio-ethiek focust zich op de biologische en medisch-technische vooruitgang.

Ethisch principe 3: AI mag burgers geen schade berokkenen

AI in het algemeen en algoritmes in het bijzonder moeten niet alleen eerlijk (‘fair”), profijtelijk, maar ook betrouwbaar, consistent en juist zijn. Mensen moeten in staat worden gesteld om algoritmes kritisch op deze eigenschappen te controleren en te verifiëren. Al eerder is door de SER in een impactstudie geïnventariseerd hoe algoritme-gedreven technologieën als big data, het Internet of Things (IoT) en artificial intelligence de grondrechten van burgers in Nederland kunnen raken. Het gaat daarbij vooral om de inbreuk op de privacy-rechten, vrijheidsrechten, gelijke behandelingsrechten en procedurele rechten. De menselijke waardigheid is soms in het geding.

Ethiek en de Grondwet

Organisaties moeten bij het ontwerpen van AI-toepassingen altijd uitgaan van het principe privacy by design en de grondrechten van de mens respecteren. De 23 Asimolar-principes zijn hierbij een goede leidraad. De transparantie en integriteit van algoritmes blijven echter voortdurend zorgpunten. Hoewel sommigen al pleiten voor een algoritme-waakhond, een toezichthouder met verregaande bevoegdheden, lijkt dat vooralsnog een brug te ver. In de tussentijd werken verschillende adviesorganisaties aan een keurmerk voor de ontwikkeling en het verantwoorde gebruik van algoritmes. Wellicht dat accountants een rol kunnen spelen door het afgeven van zogenoemde in control-verklaringen, zoals zij die nu al afgeven bij jaarverslagen.

Ethisch principe 4: AI staat in dienst van de mens en niet omgekeerd

De menselijke controle over AI is een groot goed. Mensen moeten te allen tijde zelf kunnen kiezen of en hoe zij delen van hun beslissingsbevoegdheid willen overdragen aan een AI-systeem en welke doelen zij hiermee willen bereiken. Het gaat om behoud van de autonomie, oftewel de macht om te beslissen. Het risico bij zelflerende systemen (machine learning) en neurale netwerken (deep learning) is dat de beslissingsmacht van de computer de menselijke beslissingsbevoegdheid op een gegeven moment gaat ondermijnen.

De ethiek bij beslissingen over leven of dood

Het is zoeken naar de juiste balans tussen de beslissingsbevoegdheid van mens en machine. In zijn algemeenheid moet de autonomie van het systeem zoveel mogelijk worden begrensd. De beslissingen van het systeem mogen niet onomkeerbaar zijn. Zeker niet bij beslissingen van leven of dood. Het is hierbij zaak dat de mens altijd in staat moet zijn om de beslissingsmacht weer naar zich toe te trekken. Denk aan de piloot van een vliegtuig dat op de automatische piloot vliegt, maar bij een incident weer zelf de stuurknuppel in handen neemt, om de controle weer volledig over te nemen.

Ethisch principe 5: Algoritmes moet je kunnen uitleggen (“explainable AI”)

Slechts een fractie van de beroepsbevolking is momenteel betrokken bij de ontwikkeling van geheimzinnige algoritmes die het dagelijks leven van bijna de hele wereldbevolking ingrijpend veranderen. Ingewikkelde algoritmes die al jaren worden gebruikt en voortdurend aangepast (zoals bijvoorbeeld Google’s PageRank) zijn nauwelijks meer door mensen te doorgronden. Het is daarom niet vreemd dat de roep om transparantie, verantwoording, interpreteerbaarheid en begrijpelijkheid steeds luider klinkt als algoritmes en ethiek ter sprake komen. Open source kan die transparantie vergroten.

Wie is verantwoordelijk voor de data ethiek?

Voor de meeste mensen zullen algoritmes echter altijd geheimzinnige black boxes blijven waarvan zij niets begrijpen. Toch is de behoefte aan transparantie onverminderd groot en zal deze alleen maar toenemen. Organisaties hoeven uiteraard concurrentiegevoelige informatie niet zomaar prijs te geven. Bescherming van intellectueel kapitaal is in onze samenleving immers ook een groot goed. Maar onafhankelijke experts moeten wel in staat worden gesteld om een algoritme bij wijze van spreken binnenstebuiten te keren en enkele basisvragen te beantwoorden.

Ethiek op het werk

Zo betreedt de ethiek ook de werkvloer. Hoe werkt het algoritme? Zijn de uitkomsten van het algoritme verklaarbaar? Wie is op het werk verantwoordelijk voor de manier waarop het algoritme werkt? En wie is aanspreekbaar als het algoritme leidt tot een ernstig incident of een ongewenste, schadelijke uitkomst? En last but not least, kan diegene achteraf dan ook nog verklaren waarom het algoritme niet naar behoren werkte? Dit zijn principiële vragen.

Conclusie

Hoewel sommige wetenschappers daar anders over denken en AI engines een set aan ethische waarden willen meegeven, kun je ethiek niet overlaten aan een computer. Mensen van vlees en bloed moeten bewaken dat algoritmes op een ethische manier worden ingezet ten faveure van maatschappelijk verantwoorde doelen. Eén ding is zeker, organisaties die AI-toepassingen ontwikkelen op basis van het principe “ethics by design” hebben een hogere gunfactor omdat afnemers ze vertrouwen en dat betaalt zich uiteindelijk uit in klinkende munt.

Reageer op dit artikel van Eric van der Steen

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Een selectie van onze klanten

Word nu ook klant

Wil je ook klant bij ons worden? Wij helpen je maar wat graag verder met ai ethiek of andere zaken waar je slimmer van wordt.

Daan van Beek, Managing Director

DAAN VAN BEEK MSc

Managing Director

neem contact met mij op

Fact sheet

Organisaties geholpen
29364
Trainingen & workshops
29365
Deelnemers opgeleid
29366
Beoordeling klanten
8,9
Consultants & docenten
29367
Kantoren
3
Jaar ervaring
14