Wat als de computer beslist: je krijgt geen hypotheek?
Met kunstmatige intelligentie loopt niet alles in de samenleving op rolletjes. De belastingaffaire en de nasleep ervan is wel het bekendste voorbeeld dat het enorm mis kan gaan. Met zijn Delftse Digital Ethics Centre wil Jeroen van den Hoven zulke toestanden helpen voorkomen.
Is het toepassen van techniek in plaats van menselijke intelligentie wel in alle gevallen ethisch verantwoord? Om die vraag draait het volgens Van den Hoven, hoogleraar ethiek van de techniek aan TU Delft. „Ons fundamentele onderzoek daarnaar is op wereldschaal succesvol. De kennis over de ethische kanten van kunstmatige intelligentie was er wel, maar niet geclusterd op één plek.” Het was aanleiding voor de hoogleraar om het Digital Ethics Centre te openen.
De ethische kant van kunstmatige intelligentie en digitalisering gaat vooral over eerlijkheid, veiligheid en transparantie. Is dat wel mogelijk wanneer alle betrokken partijen hun eigen belangen hebben?
„Computertechniek en data worden overal gebruikt. De belastingaffaire laat zien hoe erg het mis kan gaan. Door een computeralgoritme te koppelen aan een verzameling gegevens zijn duizenden mensen financieel en sociaal gedupeerd. Daardoor zijn mensen wakker geschrokken. Geregeld krijgen we nu de vraag: denk eens met ons mee.
Het UWV zei bijvoorbeeld: „Wij willen geen tweede Belastingdienst worden.” Zij hebben de wettelijke taak om alleen die werklozen te helpen die recht hebben op ondersteuning. Het geld moet dus op de goede plek terecht komen. Dat vraagt om een verantwoorde methode om kunstmatige intelligentie in te zetten.
Nederlandse banken gebruiken kunstmatige intelligentie om gevallen van witwassen of fraude te onderscheppen. Ze willen kunstmatige intelligentie en data op een verantwoorde manier inzetten, en ondertussen de privacy van hun klanten respecteren.”
Welke handvatten geeft u hun daarvoor?
„Vooropgesteld, het Digital Ethics Centre blijft onafhankelijk en moet de vrijheid hebben om te zeggen: „Stop!” wanneer het niet goed gaat. We zijn een kritische luis in de pels. We denken mee over het gebruik van computermodellen en de verzamelde data, waarmee instellingen hun taken uitvoeren. We hebben al veel gewonnen als ze zich bij het gebruik van de techniek bewust zijn van de risico’s.”
Betekent de kernbegrippen transparantie, eerlijkheid en veiligheid in een verdeelde samenleving voor iedereen hetzelfde?
„Wij baseren ons op de westerse ethiek. We vallen steeds terug op fundamentele ethische beginselen, zoals gelijkheid, rechtvaardige inrichting van de maatschappij, autonomie, respect, zelfbeschikking, privacy, solidariteit en het geven van rekenschap.”
Wat betekent dat voor specifieke gevallen?
„Het UWV beoordeelt bijvoorbeeld met kunstmatige intelligentie of mensen wel solliciteren. De politie houdt mensen op straat aan die zich verdacht gedragen. Zouden ze daarbij een algoritme gebruiken dat onbewust selecteert op ras, dan kunnen ze ter verantwoording worden geroepen. Op dat snijvlak werkt het Digital Ethics Centre.”
Hoe fungeert het Digital Ethics Centre daarin?
„Waar de ethiek de techniek raakt, brengen wij de betrokkenen met elkaar in gesprek. Daar zit altijd tijd tussen. Techneuten knutselen een wereld in elkaar zoals die volgens hen de beste is. Daarbij zijn de westerse normen en waarden onomstreden. Maar het blijkt o zo lastig om die concreet toe te passen.”
Waarom?
„Kunstmatige intelligentie ontwikkelt zich razendsnel. Dat is ook de reden dat de wetgeving en de rechterlijke macht altijd achter de feiten aanlopen. Het recht heeft tijd nodig om bindende normen te ontwikkelen. Daardoor komt er steeds meer ruimte voor ethiek in de techniek. De ethiek vult een vacuüm op: het fungeert als een voorportaal van het reguleren van de techniek per wet.”
Nog even terug naar de drie kernbegrippen. Wat betekent transparantie concreet?
„Dat is afhankelijk van de context. Geen enkele burger is geïnteresseerd in het algoritme voor het voorraadbeheer van paperclips bij het ministerie van Economische Zaken. Het wordt spannender als een kunstmatig intelligent systeem beslissingen neemt over mensen. Bijvoorbeeld of iemand in aanmerking komt voor een hypotheek. Dan wil je toch graag weten: waarom krijg ik geen hypotheek?”
En eerlijkheid?
„Dat is een enorm onderzoeksterrein. Een algoritme is getraind met data die mensen er zelf in hebben gestopt. Onbewust kan dat leiden tot vooroordelen. Neem de zoekmachine van Google. Wie iets in Google zoekt, krijgt onder de zoekbalk allerlei aanvullingen op zijn zoekterm te zien. Tik in ”Donald Trump”, en Google vult dat aan met bijvoorbeeld ”is gek”. Die suggestie is bevooroordeeld, maar het programma geeft terug wat mensen erin hebben gestopt.”
Ten slotte veiligheid.
„Een computermodel kan op dezelfde manier ook racistisch of antisemitisch worden. Vaak komen onderzoekers er pas later achter dat kunstmatige intelligentie discrimineert, doordat de resultaten dat laten zien. Daar komt bij dat kunstmatig intelligente systemen onder de motorkap vaak zo ingewikkeld zijn dat zelfs experts ze niet helemaal meer begrijpen.”