Waarom jaarlijks ‘functioneringsgesprek’ met AI broodnodig is en reden kan zijn voor ‘ontslag’
Wie controleert of kunstmatig intelligente systemen naar behoren werken? AI-systemen zouden elk jaar een verplicht ‘functioneringsgesprek’ moeten krijgen, vindt Iris Muis van de Universiteit Utrecht. „Net als gewone werknemers.”
Kunstmatige intelligentie (AI) sijpelt binnen in de werkomgeving en neemt geruisloos taken over van mensen. Muis: „Dat merkten de NVWA, de Nederlandse Voedsel- en Warenautoriteit, en de RDI, de Rijksinspectie Digitale Infrastructuur, in de domeinen waarop zij toezicht houden. Voor de NVWA is dat het dierenwelzijn op boerderijen en in slachthuizen. De RDI houdt toezicht op de telecomsector. Maar hun inspecteurs kunnen AI momenteel niet goed beoordelen.” Iris Muis leidde een tweejarig onderzoeksproject van de universiteit om hiervoor een oplossing te vinden.
Wat komen de toezichthouders tegen?
„Neem een inspecteur die slachthuizen bezoekt. Hij kijkt hoe het personeel omgaat met de dieren. Slachthuizen zetten echter steeds vaker AI in om taken van medewerkers over te nemen. Bijvoorbeeld om de toestroom aan dieren in goede banen te leiden. Daarvoor hadden ze eerst vijf medewerkers nodig; nu drie en een camerasysteem met AI.
Als een inspecteur in een slachthuis komt, bevraagt hij de medewerkers en gaat hij na hoe zij met de dieren omgaan. Maar dat camerasysteem met AI, tja, wat moet hij daarmee? Dat is veel moeilijker. Werkt dat wel goed? Stel dat het AI-systeem alarm slaat: let op, met dat dier gaat het niet goed; wat wordt daar dan mee gedaan? Gaat er dan een medewerker op af? Of gaat het signaal verloren in de drukte van zo’n slachthuis en wordt er eigenlijk helemaal niet op gelet?
Toezichthouders worstelden met de vraag: hoe houden we toezicht op AI? Daar komt ons idee van een jaarlijks functioneringsgesprek vandaan.”
Waarom is hiervoor gekozen?
„AI is best ingewikkeld. We zochten naar handvatten om er grip op te krijgen. Het is vreemd dat de medewerkers elk jaar een functioneringsgesprek krijgen, en een systeem dat hun taken overneemt niet. Het zou logisch zijn wanneer we aan AI dezelfde eisen stellen als aan werknemers.”
Dus ook een sollicitatiegesprek?
„Ja, en dat gebeurt al. De meeste bedrijven onderwerpen AI-systemen voordat ze aan het werk gaan aan een toets. Die zou je kunnen vergelijken met een ‘sollicitatiegesprek’.”
En dan…
„…gebeurt er vaak niks meer om het functioneren van AI te bewaken. In de academische literatuur wordt gezegd dat je zo’n sollicitatiegesprek of initiële toets elk jaar zou moeten herhalen. Maar dat is eigenlijk een te zwaar middel. Ik stuur ook niet elk jaar opnieuw een cv en motivatiebrief naar mijn leidinggevende. Dus de NVWA, de RDI en onze onderzoeksgroep zochten naar een minder zwaar instrument.”
Een functioneringsgesprek is dus raadzaam. Wat houdt dat in?
„Het is een checklist waarmee we de prestaties van AI beoordelen. We willen ook weten of het AI-systeem in de achterliggende tijd nieuwe taken heeft gekregen. Zo ja, hoe functioneert het dan? Soms heb je te maken met zelflerende AI. Die is anders dan de AI die een jaar geleden in gebruik is genomen. Ook vraag je of zich een incident heeft voorgedaan. Zo ja, hoe kwam dat? En hoe is daarmee omgegaan? Ten slotte is persoonlijke ontwikkeling een onderdeel van een functioneringsgesprek. Als ik op functioneringsgesprek kom bij mijn leidinggevende, is de standaardvraag: welke cursus of training wil je nog gaan volgen om jezelf te verbeteren? Daarop moet je AI ook bevragen. Mogelijk is het AI-systeem achterhaald en is er een nieuw systeem dat de taak beter doet.” De ontwikkelingen op dit gebied gaan supersnel. Het functioneringsgesprek met AI volgt dus vrijwel dezelfde structuur als een normaal functioneringsgesprek.
Wat is het doel van zo’n functioneringsgesprek?
„Uiteindelijk willen we slechte AI-systemen uitbannen. Met de functioneringsgesprekken bouwen bedrijven een AI-dossier op; een soort ‘personeelsdossier’. Een AI-systeem dat niet goed functioneert, moet op een gegeven moment worden ‘ontslagen’.”
Wie gaat het functioneringsgesprek met AI voeren?
„Dat moet de komende tijd duidelijk worden. In principe gebruiken bedrijven het functioneringsgesprek intern. De verantwoordelijke binnen het bedrijf vult het verslag in. Het bedrijf kan dat gebruiken om te rapporteren aan de toezichthouder. Het is ook mogelijk dat de toezichthouder zelf het verslag invult.”
Is het al getest bij bedrijven?
„Nee, wel op twee AI-systemen van het NFI, het Nederlands Forensisch Instituut. Degenen die daar verantwoordelijk waren voor het gebruik van de AI-systemen vulden de verslagen in. Dat ging goed. Het kostte hun een half uur. Dus dat is ongeveer even lang als gewoon functioneringsgesprek. Ik vind het fijn om op te merken, want het laatste wat we willen is de administratieve last voor bedrijven verzwaren.”
Wat vinden de bedrijven ervan?
„Dat ligt een beetje lastig. Overheidsinstanties werken volop mee. We hebben ook een aantal commerciële bedrijven benaderd. Maar het was een beetje lastig om daar voet aan de grond te krijgen. Ze bekeken ons met argusogen, omdat wij samenwerkten met twee toezichthouders. Die bedrijven dachten: straks blijkt dat wij iets niet op orde hebben, zonder dat we kwaadwillend zijn. En dan straft de toezichthouder ons direct af. Voor ons was dat jammer, maar we hebben er wel begrip voor.
We merken dat vooral overheidsorganisaties hun zaakjes goed op orde willen hebben. Ook door de toeslagenschandalen natuurlijk. Die willen zoiets echt niet meer meemaken. Bedrijven lopen op dit gebied behoorlijk achter. Het zou daarom goed zijn als het functioneringsgesprek voor AI, dat nu nog vrijblijvend is, een min of meer verplichtend karakter krijgt. Zodat ook die bedrijven dat extra zetje krijgen om hieraan mee te werken.”
Wie is aansprakelijk als zo’n ‘gesprek’ ernstige onvolkomenheden aan het licht brengt?
„Dat is niet eenvoudig. Bij AI heb je te maken met een keten van ontwikkelaars, importeurs, leveranciers en bedrijven die er een toepassing omheen bouwen. Een kant-en-klaar AI-systeem wordt ingekocht door een bedrijf, dat daaromheen ook een toepassing kan bouwen. Ze hebben allen dus een gedeelde verantwoordelijkheid. Maar hoe is die verdeeld? Er komt Europese wetgeving, de AI-Act, die dit in goede banen gaat leiden. Daarin staat dat de gebruiker van zo’n AI-systeem de uiteindelijke verantwoordelijke is. Hij zet het in en moet daarover verantwoording afleggen.”
_Toch blijft dat wringen. Neem bijvoorbeeld de autonome auto. De bestuurder rijdt mee, maar is wel de eindgebruiker. In hoeverre kun je die verantwoordelijk stellen als er een ongeluk gebeurt? _
„Dat blijft een heel lastige kwestie.”
Moet dan elke eigenaar van een autonome auto een functioneringsgesprek hebben met zijn auto?
„Hoever moet je gaan? Ik zou het liefst zien dat in de koopovereenkomst van zo’n auto een clausule is opgenomen waarin staat dat de toegepaste AI voldoet aan alle eisen die de koper ervan mag verwachten. Maar de manier waarop je die auto gebruikt, blijft natuurlijk nog steeds jouw verantwoordelijkheid. Als je met opzet tegen het verkeer in gaat rijden en er gaat iets mis; dan kun je de schuld niet geven aan de fabrikant van die auto.
Wordt AI door de functioneringsgesprekken niet gelijkgeschakeld met een menselijke werknemer?
„We hebben natuurlijk niet voor niets de analogie gebruikt met het functioneringsgesprek. Feit is dat AI steeds meer taken overneemt van mensen. Het onderscheid tussen mens en machine gaat vervagen.”
Wie zijn straks de baas?
„Dat blijven mensen; die worden niet afgedankt. Maar hun taak verandert. Je moet kritisch blijven op het functioneren van AI. Dat is eigenlijk mijn belangrijkste boodschap. AI begrijpt niets; het loopt een serie algoritmes af. Daarom is zo’n functioneringsgesprek broodnodig.”