Gaan robots beslissen over leven en dood?

Kunstmatige intelligentie
Israël bouwt geavanceerde drones zoals deze IAI Harop. Het onbemande vliegtuig kan 7 uur surveilleren, zelfstandig een doel uitkiezen en daarop als een kruisraket neerstorten. In militaire taal heet zo’n wapen ”loitering munition”. beeld IAI

Zacht zoemend cirkelt een grijs vliegtuigje hoog boven het gevechtsterrein in Syrië. Plotseling duikelt het omlaag en raast naar beneden. Het boort zich in een radarsysteem op de grond. Een felle explosie maakt van het brok Syrische techniek een rokende puinhoop.

De Harpy, een Israëlische drone, kan uren rondcirkelen boven een doelgebied. Zonder dat er een mens aan te pas komt, kan hij besluiten om een vijandelijke radarinstallatie uit te schakelen. Zodra zijn sensoren radarstraling meten, blijkt de Harpy niet alleen een onbemand vliegtuig, maar ook een geavanceerde antistralingsraket te zijn.

Robot1

Het document kan niet getoond worden, omdat het mogelijk is dat het cookies plaatst die volgens uw cookie-instellingen niet toegestaan zijn.
Sta alle cookies toe om het document te tonen en ververs dan de pagina.

Zo ver als de Harpy zijn de meeste onbemande militaire vliegtuigen nog niet. Maar drones hebben in de oorlogvoering een ware revolutie veroorzaakt, constateert Kees Homan, gepensioneerd generaal-majoor en oud-onderzoeker bij Instituut Clingendael in Den Haag. „Al worden de meeste nog steeds op afstand bestuurd.”

Nederland beschikt over onbewapende drones voor verkenning, inlichtingen en surveillancetaken. Maar een land als de VS gebruikt al jarenlang bewapende drones, vooral voor het uitschakelen van terroristen. In de woestijn van Nevada neemt nog steeds een militair achter toetsenbord en joystick de beslissing om een terrorist op te blazen. Maar hoe zit dat wanneer autonome drones hun intrede doen?

Robot2

Het document kan niet getoond worden, omdat het mogelijk is dat het cookies plaatst die volgens uw cookie-instellingen niet toegestaan zijn.
Sta alle cookies toe om het document te tonen en ververs dan de pagina.

Kunstmatig intelligente drones hoeven op zich geen bezwaar op te leveren, zolang ze autonoom kunnen taxiën, opstijgen en landen, navigeren of bijtanken in de lucht, schreven onderzoekers van vredesorganisatie PAX vorig jaar in het rapport ”Don’t be evil?”.

Maar wanneer zogeheten autonome wapensystemen hun intrede zullen doen, die zelfstandig vijandelijke soldaten of voertuigen selecteren en uitschakelen, ontstaan er ethische problemen, stelt het rapport. Dan beslissen kunstmatig intelligente algoritmes over leven en dood, zonder tussenkomst van een mens. „De killerrobots komen er snel aan”, liet Daan Kayser, projectleider Autonome Wapens van PAX, vorig jaar weten in vakblad De Ingenieur.

Offensief

Er bestaat nog steeds geen internationaal geaccepteerde definitie voor autonome wapensystemen. Onderzoeker Merel Ekelhof omschreef ze in vakblad Militaire Spectator als „offensieve wapensystemen die na activering, zonder menselijke controle, doelwitten kunnen selecteren en uitschakelen.” Een autonoom wapen zal dus na activering volledig zelfstandig kunnen handelen, licht Homan toe. Een mens kan dan niet meer ingrijpen om de aanval te stoppen.

Ook zogeheten ”human-supervised” autonome wapens horen hierbij, stelt Esther Chavannes, strategisch analist bij The Hague Centre for Strategic Studies (HCSS). „Dat zijn wapensystemen die zelfstandig functioneren, maar waarbij mensen nog kunnen ingrijpen.”

Ekelhof benadrukt dat er onderscheid bestaat tussen autonome en automatische wapens. Zo gebruikt de Nederlandse marine het volautomatisch snelvuurkanon Goalkeeper tegen binnenkomende raketten. Dit systeem volgt doelen, onderscheidt vriend en vijand en onderschept raketten zonder menselijke inbreng. Toch is dit geen autonoom, maar een automatisch systeem. „Maar de grens tussen automatische en autonome systemen is dun.”

Deskundigen onderscheiden drie categorieën in de autonomie van wapens, aangeduid met de Engelse termen ”in the loop” (semi-autonoom), ”on the loop” (autonoom met menselijke supervisie) en ”out of the loop” (volledig autonoom). De eerste categorie gaat over wapens zoals kruisraketten, die autonoom door een mens geselecteerde doelen aanvallen. De tweede soort zijn wapens die voorgeprogrammeerd een bepaalde soort doelen aanvallen die al dan niet door de mens zijn geselecteerd. Ten slotte is er de derde categorie autonome wapens, die zelf doelen kunnen selecteren en aanvallen. Het aanvalsgebied en het type doel zijn dan nog wel door mensen bepaald. De Israëlische Harpy is een van de eerste in deze categorie.

De mens heeft zelfs bij de laatste categorie nog steeds een vinger in de pap bij de keuze van het doel. Homan spreekt daarom van een zogeheten ”wider loop”. „Voorafgaand aan de selectie van het doel en de aanval hebben immers mensen het besluit genomen om het wapen in te zetten. Ook hebben mensen het wapen geprogrammeerd. Hierbij zijn er ook beslissingen genomen over de selectie van doelen.”

Zorgen

Toch maken mensen zich hier zorgen over, weet Chavannes. „Dergelijke wapens gelden technisch gezien nog niet als autonoom – het systeem opereert volgens vooraf ingeprogrammeerde regels en ‘denkt’ zelf niet. Maar het kan tijdens een specifieke missie wel zelfstandig besluiten om een mens te doden, zonder dat een mens dit besluit nog hoeft te bekrachtigen.”

Een volstrekt autonoom handelend wapen is daarom volgens deskundigen zoals Ekelhof „zeer onwaarschijnlijk en onwenselijk.” Op de een of andere manier moet menselijke controle de hoofdrol blijven spelen. „We willen weten wie de trekker overhaalt.” Dit concept heet ”meaningful human control” – betekenisvolle menselijke aansturing.

„Maar als iemand alleen in het laatste stadium voor de aanval nog even op een knop mag drukken, is er eigenlijk al geen sprake meer van menselijke controle”, vindt Chavannes. Grootmachten, zoals de VS, Rusland en China zouden dergelijke wapens graag willen ontwikkelen. „Nu hoeft een mens niet elk stapje dat een autonoom systeem uitvoert te bevatten. Maar hij moet wel begrijpen wat het systeem zal doen binnen de kaders die hij vooraf heeft vastgesteld.”

Oorlogsrecht

Zo moet de mens bij de inzet van autonome wapens afwegingen kunnen blijven maken binnen het humanitair oorlogsrecht. Een autonoom wapen kan niet beoordelen of er een groot risico bestaat op onbedoelde nevenschade, zoals burgerdoden. Een mens wel. Chavannes: „Als je dus ethisch en rechtmatig wilt handelen, moeten de afwegingskaders en de doelen van de missie in handen van mensen zijn.”

Ze merkt op dat het oorlogsrecht strikt, maar ook tamelijk vaag is geformuleerd. „Dit is zowel een vloek als een zegen. Een vloek omdat landen die het aan hun laars willen lappen daar relatief makkelijk een verhaal bij kunnen verzinnen; ze schuiven het bijvoorbeeld op militaire noodzaak. De zegen van de vaagheid van het oorlogsrecht is dat het niet uitmaakt welke wapens of uitvindingen er worden ingezet.”

Opmerkelijk genoeg stimuleert het oorlogsrecht de inzet van autonome wapens. Als er namelijk een techniek beschikbaar is die minder schade veroorzaakt dan andere, is het leger verplicht ze te gebruiken. Zo veroorzaakt de inzet van grondtroepen wellicht meer slachtoffers dan een autonome drone. Deze kan zijn doelen urenlang volgen en pas toeslaan op het moment dat de nevenschade minimaal zal zijn.

„Door technologische ontwikkelingen op het gebied van kunstmatige intelligentie en robotica kunnen op de langere termijn volledig autonome wapensystemen zonder menselijke controle weleens werkelijkheid worden”, verwacht Homan. Deze systemen kunnen dan in staat zijn om te leren. Ze kunnen zonder menselijke tussenkomst hun programmering wijzigen, waardoor hun gedrag onvoorspelbaarder wordt, concludeert een scribent in een bijdrage op de website van de Nederlandse Officiersvereniging.

Moeten autonome wapensystemen dan verboden worden? De kans daarop is nihil. Wereldwijd zijn niet meer dan vijf lidstaten van de VN daar voorstander van. Integendeel. Het aantal autonome systemen dat kan opereren met minimaal menselijk ingrijpen zal alleen maar toenemen, verwacht de scribent van de Nederlandse Officiersvereniging.

Antitankraket

Nederland beschikt bijvoorbeeld over de THeMIS, een op afstand bestuurbaar voertuigje op rupsbanden. Daartussen bevindt zich een plateau waarop allerlei apparatuur kan worden gemonteerd, zoals een zwaar machinegeweer of zelfs een antitankraket. De THeMIS kan gewonden van een slagveld halen, maar ook functioneren als autonome bewakingsrobot.

Maar is het moreel en ethisch verantwoord om autonome wapens zelfstandig te laten beslissen over leven en dood? Chavannes vindt dit een lastige vraag. „De hoofddiscussie is eigenlijk: Vind je dat de beslissing rondom leven of dood altijd alleen door mensen mag worden genomen? Of vind je het ethischer dat er in conflictgebieden sowieso minder doden vallen, onafhankelijk of mensen of machines delen van de missie uitvoeren?”

De strategisch analist denkt dat het verantwoord kan zijn om dergelijke beslissingen over te laten aan autonome wapensystemen, zolang ze voorspelbaar handelen binnen ethische kaders en het internationaal recht. „Maar in de praktijk weet ik niet of dit zal kunnen. Mensen zijn namelijk vindingrijk en kunnen zich gemakkelijk aanpassen aan veranderende omstandigheden; zo creatief zie ik machines nog niet snel worden. Defensie is en blijft mensenwerk, al wordt de uitvoering van bepaalde taken naar machines overgeheveld.”

Cyberaanval

De echte oorlog vechten de grootmachten momenteel onder de radar uit, vervolgt Chavannes. „Met cyberaanvallen en digitale spionage. De kans dat een Nederlander te maken krijgt met uitvallende elektriciteit en gehackte banken is vele malen groter dan dat hij door een autonoom wapen wordt aangevallen.”

Autonome systemen kunnen zeker nuttig zijn om bijvoorbeeld gewonden van het slagveld te halen, inlichtingen te vergaren en te analyseren. „Maar in hoeverre wapensystemen onderscheid kunnen maken tussen burgers en strijders?” Chavannes zou het niet weten. „Om een pijnlijk voorbeeld te noemen: westerse mogendheden hebben nu al grote moeite om een ziekenhuis te onderscheiden van een gebouw dat terroristische strijders als basis gebruiken; zeker als terroristen hier om propagandadoeleinden bewust misbruik van maken. Laat staan dat een autonoom wapensysteem dat onderscheid zou kunnen maken. Ik denk daarom dat goed functionerende autonome wapens er voorlopig niet zullen komen.”

serie Robots in 2030

De toepassing van robots, kunstmatige intelligentie en Internet of Things neemt de komende jaren een hoge vlucht. Wat staat ons te wachten? Deel 5: Autonome wapens