Verbied bewapende robot
Bewapende militaire robots worden steeds vaker ingezet. Over de ethische en maatschappelijke problemen die daaraan kleven, is volgens dr. ir. Lambèr Royakkers nog onvoldoende nagedacht. Hij pleit voor een verbod op de ontwikkeling van bewapende robots.
Over de hele wereld worden momenteel militaire robots ontwikkeld en duizenden robots zijn al actief in Irak en Afghanistan. Het gaat dan bijvoorbeeld om onbemande bewapende gevechtsvliegtuigen, zoals de Predator, en het onbemande grondvoertuig Swords (Special Weapons Observation Reconnaissance Detection System), dat is uitgerust met camera’s, een grijparm, communicatiemiddelen en eventueel met machinegeweren. Het is met name ontwikkeld voor verkenningen en het opruimen van bermbommen.De meeste militaire robots zijn nu nog onbewapend en leveren een bijdrage aan het uitvoeren van taken die voor militairen saai of gevaarlijk zijn, of worden ingezet om bepaalde taken effectief en efficiënt uit te voeren. Doel daarbij is het vergroten van de veiligheid van de eigen militairen én van burgers.
De ethische en maatschappelijke problemen doemen op wanneer militaire robots worden uitgerust met wapens. Bewapende systemen moeten alvorens ze kunnen worden ingezet, voldoen aan de beginselen van het oorlogsrecht. Daarbij horen onder meer het proportionaliteitsbeginsel (er mag geen grotere schade worden berokkend dan het doel dat het geweldsgebruik rechtvaardigt) en het discriminatiebeginsel (bij doelwitkeuze moet onderscheid gemaakt kunnen worden tussen strijders en burgers).
In veel gevallen is er inlevingsvermogen en gezond verstand nodig om aan deze beginselen te voldoen, zeker nu er steeds vaker sprake is van niet-traditionele oorlogsvoering van een conventioneel leger met moderne technologie tegen opstandelingen die niet als strijders herkenbaar zijn. Het is zeer vraag of een militaire robot dit vermogen ooit zelf gaat bezitten. In ieder geval niet de komende tien jaar. Het is dus onverantwoord en onrechtmatig om deze robots nu in te zetten.
Ethische reflectie
Sommige auteurs betogen dan ook dat de beslissing over het al dan niet vernietigen van militaire doelen altijd via menselijke tussenkomst moet worden genomen. Het probleem is echter dat dit in feite onmogelijk is. Om een beslissing te nemen moet een veelheid aan informatie uit verschillende bronnen worden geïntegreerd en geïnterpreteerd. Computers kunnen dit veel beter dan mensen, voor wie dit haast ondoenlijk is. Met als gevolg dat de operator die zo’n robot op afstand bestuurt, geen volledige controle meer heeft over zijn beslissingen.
Daarnaast zijn de interfaces voor de operators zo ontworpen dat ze slechts abstracte en indirecte beelden tonen van de vijand en van militaire doelen, omdat ze minder stress veroorzaken dan realistische beelden. Daardoor ontstaat een morele en emotionele afstand tussen een fatale actie en de ethische implicatie van die actie, waardoor de operator ongevoelig wordt voor de gevolgen van zijn beslissingen. Het kan toch niet zo zijn dat operators beslissingen nemen over leven en dood alsof ze een videospelletje spelen?
Misschien wel het grootste, maar ook het meest onderschatte probleem is de proliferatie van bewapende robots. Militaire robots zijn relatief goedkoop en eenvoudig te kopiëren. Daarbij is het onderzoek en de ontwikkeling van deze systemen vrij transparant en toegankelijk. De kans is dan ook groot dat instabiele landen en terroristische organisaties in de toekomst bewapende robots gaan inzetten als ze op de markt zijn. Ze zouden wel eens hét strijdmiddel kunnen worden van fundamentalisten of terroristen. Dit zou dramatische gevolgen kunnen hebben, waarbij de impact van bermbommen en zelfmoordaanslagen in het niet valt.
Een verbod op de ontwikkeling van bewapende robots is daarom wenselijk. Of zo’n verbod haalbaar is, is voornamelijk afhankelijk van de opstelling van de Verenigde Staten, die juist hun zinnen hebben gezet op autonome bewapende robots en voor de ontwikkeling daarvan in 2010 4,5 miljard dollar hebben gereserveerd. Het is daarom van groot belang dat de andere NAVO-landen, die vooral inzetten op de ontwikkeling van onbewapende militaire robots, de Verenigde Staten aan de onderhandelingstafel krijgen.
Verenigde Staten
Dit zal niet eenvoudig zijn omdat de Verenigde Staten met enige regelmaat dit soort ontwikkelingen frustreren. Dit blijkt bijvoorbeeld uit het feit dat de Verenigde Staten geen partij is in de wapenbeheersingsverdragen en geen partij is bij het statuut van het Internationaal Strafhof. Dit hof is bevoegd in strafzaken op het gebied van genocide, misdrijven tegen de menselijkheid en oorlogsmisdaden.
Door de snelle ontwikkeling van de militaire robotica is een internationaal debat over de gevolgen hiervan tot nu toe uitgebleven. De inzet van militaire robots gaat de hele wereld aan, en het is dan ook van belang dat alle betrokkenen met verschillende belangen en opvattingen met elkaar in debat gaan. Uitgangspunt van zo’n debat moet zijn het ontwikkelen van gemeenschappelijke juridische en ethische principes voor een verantwoorde inzet van militaire robots.
De auteur is universitair hoofddocent ethiek van de techniek aan de Technische Universiteit Eindhoven en universitair hoofddocent militaire ethiek aan de Nederlandse Defensie Academie in Breda.