BuitenlandIsraël ingezoomd

Discussie over AI in leger Israël

Israël gebruikt steeds vaker kunstmatige intelligentie (AI) voor militaire toepassingen. Dat biedt vergaande mogelijkheden op het slagveld. Maar het voegt ook een geheel nieuw hoofdstuk toe aan de ethische discussie over deze technologie.

5 August 2023 13:02
beeld RD
beeld RD

Premier Benjamin Netanyahu drong vorige maand nog aan op het snel uitstippelen van nationaal beleid ten aanzien van kunstmatige intelligentie. Israël wil graag koploper zijn in de ontwikkeling en toepassing van deze technologie.

Dat wil het Israëlische leger ook. Generaal Eyal Zamir, directeur-generaal van het ministerie van Defensie, benadrukte in mei dat de strijdkrachten de technologische „stoutmoedigheid” van Israël willen uitbuiten om een AI-supermacht te worden. Hij voorspelde een enorme opmars op het gebied van autonome oorlogvoering en data-gedreven besluitvorming op het slagveld. Om die revolutie bij te benen, heeft het departement voor dit jaar een recordbedrag op de begroting gereserveerd voor onderzoek naar en ontwikkeling van AI-toepassingen.

Voor de nabije toekomst voorziet Zamir de toepassing van kunstmatige intelligentie bij het gelijktijdig uitvoeren van massale aanvallen op diverse fronten, het inzetten van wapensystemen die zelfstandig functioneren en razendsnelle analyse van een veelheid aan data bij het nemen van operationele beslissingen. „Op een schaal groter dan we ooit zagen.”

De uitlatingen van Zamir gaan vooral over toekomstige ontwikkelingen. Maar hoge functionarissen van het Israëlische leger bevestigden onlangs tegenover het dagblad Yediot Ahronot dat Israël kunstmatige intelligentie onder andere al inzet voor het vaststellen van een groot aantal doelen in Iran, mocht Jeruzalem tot een aanval op dat land besluiten.

Een van de toepassingen –Fire Factory– kan op basis van de analyse van data automatisch duizenden verschillende doelwitten toekennen aan gevechtsvliegtuigen, drones en andere wapensystemen. Daarbij geeft de computer zelf een prioritering aan de doelen, berekent de optimale inzet van wapens en vuurkracht en koppelt daar een tijdschema aan.

Systemen worden door mensen bediend. Zij moeten de selectie van doelen en aanvalsplannen in de laatste instantie goedkeuren. De inzet van deze technologie is echter niet aan regelgeving onderworpen. Israël is een van de weinige landen –ook Rusland– die weigerden een internationale overeenkomst te tekenen om militaire toepassing van AI te reguleren.

Wat zijn dan de consequenties als wapensystemen steeds onafhankelijker kunnen opereren? Critici wijzen erop dat de grens tussen door mensen gecontroleerd oorlogstuig en autonome moordmachines steeds dunner wordt.

Kunstmatige intelligentie gebruikt algoritmes die de menselijke mogelijkheden ver overtreffen. Militairen kunnen daardoor geneigd zijn veel meer op apparatuur te vertrouwen, ook bij de beslissing om de rode knop in te drukken.

Vanzelfsprekend blijft het land dat AI gebruikt verantwoordelijk voor de gevolgen van inzet. Maar in juridisch en ethisch opzicht ligt er nog een enorm terrein braak. Dat wordt met de razendsnelle ontwikkelingen groter en groter.

RD.nl in uw mailbox?

Ontvang onze wekelijkse nieuwsbrief om op de hoogte te blijven.

Hebt u een taalfout gezien? Mail naar redactie@rd.nl

Home

Krant

Media

Puzzels

Meer