opinie

Leidt militair gebruik van AI tot minder burgerslachtoffers?

Professor militaire ethiek Koninklijke Militaire School en doctoraal onderzoekster Koninklijke Militaire School en KU Leuven

In theorie kan het militaire gebruik van AI leiden tot een nauwkeurigere en vluggere uitschakeling van legitieme doelwitten, wat sneller een einde kan maken aan een conflict. De praktijk in Gaza toont een minder fraai beeld, schrijven Carl Ceulemans en Ann-Katrien Oimann.

Volgens recente berichten zet het Israëlische leger (IDF) een nieuw AI-systeem in om zijn targetingcapaciteiten in Gaza tegen Hamas op te voeren. Eerdere berichten noemden al een systeem met als naam The Gospel. Een artikel van de Britse krant The Guardian en een rapport van Palestijnse en Israëlische onderzoeksjournalisten gepubliceerd in +972 Magazine beschrijven een nieuw systeem, Lavender, dat bijkomend zou worden gebruikt. Lavender zou aan de hand van inlichtingenbronnen enorm snel automatisch een database van duizenden doelen kunnen genereren, en zo een hulpmiddel bij doelwitidentificatie zijn.

  • De auteurs
    Carl Ceulemans is professor militaire ethiek aan de Koninklijke Militaire School. Ann-Katrien Oimann is doctoraal onderzoekster aan de Koninklijke Militaire School en de KU Leuven.
  • De kwestie
    Israël zet AI in om zijn targetingcapaciteiten in Gaza tegen Hamas op te voeren.
  • De conclusie
    In theorie kan AI helpen legitieme doelwitten nauwkeuriger en sneller uit te schakelen. Daar hoort wel geval per geval een afweging bij, die Israël in Gaza niet lijkt te maken.
Advertentie
Advertentie

Hoewel er nog altijd menselijke controle achteraf is, lijkt die niet langer betekenisvol als analisten slechts enkele minuten de tijd hebben om de doelselectie door het systeem te beoordelen. Bovendien bestaat een menselijke neiging om zonder al te veel vragen de door het systeem gegenereerde resultaten te aanvaarden, een fenomeen dat bekend staat als ‘automation bias’.

Hoe moeten we de enorme toename in doelselectie interpreteren?
Het selecteren van doelwitten betekent niet noodzakelijk dat ook actie wordt ondernomen. De duizenden extra geselecteerde doelwitten worden dus niet noodzakelijk uitgeschakeld. Het in een korte tijd uitschakelen van grote aantallen militaire doelen hoeft ook niet per definitie moreel problematisch te zijn. In theorie kan het gebruik van AI leiden tot een nauwkeuriger en snellere uitschakeling van legitieme doelwitten, wat sneller een einde kan maken aan het conflict.

Burgerbevolking

Bij het beoordelen van potentiële doelwitten zijn twee elementen van cruciaal belang. Gaat het om een legitiem doelwit? En zo ja, wat is bij een aanval de mogelijke zijdelingse impact op de burgerbevolking?

Ethisch en juridisch is het veroorzaken van dergelijke nevenschade niet a priori verboden. Een risicovolle militaire actie is aanvaardbaar als de nodige voorzorgsmaatregelen genomen worden om het humanitaire leed tot een minimum te herleiden en als het militaire voordeel opweegt tegen het verwachte menselijke leed. In een oorlog moet altijd een evenwicht gevonden worden tussen het militaire optimum, het beschermen van de burgerbevolking en het beschermen van de eigen troepen.

Een relatief hoog aantal burgerslachtoffers kan in welbepaalde gevallen geoorloofd zijn. Maar het mag nooit excessief zijn.

Afhankelijk van de politieke en militaire context wil het gewicht dat men toekent aan elk van die factoren weleens verschillen. Tijdens de NAVO-interventie in Kosovo in 1999 stond de veiligheid van de eigen piloten voorop (de zero-casualtystrategie). Bij counterinsurgency-operaties zal men dan weer om strategische redenen meer aandacht hebben voor het ontzien van de lokale bevolking.

Hoe dan ook moet bij elke militaire actie geval per geval een afweging gemaakt worden. Een relatief hoog aantal burgerslachtoffers kan in welbepaalde gevallen geoorloofd zijn, als vooraf de nodige voorzorgsmaatregelen werden genomen en als het doelwit van groot militair belang is, zoals de enige mogelijkheid om op korte termijn een hooggeplaatste terrorist uit te schakelen. Het aantal burgerslachtoffers kan dus extensief zijn, maar mag nooit excessief zijn.

Proportioneel

Terug naar het gebruik van de AI-hulpsystemen in Gaza en het hoge aantal burgerslachtoffers. Recente berichten vermelden vooraf vastgelegde toleranties voor het geschatte aantal burgerslachtoffers bij aanvallen, waarbij een ratio van 1 Hamasstrijder versus 15 burgers wordt genoemd. Een dergelijke voorafgaandelijke verhouding is nooit in overeenstemming met het internationaal humanitair recht. Altijd moet geval per geval worden beoordeeld hoe belangrijk het militaire doelwit is en welk niveau van burgerslachtoffers proportioneel is.

Er zouden vooraf vastgelegde toleranties zijn voor het geschatte aantal burgerslachtoffers in Gaza: een ratio van 1 Hamasstrijder versus 15 burgers. Zoiets is niet in overeenstemming met het internationaal humanitair recht.

Daarnaast wordt gemeld dat veel aanvallen worden uitgevoerd met ongeleide bommen. Hoewel er internationaal geen verplichting is om het nauwkeurigste wapensysteem te gebruiken, moet de voorzorgplicht daar toch toe aanzetten. Een kwalijk fenomeen is ook dat door een overdreven nadruk op tolerantieratio’s bij het evalueren van zijdelingse schade de voorzorgplicht ondergesneeuwd dreigt te raken. Als blijkt dat de verhouding van de cijfers goed zit, waarom dan nog nagaan of het ook met minder burgerslachtoffers had gekund?

Wetgeving

Het selecteren van doelwitten en het beoordelen van proportionaliteit zijn in elke oorlog een delicate zaak, nog los van geavanceerde AI-hulpsystemen. Maar de vraag rijst in hoeverre het hoge aantal burgerslachtoffers in Gaza te wijten is aan het gebruik van AI. Vanop afstand is het onmogelijk daar een sluitend antwoord op te geven, maar als het gaat om de bewering dat het gebruik van AI-systemen zal leiden tot accuratere aanvallen en minder burgerslachtoffers zijn de berichten ontmoedigend.

Geen enkele specifieke wetgeving regelt het militair gebruik van AI - militaire applicaties zijn niet opgenomen in de nieuwe Europese AI Act. Tegenstanders van nieuwe wetgeving zullen stellen dat de mogelijke schendingen door het IDF te wijten zijn aan het slecht toepassen van de regels over discriminatie, voorzorg en proportionaliteit. Voorstanders zullen een causaal verband tussen de excessen en de nieuwe technologie proberen aan te tonen. De ontwikkelingen in Gaza stellen de internationale debatten op scherp.

Gesponsorde inhoud
Tijd Connect
Tijd Connect biedt organisaties toegang tot het netwerk van De Tijd. De partners zijn verantwoordelijk voor de inhoud.
Partnercontent
Partner Content biedt organisaties toegang tot het netwerk van De Tijd. De partners zijn verantwoordelijk voor de inhoud.