Verwoesting in Rafah als gevolg van Israëlische luchtaanvallen
NOS NieuwsAangepast

'AI-doelwitselectie in Gaza door Israël zonder grondige menselijke controle'

Op basis van kunstmatige intelligentie (AI) selecteerde het Israëlische leger welke personen een doelwit waren bij bombardementen in Gaza, zonder zorgvuldige menselijke controle, schrijft nieuwssite +972. Volgens de Israëlische journalist die het artikel heeft geschreven, was er nauwelijks menselijk toezicht op systeem Lavendel en werd bewust gewacht met een luchtaanval tot een terreurverdachte thuis was.

Het Israëlische leger doet het artikel af als een reeks valse beschuldigingen. In een onder meer door The Guardian gepubliceerde verklaring wordt het gebruik van AI wel erkend, maar alleen ter ondersteuning. Het systeem waar aan wordt gerefereerd is volgens het leger "simpelweg een database" met beschikbare informatie over gewapende militanten.

'Afweging moet uiterst zorgvuldig'

De progressieve nieuwssite +972, een samenwerkingsverband tussen Israëlische en Palestijnse journalisten, baseert zich op gesprekken met zes bronnen binnen het Israëlische leger. "Als de informatie klopt, dan is het schokkend", zegt oud-commandant der Landstrijdkrachten Mart de Kruif. "Volgens het oorlogsrecht moet de afweging voor een luchtaanval uiterst zorgvuldig zijn." Zoiets kun je niet grotendeels overlaten aan AI, waarschuwt De Kruif.

Hij voegt eraan toe dat het bekend is dat het Israëlische leger "veel vertrouwt" op kunstmatige intelligentie. Ook sluit het algehele beeld dat het artikel schetst volgens hem aan bij beschikbare informatie over de zware bombardementen op Gaza in de eerste weken van de oorlog.

Op een gegeven moment vertrouwden we op het systeem en controleerden we alleen nog of het doelwit een man was.

Een anonieme officier die +972 citeert

Defensiespecialist Peter Wijninga bij het Haags Centrum Strategische Studies vraagt zich af "of er inderdaad sprake is van een kwalijke situatie". "Dat hangt af van waarmee dat systeem gevoed is", zegt hij. "Welke criteria zijn gebruikt om mensen wel of niet te identificeren zodat ze op de doelenlijst terecht komen?" Om dat goed te beoordelen zegt hij dat het achteraf van belang is om daar helderheid over te verkrijgen.

Volgens de anonieme functionarissen werd in de beginperiode van de oorlog systematisch gebruikgemaakt van ongeleide bommen, met veel burgerslachtoffers tot gevolg. Wijninga noemt het "verontrustend" dat er in die periode vooral ongeleide bommen zijn gebruikt. "Zo'n bom kan ook naast een huis terechtkomen en daardoor onbedoeld schade aanrichten aan andere huizen waar zich misschien helemaal geen Hamasstrijders bevinden."

Het artikel vermeldt niet in hoeverre het AI-systeem nu nog wordt gebruikt, of hoe de luchtaanvallen tegenwoordig worden uitgevoerd.

In totaal 37.000 Palestijnen zouden door Lavendel zijn aangemerkt als terreurverdachte en potentieel doelwit. Volgens de anonieme bronnen werden zij geselecteerd op basis van uiteenlopende informatie. Van sociale media en camerabeelden tot inlichtingenrapporten en telefoondata. "Het was bekend dat 10 procent van de menselijke doelwitten geen leden van Hamas waren", schrijft de auteur van het artikel.

'Toestemming voor burgerslachtoffers'

De functionarissen die goedkeuring moesten geven, zo meldt +972, kregen van hogere officieren toestemming burgers te doden als er ook Hamas-strijders werden uitgeschakeld. De rang van het Hamas-doelwit zou weinig hebben uitgemaakt. Bij het doden van een voetsoldaat werden volgens de anonieme bronnen soms vijftien tot twintig burgerslachtoffers geaccepteerd als 'collateral damage', nevenschade. Bij hoge Hamas-commandanten zou dat aantal meer dan honderd zijn geweest. Hard bewijs voor deze claims ontbreekt.

De geciteerde inlichtingenofficieren die Lavendel gebruikten, suggereerden dat de oorlogsvoering door AI werd overgenomen. "Op een gegeven moment vertrouwden we op het automatische systeem en controleerden we alleen nog of het doelwit een man was", zegt een anonieme bron. Voor die laatste check werd volgens hem zo'n twintig seconden uitgetrokken.

Leger: dit is geen lijst van doelwitten

Israël weerspreekt met klem dat het op deze manier te werk gaat. Het leger stelt dat Lavendel een extra instrument is. De informatie in het systeem "is geen lijst van bevestigde militanten die mogen worden aangevallen". Er gaat volgens de legerleiding altijd een grondige menselijke afweging vooraf aan het besluit om wel of niet te gaan bombarderen. Ook wordt benadrukt dat Hamas opereert vanuit woonwijken "en de bevolking systematisch gebruikt als levend schild".

Volgens het door Hamas bestuurde ministerie van Gezondheid in Gaza zijn ruim 33.000 Palestijnen omgekomen in de oorlog. Bijna de helft van hen, zo'n 15.000 mensen, vonden de dood in de eerste twee maanden van de oorlog. Volgens de tellingen door de Gazaanse autoriteiten, die betrouwbaar worden geacht door VN-organisaties, is meer dan de helft van de doden vrouw of kind.

Er kwamen burgers om het leven door mislukte Hamas-raketlanceringen, maar die aantallen zouden verbleken bij het aantal doden door Israëlische luchtaanvallen. Volgens een Israëlische studie, waar krant Haaretz in december over schreef, leidde deze bombardementen in oktober tot ruim 6747 doden, van wie 61 procent burgers was. Israëlische functionarissen claimden eerder tegen The Times Of Israel dat voor elke gedode Hamas-strijder zo'n twee burgers in Gaza omkwamen.

'Onderzoek nodig'

Vredesorganisatie PAX Nederland pleit voor een internationaal onderzoek naar de beschreven werkwijze door het leger van Israël. "Wat voor systeem is Lavendel, welke rol speelden mensen en zijn er oorlogsmisdaden gepleegd", somt Daan Kayser, gespecialiseerd in autonome wapensystemen, zijn vragen op.

Of Israël meer informatie zal vrijgeven is de vraag. Israël is het afgelopen jaar herhaaldelijke beschuldigd van veronderstelde oorlogsmisdaden in Gaza, maar laat geen onafhankelijke onderzoekers toe om vast te kunnen stellen wat er bij die incidenten precies is gebeurd.

Deel artikel:

Advertentie via Ster.nl