Kunstmatige intelligentie in de defensie: de laatste druppel in het internationale recht

Een paar dagen geleden kondigde Oekraïne aan zich terug te trekken uit het Verdrag van Ottawa, dat het gebruik van antipersoonsmijnen verbiedt . Polen en de Baltische staten hadden hetzelfde al gedaan; de Verenigde Staten, Israël, Rusland en China hebben het verdrag nooit ondertekend. De beslissing is verre van marginaal: antipersoonsmijnen schenden per definitie het internationaal humanitair recht en treffen zonder onderscheid strijders en burgers, zelfs vele jaren na het einde van de vijandelijkheden. De Italiaanse generaties na de oorlog weten hier wel iets van. De Oekraïense generaties zullen het waarschijnlijk ook weten: naar schatting is ongeveer een kwart van het nationale grondgebied nu bedekt met mijnen.
Maar de betekenis van de beslissing reikt verder dan de oorlogssituatie. Ze brengt een verontrustende politieke boodschap over: wanneer oorlog escaleert, worden de beperkingen van het humanitair recht onderhandelbaar en overkomelijk .
Het is een boodschap die van vele kanten komt. De internationale politiek vertoont de laatste jaren tekenen van achteruitgang : de zogenaamde kanonneerbootdiplomatie is weer opgedoken, een concept waarbij de rechten van een staat zich alleen uitstrekken tot zijn militaire capaciteiten. De Russische inval in Oekraïne, het aanhoudende conflict in Gaza en zelfs Donald Trumps spontane uitspraken over een mogelijke annexatie van Canada of Groenland zijn hedendaagse variaties op een thema dat als het laatste redmiddel van de geschiedenis wordt beschouwd.
Deze logica ondermijnt de basis van het moderne internationale recht : het verbod op territoriale verovering met geweld. Het opgeven van het recht op verovering markeerde een verschuiving van een dwingend beheer van de betrekkingen tussen staten naar een die wordt beheerst door gedeelde normen en supranationale instellingen. In deze context is het internationaal humanitair recht geen juridische pedanterie, maar de uitdrukking van een principe: zelfs in oorlog zijn er grenzen. Dit is wat conflict onderscheidt van barbarij.
De terugkeer van de kanonneerbootdiplomatie is een openlijke poging om die transitie terug te draaien en het internationale recht te overstijgen.
AI toegepast op defensie zou het doorslaggevende instrument kunnen blijken om deze inspanning tot een succes te maken. De inzet van AI binnen defensie maakt een geleidelijke en stille erosie van het internationaal recht mogelijk , waardoor het mogelijk gereduceerd wordt tot een ineffectieve formele structuur. AI binnen defensie zou het einde van het internationaal recht kunnen betekenen, niet door een openlijke revolutie, maar door een reeks vakkundig verspreide tactische schendingen.
De oorlog in Oekraïne markeerde een keerpunt in de adoptie van AI in defensie , een versnelling die niet gepaard ging met regelgeving. Zelfs de AI-wet reguleert het gebruik van AI in defensie niet. Toch gebruiken beide partijen in Oekraïne dodelijke (potentieel) autonome wapens voordat er zelfs maar consensus is over de rechtmatigheid ervan. Israël gebruikte AI om doelen in Gaza te identificeren zonder overeengekomen regels over acceptabele foutenmarges of minimale niveaus van menselijke controle. Ondertussen hebben de vertegenwoordigers van de lidstaten van de VN-groep die sinds 2013 aan autonome wapens werkt, nog niet eens een consensus bereikt over de definitie van deze wapensystemen.
Het zou naïef zijn om dit regelgevingsvacuüm te beschouwen als een tijdelijke patstelling, het resultaat van het eeuwenoude dilemma tussen voorbarige en ineffectieve regelgeving of late en overbodige regelgeving. Het is iets veel zorgwekkenders: het ontstaan van een regelgevingsvacuüm dat de belangen van zowel liberale als autoritaire staten dient . Beide komen samen en voeden een regelgevingsvacuüm om het potentieel van AI in de defensie niet te beperken, zelfs wanneer dit fundamentele principes zoals het onderscheid tussen strijdende en niet-strijdende partijen zou kunnen schenden.
We hebben dezelfde aanpak gezien bij het reguleren van internationale situaties met cyberaanvallen tussen staten. In dit geval faciliteerde het regelgevingsvacuüm agressieve situaties, met schade en risico's voor de digitale infrastructuur van onze landen. Niet bepaald de meest verstandige keuze. Het is beter om dit te vermijden wanneer cyber escaleert tot conventionele oorlogsvoering.
De overlap tussen de krachtige retoriek van de kanonneerbootdiplomatie en de discrete alomtegenwoordigheid van AI is verontrustend. Terwijl de publieke aandacht terecht gericht is op de zichtbare effecten van de eerste, opereert de laatste in het duister en ondermijnt langzaam de stabiliteit van het internationaal recht.
De oplossing is niet om AI in de defensie te laten varen, maar om het regelgevingskader waarbinnen het kan opereren, duidelijk te herzien. Een geactualiseerde interpretatie van de beginselen van het internationaal humanitair recht is nodig, waarbij de geldigheid ervan wordt uitgebreid naar opkomende technologieën. Technologische vooruitgang mag niet samenvallen met, of het instrument zijn van, juridische achteruitgang of, erger nog, morele achteruitgang.
*Hoogleraar digitale ethiek en defensietechnologieën, Oxford Internet Institute, Universiteit van Oxford. Auteur van The Ethics of Artificial Intelligence in Defense , Oxford University Press, dat in Italië wordt uitgegeven door Raffaello Cortina.
La Repubblica