
Krigen mellem Israel og Hamas er blevet et globalt referencepunkt i debatten om militær brug af kunstig intelligens. Ikke fordi autonome våben har overtaget slagmarken, men fordi AI i stor skala er blevet brugt til at accelerere og strukturere militære beslutninger – fra overvågning og efterretning til udpegning og prioritering af mål.
Spørgsmålet er ikke, om brugen af AI i sig selv er lovlig. Spørgsmålet er, hvad der sker med ansvar, proportionalitet og menneskelig kontrol, når tempo og volumen i beslutninger øges dramatisk – og når systemer filtrerer virkeligheden, før mennesker ser den.
AI som beslutningsinfrastruktur
Meget af den offentlige debat om Israels brug af AI har kredset om forestillinger om autonome våben. Men de dokumenterede systemer peger i en anden retning.
Der er tale om AI-baserede systemer til overvågning, mønstergenkendelse og beslutningsstøtte – ikke systemer, der selv affyrer våben. AI anvendes til at analysere store mængder data fra signaler, billeder og adfærd og til at generere lister over potentielle mål, som efterfølgende kan vurderes og godkendes af mennesker.
Det afgørende er netop denne mellemposition: AI som beslutningsinfrastruktur. Systemerne træffer ikke formelle beslutninger, men de former beslutningsgrundlaget. Det er her, overgangen fra overvågning til mål finder sted.
Begrænset viden
Meget af den konkrete viden om Israels brug af AI stammer fra undersøgende journalistik, herunder israelske medier og internationale rapporter, samt fra udtalelser fra israelske embedsmænd, der har beskrevet brugen af avancerede data- og analyseværktøjer i krigen.
Samtidig er der væsentlige begrænsninger. Systemerne er klassificerede, og uafhængig verifikation er kun mulig i begrænset omfang. Det betyder, at mange påstande ikke kan be- eller afkræftes fuldt ud.
Men mangel på fuld indsigt betyder ikke, at der ikke kan stilles juridiske og normative spørgsmål. Folkeretten vurderer ikke kun konkrete våben, men også metoder til krigsførelse – herunder hvordan mål udpeges, og hvordan proportionalitetsvurderinger foretages.
Når tempo bliver en juridisk faktor
En af de mest markante ændringer ved brugen af AI-baseret beslutningsstøtte er tempoet. Hvor måludvælgelse tidligere var en relativt langsom proces, kan AI-systemer generere og prioritere store mængder potentielle mål på kort tid.
Det rejser et grundlæggende spørgsmål. Hvornår bliver tempo i sig selv en risikofaktor? Folkeretten kræver, at der foretages individuelle vurderinger af proportionalitet og forholdsregler (feasible precautions) før angreb. Disse vurderinger forudsætter tid, information og mulighed for at fravælge.
Når beslutningsstøttesystemer leverer færdige prioriteringer under tidspres, øges risikoen for, at den menneskelige vurdering reduceres til en godkendelseshandling. Ikke nødvendigvis fordi operatører er uansvarlige, men fordi systemets tempo og volumen gør grundig vurdering vanskelig.
AI kan skalere risiko
Debatten om civile tab i Gaza har ofte fokuseret på enkelte angreb. Men set i et AI-perspektiv er det relevante spørgsmål mere strukturelt: Hvor i systemerne kan risikoen for civil skade forstærkes?
Flere mekanismer er centrale:
- Falske positiver: AI-systemer kan identificere mønstre, der ligner militær aktivitet, men som i praksis involverer civile.
- Dataskævheder: Træningsdata kan afspejle tidligere konflikter eller antagelser, som ikke holder i nye kontekster.
- Filtrering før vurdering: Når AI sorterer information, ser mennesker kun en del af virkeligheden – og måske netop den del, systemet prioriterer.
- Tæt befolkede områder: I Gaza forstærkes alle fejl, fordi militære og civile strukturer er tæt sammenvævede.
Ingen af disse mekanismer er nye i sig selv. Men AI kan skalere dem.
Reglerne er til stede
De centrale regler, der regulerer angreb i krig, findes i den humanitære folkeret, herunder især Tillægsprotokol I til Genèvekonventionerne fra 1977 (Additional Protocol I to the Geneva Conventions).
Her fastslår blandt andet artikel 48, at parterne i en konflikt altid skal skelne mellem civile og militære mål. Artikel 51forbyder angreb, der rammer civile vilkårligt, mens artikel 52 præciserer, hvad der kan betragtes som et legitimt militært mål. Hertil kommer artikel 57, som pålægger parterne at træffe alle praktisk mulige forholdsregler (feasible precautions) for at undgå eller begrænse civile tab.
Disse regler er teknologineutrale. De gælder uanset, om beslutningsgrundlaget er indsamlet af mennesker eller behandlet af algoritmer. Men de forudsætter noget meget konkret: at der faktisk foretages individuelle, kontekstuelle vurderinger, før et angreb iværksættes.
Det er her, AI-baseret beslutningsstøtte kan bringe praksis under pres. Når systemer genererer prioriterede mållister i højt tempo, risikerer proportionalitetsvurderinger og forholdsregler at blive reduceret til efterfølgende godkendelser af allerede filtrerede forslag. Det betyder ikke nødvendigvis, at reglerne brydes – men at rummet for menneskelig vurdering indsnævres.
Et centralt juridisk værktøj er desuden artikel 36 i Tillægsprotokol I, som forpligter stater til at foretage en juridisk vurdering af nye våben, midler eller metoder til krigsførelse, før de tages i brug. Her er udfordringen, at AI-systemer ikke er statiske: de opdateres, kombineres med andre systemer og anvendes på tværs af kontekster.
Dermed bliver spørgsmålet ikke kun, om et system i sig selv kan anvendes lovligt, men om måden det anvendes på i praksis giver tilstrækkelig tid, information og mulighed for menneskelig vurdering, som folkeretten forudsætter.
Kort sagt: Folkeretten mangler ikke regler for militær AI. Den mangler mekanismer, der sikrer, at reglerne faktisk kan efterleves, når beslutninger filtreres og accelereres gennem systemer.
Israel som normdannende case – uanset intention
Uanset hvordan man vurderer Israels konkrete brug af AI, har konflikten allerede fået en bredere betydning. Andre lande følger med. Ikke for at kopiere systemer én til én, men for at lære af praksis.
I mangel af bindende internationale regler risikerer sådanne praksisser at blive de facto-standarder. Ikke gennem formelle beslutninger, men gennem imitation og “best practice”.
Det gør Israel-case’en til en stresstest – ikke kun for folkeretten, men for den internationale evne til at fastsætte grænser, før praksis sætter dem.



Follow Me