
Militær AI bruges allerede til at sortere overvågningsdata, anbefale mål og optimere operationer. Spørgsmålet er ikke kun, om det virker – men hvem der har ansvaret, når “beslutningen” i praksis er formet af et system.
På skærmen dukker en markering op: høj sandsynlighed. Systemet har sorteret tusind signaler ned til fem. Et menneske skal godkende. Men hvad betyder “kontrol”, når det vigtigste arbejde allerede er gjort af algoritmen?
Iben Yde, der rådgiver Forsvaret og forsvarsindustrien om ansvarlig militær AI i Rethink Advisory, peger på, at udfordringen handler om praksis – ikke om manglende regler.
“Problemerne opstår, fordi der ikke i samme grad er et direkte link mellem en menneskelig operatør og den endelige handling, når AI bruges som beslutningsstøtte,” siger hun. “Det er det link, der bliver sværere, og det er det, der gør ansvarsplacering juridisk problematisk.”
Hvad mener vi egentlig med “militær AI”?
Militær AI er et diffust begreb. I denne artikel giver det bedst mening at forstå teknologien som tre lag, der ofte blandes sammen i debatten: overvågning og efterretning (Intelligence, Surveillance and Reconnaissance – ISR), beslutningstøtte og autonome funktioner i og omkring våbensystemer. Fællesnævneren er sortering og mønstergenkendelse – og det er netop det, der gør AI anvendelig i militære sammenhænge.
I ISR bruges AI til at reducere informationskaos: objektgenkendelse i video og billeder, anomali-detektion, tekst- og signalanalyse, samt “fusion” af flere datakilder til situationsforståelse. Data kan komme fra droner, satellitter, sensorer som radar og IR – eller fra åbne kilder. Det lyder neutralt, men effekten er ikke neutral: Den menneskelige rolle bliver ofte at validere det, AI allerede har udvalgt. Dermed risikerer mennesket kun at se det, systemet fremhæver – og det, der ikke bliver valgt, kan forsvinde ud af beslutningsrummet.
Det næste lag er beslutningstøtte: systemer, der ikke “skyder”, men anbefaler, prioriterer og scorer. Og det tredje lag er autonomi tæt på engagement: funktioner, der kan udføre dele af kæden fra mål til handling inden for rammer, som mennesker sætter på forhånd.
Det tredje – og måske mest skræmmende lag for mange – er autonome våben. Mange systemer har i dag ret store autonome kapaciteter, men fungerer semi-autonomt, hvor mennesket sætter rammerne – område, tidsvindue og måltype – men systemet udfører handlinger indenfor rammerne.
“Problemet,” siger Jeppe Teglskov Jacobsen fra Nationalt Forsvarsteknologisk center (NFC), “ligger i den midterste kategori. Den er lidt stor. Den kan gå fra at være ret ukontroversiel til at være sindssygt kontroversiel.”
Når overvågning bliver til mål
Det afgørende er, at lagene i praksis ofte kobles sammen i en pipeline fra data til handling. Og her kan der ske en glidning, som ikke føles dramatisk – men som ændrer ansvar og kontrol.
Når et AI-system sorterer enorme datamængder for afvigelser, mønstre og objekter, skaber det et udsnit af virkeligheden. Konsekvensen er ofte, at det, der ikke bliver udvalgt, ikke bliver set – mens det, der bliver flagget, føles vigtigere og mere presserende.
Først bliver et flag til et fund: “muligt militært køretøj”, “mistænkelig aktivitet”, “høj sandsynlighed”. Og så sker der en normativ forskydning: Systemets output begynder at ligne en påstand om virkeligheden, ikke en hypotese. Flag bliver til fund.
Dernæst tager beslutningstøtten over: Den rangerer og scorer. Hvad er vigtigst? Hvad er mest tidskritisk? Hvad passer ind i et mønster? En rangliste af kandidater er i praksis en præ-sorteret målliste. Fund bliver til kandidater.
Til sidst bliver godkendelsen en del af en operationel rytme: hurtigere, mere standardiseret og mere afhængig af systemets scoring. Under tidspres kan den menneskelige godkendelse glide fra uafhængig vurdering til formalitet. Kandidater bliver til mål – og mål bliver til handling.
“De humanitære folkeretlige regler om angreb er teknologineutrale. De skal iagttages, uanset hvilken teknologi man bruger,” forklarer Iben Yde. “Det er ikke reglerne, der er nye. Det er måden, vi forsøger at efterleve dem på, der bliver udfordret.”
Det er her, “automation bias” bliver en konkret risiko: tendensen til at stole mere på systemet end på egen vurdering, især når der ikke er tid til at dobbelttjekke, og når output præsenteres uden tydelig usikkerhed.

“Når det også bliver målidentifikation,” siger Jeppe Teglskov Jacobsen, “og kommer tættere på kamppladsen, så tages beslutningerne bare en lille smule hurtigere.”
“Jeg hørte fra Israel,” fortæller han, “at du har 20 sekunder til at vurdere omfanget af sårede. Du har givet en officer 20 sekunder til at verificere noget, som er fuldstændig umuligt at verificere på 20 sekunder. Det er der, den er gal.”
“Fordi der ikke findes specifikke regler for autonome våbensystemer eller AI-baserede beslutningssystemer, bliver våbenscreening ekstremt vigtig som et safeguard mod ulovlige våben,” forklarer Iben Yde.
“Menneskelig kontrol” – hvad betyder det i praksis?
I politikpapirer lyder menneskelig kontrol betryggende. Men kontrollen kan være mere eller mindre reel. Traditionelt taler man om tre modeller:
Human-in-the-loop: Systemet kan klassificere og anbefale, men kan ikke gennemføre den kritiske handling uden menneskelig godkendelse. Styrken er en tydelig “gate”. Svagheden er, at godkendelsen kan blive et gummistempel, hvis operatøren kun ser AI’s udsnit og er under tidspres.
Human-on-the-loop: Systemet kører løbende, mens et menneske overvåger og kan gribe ind. Styrken er, at det kan håndtere tempo og kompleksitet. Svagheden er åbenlys: hvis loopet er for hurtigt, bliver “overvågning” let symbolsk.
Human-out-of-the-loop: Systemet handler selv inden for rammer (område, tid, måltype), som mennesker har sat på forhånd. Fordelen er maksimalt tempo. Ulempen er, at den menneskelige kontrol primært ligger før hændelsen – og derfor bliver dokumentation og efterprøvning afgørende.
De tre labels siger dog ikke i sig selv, om kontrollen er reel. Derfor giver det mere mening at tale om meningsfuld menneskelig kontrol – og gøre det målbart. I praksis kan det oversættes til fem kriterier:
- Operatøren har tid til at vurdere
- Operatøren har information om usikkerhed og fejltyper
- Operatøren kan afvise anbefalinger uden systemisk pres
- Der findes logning og sporbarhed
- Der er tilsyn og hændelsesrapportering
Med andre ord: Menneskelig kontrol handler ikke kun om, hvor et menneske er placeret i loopet – men om mennesket har tid, indsigt og handlekraft nok til, at ansvaret er reelt.
Hvem har ansvaret, når noget går galt?
I klassisk militær beslutningstagning kan man ofte pege på én beslutningstager. Når AI indgår i overvågning og beslutningstøtte, bliver det vanskeligere, fordi “beslutningen” i praksis er et resultat af en kæde fra data til model til interface til procedure til menneske til kommando.
“Det er netop i den kæde, at ansvaret kan begynde at flyde,” siger Iben Yde. “Når beslutningen i praksis er formet af systemer, bliver det vanskeligere at pege på én ansvarlig – også selv om der formelt har været et menneske involveret.”
Operatøren er tættest på handlingen og har ansvar for at følge procedurer og vurdere output. Men operatøren ser ofte kun et udsnit, som systemet prioriterer – og hvis systemet ikke viser usikkerhed, bliver det urimeligt at placere hele ansvaret nederst i kæden.
Kommandokæden har ansvaret for regler, thresholds, eskalation og kontrolpunkter – og for at organisere mennesker til at bruge systemet forsvarligt. Her kan man let pege på, at “der var et menneske i processen”, selv om procedurerne i praksis presser mod hastighed og standardiseret godkendelse.
Staten, med Forsvarsministeriet i toppen, har det overordnede politiske og juridiske ansvar: folkeret, governance, tilsyn, indkøb og politisk kontrol. Men klassificering gør det let at sige, at man ikke kan oplyse noget – og multileverandørkæder gør det let at skubbe ansvar i retning af “tekniske forhold”.
Leverandører og integratorer kan omvendt sige: “Kunden valgte opsætning og brugte systemet sådan.” IP og forretningshemmeligheder kan begrænse indsigt. Resultatet kan blive ansvarsfiltrering: at hvert led kan fraskrive sig ansvar, fordi ingen formelt traf “den endelige beslutning”.

Hvad siger reglerne – og hvorfor er de ikke nok?
Selv når AI bliver en del af beslutningskæden, ændrer det ikke det grundlæggende: International humanitær ret (International Humanitarian Law, IHL) gælder stadig. Men kravene er formuleret som principper, der skal omsættes til praksis – og AI kan gøre det sværere at dokumentere, at reglerne faktisk blev fulgt.
I Tillægsprotokol I til Genèvekonventionerne (Additional Protocol I, AP I) fastslår artikel 48 distinktionen mellem civile og militære mål, mens artikel 52(2) definerer militære mål. Proportionalitet er bl.a. udtrykt i AP I artikel 51(5)(b), og kravet om forholdsregler (precautions) findes i AP I artikel 57.
“Her har vi ikke en fysisk genstand, man kan måle og veje. Det er en måde at træffe beslutninger på – og hvordan måler man det?,” spørger Iben Yde. “Det er meget nemmere at teste et projektil i en gelatineblok end at afgøre, om en algoritme er god nok til at genkende mål på en dynamisk kampplads.”
AI udfordrer ikke reglerne i sig selv, men kan udfordre muligheden for at opfylde dem i praksis, hvis systemer filtrerer, prioriterer og accelererer beslutninger uden tydelig usikkerhed. Derfor bliver våbenreview centralt: AP I artikel 36 forpligter stater til at vurdere nye våben og metoder, så de kan bruges lovligt. Samtidig vokser “soft law” – NATO-principper, politiske erklæringer og FN-processer – men der findes stadig ingen global, bindende standard for, hvad “meningsfuld menneskelig kontrol” kræver i konkrete krav til logning, audit og tilsyn.
Demokratisk indsigt – hvad kan offentligheden med rimelighed kræve?
Når militære myndigheder siger, at detaljer må holdes hemmelige, er det ofte rimeligt. Men hemmeligholdelse bør ikke være det samme som fravær af demokratisk kontrol. Der findes et niveau af indsigt, som offentligheden kan kræve uden at afsløre operationer: ikke “hvor og hvornår”, men hvilke typer systemer, hvilke beslutningsregler og hvilke kontrolmekanismer der gælder.
Det kan fx være indsigt i, hvilke kategorier af AI-systemer der bruges (ISR, beslutningstøtte, funktioner tæt på våbensystemer), hvilke godkendelsesprocedurer og stopklodser der findes, hvilke audit- og logkrav der gælder, og om der er uafhængigt tilsyn med adgang til fortrolige audits og hændelsesrapportering.
Faktaboks: “4 ting der kan offentliggøres – og 4 ting der normalt må være fortrolige”.)
Når ansvaret forsvinder i systemet
Når AI flytter mere af krigens “forarbejde” ind i systemer, handler det ikke længere kun om at købe ny teknologi. Det handler om, hvorvidt et demokrati kan fastholde noget så basalt som ansvar: at man kan forklare, hvem der traf beslutningen, på hvilket grundlag, og hvilke forholdsregler der faktisk blev taget. For selv med et menneske i loopet kan kontrollen blive symbolsk, hvis systemet filtrerer virkeligheden, tempoet presser godkendelserne, og ansvaret splintrer mellem operatør, kommandokæde, stat og leverandører.
Iben Yde gør opmærksom på: “Systemerne stopper ikke med at udvikle sig, når de tages i brug. Derfor er kontinuerlig test og evaluering helt afgørende.”
Den egentlige lakmusprøve er derfor enkel: Kan beslutninger efterprøves bagefter, kan ansvar placeres uden at gøre operatører til syndebukke, og kan offentligheden få et minimum af indsigt i rammerne – uden at operationer udleveres? Hvis ikke, er det ikke bare krig, der bliver kodet. Det er også ansvaret.



Follow Me