Sådan får demokratiet overblik – uden at udlevere operationer

Illustration genereret af ChatGPT

Militær brug af kunstig intelligens rejser et paradoks: Jo mere teknologien bruges til at sortere information og accelerere beslutninger, desto sværere bliver det for offentligheden at forstå, hvem der faktisk har haft kontrol – og på hvilket grundlag. Samtidig er det åbenlyst, at fuld åbenhed om militære systemer ikke er realistisk.

Men demokratisk kontrol kræver ikke adgang til operationelle detaljer. Den kræver indsigt i rammerne: hvilke typer systemer der bruges, hvordan beslutninger godkendes, hvordan ansvar kan efterprøves, og hvem der fører tilsyn. Spørgsmålet er derfor ikke om demokratiet kan få greb – men hvordan.

Hvad er problemet, der skal løses?

På tværs af artiklerne i temaet tegner der sig tre sammenhængende udfordringer:

For det første ansvarsfiltrering. Når AI indgår i kæder fra data til anbefaling til handling, bliver beslutningen et resultat af mange led. Operatører, procedurer, systemdesign, leverandører og politiske rammer flettes sammen. Resultatet kan blive, at ingen enkelt instans reelt kan stå på mål bagefter.

For det andet tempo. AI bruges netop for at gøre militære beslutninger hurtigere. Men når tempoet stiger, reduceres den tid og det rum, som folkeretten forudsætter for menneskelig vurdering – særligt proportionalitetsvurderinger og forholdsregler.

For det tredje beslutningsfiltrering. AI-systemer sorterer virkeligheden, før mennesker ser den. Det betyder, at menneskelig kontrol ofte udøves på et allerede indsnævret grundlag. Det er her, “human-in-the-loop” risikerer at blive en formalitet.

Løsningerne må derfor rette sig mod design, processer og kontrol – ikke kun mod den enkelte operatør.

Minimumsstandard: Hvad betyder meningsfuld menneskelig kontrol?

Debatten om “meaningful human control” bliver ofte abstrakt. Men på tværs af jura, militær praksis og policy kan begrebet oversættes til fem praktiske kriterier, som kan stilles som krav:

For det første: Operatøren skal have tid til at vurdere. Hvis tempoet i systemet gør selvstændig vurdering umulig, er kontrollen ikke meningsfuld.

For det andet: Operatøren skal have information om usikkerhed og fejltyper. Anbefalinger uden angivelse af usikkerhed skubber ansvar nedad uden reelt grundlag.

For det tredje: Operatøren skal kunne afvise systemets anbefalinger uden systemisk pres – organisatorisk, kulturelt eller proceduremæssigt.

For det fjerde: Der skal være logning og sporbarhed, så det kan dokumenteres, hvad systemet anbefalede, hvad mennesket gjorde, og hvorfor.

For det femte: Der skal være tilsyn og hændelsesrapportering, også for “nærved-hændelser”, hvor noget kunne være gået galt.

Menneskelig kontrol handler dermed ikke om, hvor et menneske sidder i loopet, men om hvorvidt kontrol, dømmekraft og ansvar er reelle.

Designkrav: Når teknologien former beslutningen

Hvis man vil undgå, at kontrol bliver symbolsk, skal kravene starte i systemernes design.

AI-systemer, der bruges i militære sammenhænge, bør være eksplicitte om usikkerhed og begrænsninger. Anbefalinger bør ledsages af alternative scenarier, ikke kun én “bedste løsning”. Systemerne skal kunne indikere, når de befinder sig i situationer, der ligger uden for deres træningsgrundlag – såkaldt out-of-distribution.

Derudover bør designet understøtte efterprøvning: Det skal være muligt at rekonstruere, hvilke data og hvilke modeller der lå til grund for en anbefaling på et givent tidspunkt. Uden den mulighed bliver ansvar et tomt begreb.

Proceskrav: Stopklodser mod gummistempel

Selv gode systemer kan bruges dårligt, hvis processerne presser mod hastighed og rutine.

Derfor giver det mening at stille krav om topersoners kontrol ved særligt kritiske beslutninger. Ikke som bureaukrati, men som beskyttelse mod automatiseret godkendelse.

Der bør også være krav om aktiv begrundelse: Når en anbefaling følges – eller fraviges – skal der kunne angives en kort begrundelse. Det skaber både ansvar og læring.

Endelig bør der indbygges stop-punkter, hvor systemet ikke kan levere anbefalinger, hvis datakvaliteten er for lav, eller usikkerheden for høj. Det er bedre med et bevidst stop end med en falsk præcision.

Kontrolkrav: Logning, audit og hændelser

Kontrol kan ikke være en engangsøvelse ved indkøb eller godkendelse. Den skal være løbende.

Det kræver konsekvent logning af systemoutput, menneskelige beslutninger og afvigelser. Ikke for at straffe, men for at muliggøre efterprøvning.

Derudover bør der være uafhængige audits – fortrolige, men reelle – hvor systemer, procedurer og praksis gennemgås. Og der bør være klare procedurer for hændelsesrapportering, også for situationer, hvor noget næsten gik galt.

Uden disse mekanismer bliver ansvar først synligt, når skaden er sket.

Demokratisk minimumsindsigt – uden at afsløre operationer

Offentligheden kan ikke – og skal ikke – kende taktiske detaljer. Men der findes et rimeligt minimum af indsigt, som kan kræves i et demokrati.

Det handler blandt andet om overordnet viden om hvilke kategorier af AI-systemer der bruges: overvågning og efterretning, beslutningsstøtte eller funktioner tæt på våbensystemer.

Det handler også om governance: Hvem kan godkende brug? Hvornår kræves eskalation? Findes der klare stopklodser?

Derudover kan der stilles krav om gennemsigtighed på procesniveau: findes der logning, audit og uafhængigt tilsyn – også selv om indholdet er klassificeret?

Offentligheden kan få indsigt i rammerne for ansvar, uden at få indsigt i operationerne.


Boks: 4 ting der kan offentliggøres – og 4 ting der normalt må være fortrolige

Kan offentliggøres:

  • Kategorier af AI-systemer i brug (ISR, beslutningsstøtte, funktioner tæt på våben)
  • Overordnede godkendelses- og kontrolprincipper
  • Krav til logning, audit og hændelsesrapportering
  • Eksistensen af uafhængigt tilsyn med fortrolig adgang

Bør være fortrolige:

  • Konkrete operationsdetaljer (hvor, hvornår, hvordan)
  • Tekniske kapaciteter, svagheder og thresholds
  • Detaljer om måludvælgelse og engagementregler i praksis
  • Klassificeret systemarkitektur og integrationer

Fra våbenscreening til løbende compliance

Folkeretten forudsætter allerede kontrol. Artikel 36 i Tillægsprotokol I til Genèvekonventionerne forpligter stater til at vurdere nye våben og metoder. Men AI udfordrer forestillingen om, at en godkendelse kan gives én gang for alle.

AI er ikke et statisk produkt. Modeller opdateres, data ændrer sig, og anvendelser glider. Derfor bør våbenreview suppleres af løbende re-validering, driftsovervågning og systematisk læring fra hændelser.

AI er ikke kun et indkøb – det er en vedvarende forvaltningsopgave.

Hvad kan Danmark konkret gøre i 2026?

Danmark er ikke først i feltet. Det kan være en fordel.

Som “third mover” kan Danmark stille krav ved indkøb: krav om audit-rettigheder, dokumentation, test og transparens på procesniveau. Danmark kan insistere på, at ansvarlighed ikke er et slogan, men en del af kontrakten.

Derudover kan Danmark bruge internationale spor – NATO, FN og EU – til at presse på for fælles standarder for logning, audit og menneskelig kontrol, også hvor bindende regler endnu mangler.

Det er ikke et spørgsmål om at stoppe teknologien. Det er et spørgsmål om at sikre, at når beslutninger flytter sig ind i systemer, så følger ansvar, kontrol og demokratisk indsigt med.

Seneste nummer

Køb bogen før din nabo!

Bliv medlem

Vi er i gang med at bygge Danmarks første medlemsdrevne medie om AI. Det handler ikke om at få mere indhold. Det handler om at få bedre viden.

Vil du være med? Klik her – og vælg selv, hvordan du vil støtte:

Meld dig til her.

Follow Me