
Jeg skriver ikke som politiker. Ikke som teknolog. Jeg skriver som veteran og psykoterapeut.
Jeg arbejder primært med tidligere udsendte og deres pårørende. Jeg møder ikke krig som teori, men som eftervirkning: i kroppen, i søvnen, i blikket og i den særlige form for skade, der opstår, når et menneske føler, at det har handlet imod sine dybeste værdier, eller blevet presset til at leve med konsekvenser, som ikke længere kan forklares væk.
Derfor interesserer AI i militæret mig ikke først som teknik, men som psykologi.For teknologien lover én ting: hurtigere beslutninger. Men samvittigheden har sit eget tempo.
Afstand som designprincip
Klassisk krigsførelse krævede nærhed. Ikke fordi nærhed automatisk skaber moral, men fordi nærhed skaber friktion: kroppen mærker, at noget er alvor. Det er en naturlig bremse – tvivl, empati, konsekvensfornemmelse.
AI er en afstandsmaskine.
Først kom den fysiske distance: operatøren langt fra målet. Nu kommer den kognitive distance: algoritmen, der sorterer, prioriterer og foreslår og som kan gøre virkeligheden til et beslutningsforslag.
Det er her, faren bliver konkret: Når AI-baseret beslutningsstøtte forkorter beslutningscyklussen, risikerer mennesket at blive reduceret til formel godkendelse uden reel kritisk kontrol. En nyere dansk rapport fra Center for Militære Studier beskriver netop den risiko at mennesket kan ende som “valideringsrolle”, mens tempo og systemlogik tager styringen.
Papiret kan stadig sige “human in the loop”. Men praksis kan ende med “human after the loop”: mennesket bliver den, der forklarer bagefter – ikke den, der havde tid til at bremse før.
Tempoets moralske problem: Når etik taber til hastighed
Vi taler ofte om AI i krig som et etisk spørgsmål: proportionalitet, folkeret, menneskelig kontrol. Men i moderne konflikt, især informationskrig og hybridkrig, bliver det også et tidsproblem.Modparten spiller ikke nødvendigvis på etik.
Modparten spiller på tempo, mætning og psykologisk overbelastning. Når informationsstrømmen og beslutningstrykket bliver så intenst, at mennesker ikke kan følge med, bliver “meningsfuld menneskelig kontrol” ikke bare et princip; det bliver en tidsbuffer.
Og tidsbufferen er ofte det første, der bliver skåret væk.
Det er netop dér, moral injury får grobund: ikke kun i det, man gjorde, men i oplevelsen af, at man handlede uden at have plads til at mærke, vælge, tvivle eller forsvare sin egen menneskelighed i øjeblikket.
Empati, selektion og AI i militæret
Når lav-empati-profiler får et forstørrelsesglas.
Der findes en ubehagelig dynamik i militære organisationer: I perioder og under bestemte kulturer kan man komme til at belønne profiler, der trives i hård tone, dominans og “mission først” – og som har lettere ved at lukke ned for tvivl, skyld og sekundære konsekvenser.
Når AI integreres i operative og administrative beslutninger, kan den kultur få et forstærkningsværktøj.
AI kan blive en moralsk støddæmper: et system, der gør det nemmere at reducere mennesker til sandsynligheder, træffe hårde valg uden følelsesmæssig friktion og gemme ansvar bag model-output: “systemet sagde…”. Den type distance kan føles professionel. Men den kan også normalisere dehumanisering …ikke som en ond intention, men som en glidebane.
Hvis AI-brug i militæret ikke designes med etisk friktion og tydelige ansvarskæder, risikerer man i praksis at skabe et miljø, hvor mangel på empati ikke bare tolereres, men skaleres.
Det er ikke “føleri”. Det er operativ sikkerhed: fejl og eskalation opstår ikke kun af dårlige data, men også af mennesker og kulturer, der ikke mærker konsekvensen tidligt nok.
AI må ikke blive et redskab, der belønner det menneske, som mærker mindst.Den militære AI-æra kræver, at empati opgraderes fra “blød værdi” til operativ sikkerhed.
Hvem bør arbejde med militær AI?
Hvis vi mener det alvorligt, kan vi ikke bare uddele adgang og håbe på det bedste. Militær AI er en højrisiko-funktion, på linje med andre roller, hvor fejl og overgreb har irreversible konsekvenser.
Derfor giver det mening at tænke i roller og udvælgelse:
⁃ Operatører og analytikere, der arbejder med output
⁃ Beslutningstagere, der bærer ansvar
⁃ Udviklere og leverandørkontakt
⁃ Verifikation/audit (test, red teaming)
⁃ Juridisk/etisk kontrol
“Bedst egnet” handler ikke om at være mest effektiv, men om at være mest ansvarlig under pres. Den bedst egnede er den, der kan arbejde hurtigt uden at miste tvivlen og som kan dokumentere, begrunde og stå på mål for konsekvensen, uden at gemme sig bag systemet.
Danmark: teknologi ja – men hvor ligger hullet?
Den danske kontekst er anderledes end USA. Her er teknologien ofte mere “supplement” end styrende infrastruktur.
På veteranområdet arbejder Veterancentret eksempelvis med virtual reality som et undersøgt behandlingsspor i psykologisk PTSD-behandling, og de har offentliggjort projekter på området. (Der findes også forskning, der peger på accept og effekt af VR-eksponering i en dansk veteran-kontekst, men med vægt på den terapeutiske alliance. )
På militær beslutningsstøtte-siden peger CMS-rapporten på både potentiale og faldgruber ved AI-DSS i dansk forsvars- og kommando-kontekst, især risikoen for, at mennesket bliver reduceret til formalitet.
Hullet er derfor ikke, at der intet sker. Hullet er, at de bindende rammer og de konkrete designkrav let kommer bagefter, mens integrationen presser sig på af tempo, trusselsbillede og alliancekrav.
USA: når AI allerede er infrastruktur (og hvorfor det er relevant)
I USA er AI i veteransystemet allerede mere systemisk, især i selvmordsforebyggelse og dokumentation.
Der findes et velkendt program i Veterans Health Administration, REACH VET, som løbende kører risikomodeller for selvmord og markerer personer i den højeste risikogruppe for målrettet opfølgning. Programmet arbejder med “top 0,1%”-tærskler og månedlige risikofremskrivninger.
På den administrative side har VA lanceret ambient AI scribe (AI, der hjælper med kliniske notater), og VA’s egen kommunikation beskriver en udvidelse til alle VA medical centers i 2026 efter lancering i 2025. Pointen er ikke “USA gør det rigtigt”.
Pointen er, at når AI bliver infrastruktur, bliver spørgsmål om ansvar, bias, audit og menneskelig kontrol ikke filosofi; det bliver hverdag.
AI i terapi: redskab, ikke autoritet
Jeg bruger selv AI i mit arbejde, men ikke som diagnose, dom eller erstatning for relation. AI kan være et redskab til:
⁃ struktur og overblik
⁃ sprogliggørelse af kaos
⁃ spejling af mønstre
⁃ forberedelse af svære samtaler
⁃ “suppeterninger” – det vigtigste, uden at forfladige sandheden
Men AI må aldrig blive den, der har autoriteten. Den må aldrig blive den, man kan gemme sig bag.
I et traumefelt er menneskelig oversættelse ikke en detalje; det er selve princippet: AI kan generere ord, men kun mennesket kan mærke, hvad der er sandt i kroppen, hvad der er undvigelse forklædt som indsigt, og hvad der kan bæres ansvarligt.
Fem principper, der forhindrer “AI-superbrugere” uden empati:
1. Human-in-the-loop skal være reelt , ikke ceremonieltHvem tog beslutningen, hvorfor, og hvad blev fravalgt?
2. Etisk friktion som designkravStop-punkter: begrundelse, konsekvensvurdering, alternativ-scenarie og hvem der rammes.
3. Empatisk kompetence i AI-rolleIkke som følelse, men som funktion: forståelse for sekundære konsekvenser, eskalation og menneskelig belastning.
4. Rotation og peer reviewFølsomme outputs vurderes af flere, gerne tværfagligt, så én persons mønstre ikke får monopol.
5. Sprogpolitik: dehumanisering som rød linje
Når mennesker bliver til “targets”, “units” eller “problem population”, er misbruget allerede i gang.
Fire spørgsmål Danmark bør besvare, før tempoet gør det for os:
1. Kommer vi til at kræve meningsfuld menneskelig kontrol over alle beslutninger om magtanvendelse – som konkret regel, ikke kun princip?
2. Får vi ret til uafhængig audit og indsigt i AI-systemer, der påvirker beslutninger om magt, risikovurdering og proportionalitet?
3. Hvem har ansvaret, når AI-beslutningsstøtte skubber tvivl til handling – politisk, juridisk og personligt?
4. Hvilke røde linjer vil Danmark ikke krydse – heller ikke under alliancepres og trusselseskalation?
Hvis de spørgsmål ikke besvares, får vi en virkelighed, hvor mennesket stadig hæfter, men ikke længere styrer.
Fra veteran til vidne
Jeg har set krig tæt på.
Jeg har set eftervirkningen endnu tættere.
Afstand fjerner ikke smerten. Den udskyder den.
Og tempo kan gøre det lettere at handle, men tungere at leve med bagefter.
AI gør ikke krig mindre brutal. Den gør den mere gennemførlig.Vi designer ikke fred. Vi designer effektivitet.Og effektivitet gør det lettere at gøre det, vi egentlig ikke burde gøre.



Follow Me