
Vi bryder os ikke om usikkerhed
Som mennesker nedbrydes vi af den. Af konstant tvivl, konstant alarmberedskab, konstant behov for at vurdere, hvad der er ægte, og hvad der er manipulation. Over tid slider det på dømmekraften, på psyken og på evnen til at handle ansvarligt.
Så vi har gjort noget meget menneskeligt:
Vi har outsourcet den.
I store centre i Sydøstasien sidder mennesker og sorterer det værste, informationsrummet har at byde på. Vold, had, propaganda, misinformation. De ser det, vi ikke vil se. De bærer den mentale belastning, så resten af verden kan bevare illusionen om et nogenlunde civiliseret informationsmiljø. Det er ikke fordi, de er bedre rustet. Det er fordi, de er billigere.
Vi har allerede accepteret, at en del af den kognitive nedbrydning, som følger med konstant usikkerhed, kan flyttes væk fra os selv. Ikke fordi arbejdet er ufarligt, men fordi det kan defineres som lav følsomhed.
Der er ikke langt fra den type arbejde til militært relevant informationsarbejde, der formelt set også kan betegnes som lavt følsomt: filtrering, mønstergenkendelse, prioritering, analyse. Opgaver, der ikke affyrer våben, men som former beslutningsgrundlaget for dem, der gør.
Det er ikke en påstand om, at militære beslutninger allerede er outsourcet. Det er en konstatering af, at den organisatoriske og psykologiske logik, der gør det muligt, allerede eksisterer.
I en sag fra sidste år blev det tydeligt, hvor let informationsrummet kan flyttes – ikke over måneder, men over timer. En fortælling opstod, spredte sig og satte sig fast i systemer, mange opfatter som neutrale og autoritative. Sagen endte med at omhandle Flügger og påstande om brud på sanktioner og handel med Rusland.
Det afgørende her er ikke virksomhedens ansvar eller sagens endelige udfald. Det afgørende er, at efterfølgende analyser viste, at informationsstrømmen ikke opstod tilfældigt. Den kunne føres tilbage til et organiseret miljø med forbindelser til russiske aktører, og der blev dokumenteret økonomiske spor i samme retning. Informationsrummet blev ikke bare påvirket. Det blev bevidst manipuleret.
Manipulationen skete uden hacking, uden overtagelse af systemer og uden tekniske brud. Systemerne fungerede, som de var designet til at fungere. Og netop derfor virkede det.
På meget kort tid blev et komplekst sagsforløb reduceret til en entydig fortælling, som bredte sig på tværs af søgemaskiner, medier og platforme. Ikke fordi den var verificeret, men fordi den var genkendelig, gentaget og strukturelt kompatibel med de systemer, der sorterer information for os.
Det viser noget ubehageligt: at informationssystemer kan bringes i ubalance uden magt, uden adgang og uden regelbrud. Det kræver ikke kontrol over systemet. Det kræver forståelse for det.
Og det er her paradokset for alvor begynder.
Vi kender fortællingen. To mænd står i et rum, begge skal dreje på hver sin nøgle samtidig. Ingen kan handle alene. Systemet er bygget til at forhindre fejl, panik og vanvid. Det er billedet på menneskelig kontrol i sin reneste form.
Men i en AI-tidsalder modtager de to mænd ikke længere uafhængig information. De ser det samme billede, filtreret gennem de samme modeller, de samme datasæt, de samme bias. Det er ikke to vurderinger. Det er én algoritmisk fortolkning, spejlet to gange, under ekstremt pres.
Og presset er nyt. Vi taler ikke længere minutter eller halve timer. I nogle scenarier taler vi millisekunder. Eskalation kan være i gang, før nogen ved, at den er begyndt.
En AI uden regler, guardrails og runtime-begrænsninger er farlig. Den kan stikke af, blive uregerlig, reagere uforudsigeligt. Som et barn uden opsyn. Men den har én fordel: den kan ændre sig i takt med verden, som den faktisk er.
Det modsatte lyder sikkert. Klare regler. Faste grænser. Præcise rammer for adfærd. Det føles ansvarligt. Det føles trygt.
P
roblemet er bare, at verden ikke følger regler.
I et informationsrum præget af real-time data, misinformation og bevidst manipulation fra aktører, der er fuldstændig ligeglade med normer og aftaler, bliver rigide AI-systemer ikke stabile. De bliver blinde. De reagerer mekanisk på mønstre, der ligner noget kendt, også når signalerne er falske.
Disse signaler præsenteres for et human-in-the-loop, hvor erfaringen langsomt har lært operatøren, at AI’en som regel har ret. Og så får mennesket sekunder til at handle. Ikke tid til refleksion. Ikke tid til tvivl. Sekunder.
Falsk tryghed viser sig her at være farligere end kendt utryghed. Når vi ved, at noget er usikkert, kompenserer vi. Vi sætter tempoet ned. Vi tvivler. Når noget føles sikkert, slipper vi kontrollen.
Men det omvendte er heller ikke muligt.
Mennesker kan ikke leve i konstant kognitiv usikkerhed uden at tage skade. Og de få mennesker, der kan fungere upåvirket i permanent usikkerhed, er måske ikke dem, vi ønsker sidder med beslutninger, hvor konsekvenserne er irreversible.
Paradokset er derfor uløseligt.
Vi kan ikke lade AI handle uden menneskelig endelig beslutning.
Men vi kan heller ikke bygge systemer, hvor mennesket kun er en juridisk bremse, fanget mellem falsk tryghed og ekstremt tidspres.
Verden bliver ikke nødvendigvis mere sikker.
Der sker bare ting hurtigere.
Og det kan føles som kontrol.
Jeg kunne lade dig, læser, sidde tilbage med et spørgsmålstegn og give dig plads til selv at tænke videre. Men det ville samtidig give indtryk af, at jeg har et svar. At der findes en løsning på de paradokser, der er skitseret ovenfor.
Det ved jeg ikke, om der gør. Og jeg er heller ikke sikker på, at det overhovedet er et relevant spørgsmål i en krisesituation.
Krig er beskidt.
Mennesker bliver ofre.
Og måske er det netop her, i informationskrigen, at vi som nation kommer til at betale prisen. Ikke fordi vi valgte det, men fordi der ikke fandtes et alternativ der var mindre grimt.

Follow Me