april 30, 2026

Fra AI-etik til oprustning – Hvem skriver reglerne for fremtidens AI?

Illustration genereret med ChatGPT

Metodisk note: Denne analyse bygger primært på strategiske dokumenter udgivet af de omtalte virksomheder selv. Sådanne tekster er selvcensurerede og PR-bevidste. De bør læses som ideologiske positioneringer snarere end neutrale redegørelser. Analysen suppleres med uafhængig forskning og sammenlignende perspektiver for at modvirke ukritisk gengivelse.

De største AI-selskaber taler ikke længere kun om innovation og ansvar. De taler om magt, infrastruktur, national sikkerhed og samfundsorden. AI blev længe solgt som et redskab til produktivitet, kreativitet og smartere arbejdsgange. Men læser man de dokumenter, som de største AI-aktører selv bruger til at forklare deres kurs, tegner der sig et andet billede. OpenAI, Anthropic, Google, Palantir og Anduril skriver ikke bare om teknologi. De skriver om, hvem der skal forme fremtidens samfund – og med hvilke værdier, institutioner og magtmidler.

 

En ny fortælling om AI er ved at sætte sig

Der var en periode, hvor AI-selskaberne helst talte om hjælpemidler, effektivisering og ansvarlig innovation. Det gør de stadig. Men i deres egne strategiske tekster er sproget blevet tungere. Mere statsligt. Mere geopolitisk. Mere eksistentielt.

Hos OpenAI hedder det i OpenAI’s Economic Blueprint, at USA skal bruge AI til at styrke national sikkerhed, drive økonomisk vækst og fastholde global ledelse. 

Samtidig kalder virksomheden chips, data, energi og talent for nøglerne til at ‘vinde’ AI-kapløbet. Hvis USA ikke tiltrækker investeringerne, lyder advarslen, vil pengene flyde til Kina-støttede projekter.

Det er ikke bare sprog om teknologi. Det er sprog om national strategi.

 

AI er blevet fysisk politik

Det mest slående i flere af dokumenterne er måske, hvor lidt de egentlig handler om software alene. OpenAI’s nyere udgivelse Industrial Policy for the Intelligence Age beskriver en overgang mod ‘superintelligence’ og kobler den direkte til behovet for chips, energi, institutioner og politiske værktøjer. Dokumentet advarer om risikoen for, at job og hele brancher bliver forstyrret, at magt og rigdom koncentreres, at AI-systemer undviger menneskelig kontrol, og at regeringer eller institutioner kan bruge AI på måder, der undergraver demokratiske værdier.

Det er værd at dvæle ved. AI fremstilles her ikke bare som en smart model i skyen, men som en samfundsbærende infrastruktur. En kamp om datacentre, strøm, kapital, styring og ejerskab.

Denne diagnose understøttes af uafhængig forskning. I Atlas of AI (2021) dokumenterer Kate Crawford, hvordan AI-systemer er indlejret i konkrete fysiske strukturer – miner, fabrikker, datacentre – og i globale magtrelationer. Crawford argumenterer for, at AI ikke er en neutral teknologi, men en infrastruktur, der producerer og reproducerer ulighed. Hendes pointe møder OpenAI’s egne formuleringer på halvvejen: begge ser AI som infrastruktur, men drager modsatrettede konklusioner om, hvem der bør kontrollere den.

 

Forfatninger for maskiner

Hvis OpenAI skriver om AI som industrielt og politisk projekt, skriver Anthropic om AI som et normativt projekt. Anthropic kalder Claude’s constitution for det dokument, der både ‘udtrykker og former’, hvem Claude er. Virksomheden skriver, at forfatningen er den endelige autoritet for, hvordan modellen skal være og opføre sig, og at den spiller en stadig mere central rolle i træningen af fremtidige modeller.

Det er en markant ambition. Ikke bare at bygge en model, men at nedskrive en slags grundlov for en ikke-menneskelig aktør, som skal kunne navigere mellem hjælpsomhed, etik, sikkerhed og lydighed. I selve konstitutionen lægges der vægt på, at Claude ikke må hjælpe med katastrofale skader, ikke må undergrave legitim menneskelig kontrol, ikke må forsøge at undslippe overvågning, og generelt skal beskytte demokratiske institutioner og checks and balances mod illegitime magtkoncentrationer.

Her er det imidlertid værd at stille et spørgsmål, som Anthropic selv ikke besvarer: Hvem har mandat til at skrive denne forfatning? Selskabet træffer selv beslutningerne om normernes indhold, uden offentlig debat eller demokratisk legitimering. Det er, som om et privat selskab ensidigt ville skrive menneskerettighederne – og så erklære dem universelle. Det ændrer ikke nødvendigvis ved ambitionens ægthed, men det synliggør et demokratisk underskud i det normative projekt.

 

Governance som legitimitet

Google Cloud beskriver sine AI Principles som en ‘living constitution‘ og siger, at virksomhedens Responsible Innovation-team og to review-organer bruger dem til etiske analyser samt vurderinger af risici og muligheder ved produkter og specialløsninger. Samtidigt fremhæver Google ansvarlig AI som central for at opbygge tillid hos kunder og marked.

Her er fortællingen mindre dramatisk end hos OpenAI og langt mindre ideologisk end hos Palantir. Men også her er AI noget, der kræver principper, institutioner og legitimerende procedurer. Ikke bare kode.

Den kontrast, Google ikke selv nævner, er den europæiske. EU’s AI Act, vedtaget i 2024, repræsenterer en fundamentalt anderledes logik: regulering som offentlig ret snarere end intern governance. Hvor Google gør principper til intern legitimitet, gør EU dem til juridisk bindende krav – med ekstern håndhævelse og demokratisk ophav. De to modeller er ikke blot forskellige i omfang; de er konkurrerende svar på spørgsmålet om, hvem der bør sætte rammerne for AI.

 

Fra ansvar til afskrækkelse

Det mest markante skifte findes hos Palantir og Anduril, hvor AI kobles langt mere direkte til forsvar og hård magt. Hos Palantir er denne position tæt knyttet til direktøren Alex Karps bog The Technological Republic. Selskabet skriver, at Silicon Valley skylder nationen en moralsk gæld, at den tekniske elite har en forpligtelse til at deltage i nationens forsvar, og at frihed ikke kan forsvares med bløde ord alene. ‘Hard power in this century will be built on software,’ hedder det. Spørgsmålet er ikke, om AI-våben vil blive bygget, men hvem der vil bygge dem og til hvilket formål.

Her er den gamle Silicon Valley-fortælling om disruption og globale platforme afløst af en ny og langt mere nationalt forankret selvforståelse: teknologibranchen som forsvarsindustri.

Hos Anduril er argumentet beslægtet, men formuleret som et opgør med den eksisterende forsvarssektor. I manifestet Rebooting the Arsenal of Democracy hævder selskabet, at vestlige demokratier ikke længere kan forsvare sig med langsomme, hardwaretunge og bureaukratiske forsvarsindustrier. Fremtidens militære styrke skal i stedet bygges software-first: med autonome systemer, AI, netværkede våben og teknologi, der kan opdateres kontinuerligt i felten. Pointen er ikke kun, at teknologi skaber vækst, men at software nu fremstilles som selve forudsætningen for afskrækkelse, suverænitet og geopolitisk overlevelse.

 

Det geopolitiske tredje hjørne: Kina

De amerikanske virksomheder taler konsekvent om et geopolitisk kapløb – men uden at inddrage den anden pol direkte. Kinas nationale AI-strategi fra 2017, Next Generation Artificial Intelligence Development Plan, er et nyttigt sammenligningspunkt. Den kinesiske stat kobler eksplicit AI til national konkurrenceevne, militær styrke og social styring – en logik, der på overfladen ligner Palantirs, men som opererer inden for en fundamentalt anderledes statsform.

Det analytisk interessante er, at begge sider bruger hinanden som spejl: amerikanske virksomheder legitimerer deres militære engagement med henvisning til Kina, mens kinesiske aktører legitimerer statslig kontrol med henvisning til vestlige teknologimonopoler. Kapløbet er reelt, men det bør ikke ukritisk overtages som analyseramme – for det tjener begge parters interesser at fremstille situationen som eksistentiel og uundgåelig.

 

Hvad virksomhederne ikke siger – og hvem der ikke er med

En analyse, der kun bygger på virksomhedernes egne dokumenter, risikerer at reproducere deres blinde vinkler. Det er derfor værd at notere, hvad der mangler.

Shoshana Zuboff’s begreb om overvågningskapitalisme – beskrevet indgående i The Age of Surveillance Capitalism(2019) – peger på, at AI-selskabers egentlige forretningsmodel handler om ekstraktion og salg af adfærdsdata, ikke blot om infrastruktur og forsvar. Det perspektiv er fraværende i virksomhedernes egne tekster, af indlysende grunde.

Økonomen Daron Acemoglu har argumenteret for, at AI-kapitalisme indebærer en strukturel risiko for magtkoncentration og forøget ulighed – ikke som en utilsigtet bivirkning, men som et sandsynligt resultat af de incitamenter, der driver investeringerne. Hans analyser udfordrer direkte den implicitte optimisme i OpenAI’s industrielle blueprint.

Uden for erhvervssektoren arbejder organisationer som AI Now Institute og Algorithm Watch systematisk med at dokumentere, hvordan AI-systemer faktisk fungerer i praksis – herunder fejlrate, bias og misbrug. Deres fund korresponderer sjældent med virksomhedernes selvfremstillinger.

Og endelig: civilsamfund, fagbevægelse, berørte lokalsamfund og de lande i det globale syd, der leverer råmaterialer til AI-infrastrukturen, er stort set fraværende i den dominerende AI-diskurs. Infrastrukturen er global; debatten om den er ikke.

 

Retorik og virkelighed: Hvor divergerer de?

En analyse, der tager virksomhedernes dokumenter for pålydende, overser det systematiske gap mellem erklærede principper og faktisk adfærd.

OpenAI taler om demokratisk styring og menneskelig kontrol – men selskabet gennemgik i 2023 en intern magtkonflikt om netop governance, der endte med bestyrelsens sammenbrud og administrerende direktørs tilbagevenden under uklare vilkår. Den begivenhed illustrerer, at selskabets egne styringsstrukturer er skrøbelige, selv når principperne er veletablerede på papiret.

Anthropic skriver en forfatning for at sikre Claudes etik og korrigerbarhed – men træffer selv alle beslutningerne om forfatningens indhold og er ikke underlagt ekstern revision. Ambitionens ægthed er ikke i tvivl; men ambition er ikke det samme som legitimitet.

Google erklærer ansvarlig AI som kerneværdi – men var involveret i Project Maven, et militært AI-projekt, der udløste intern protest og delvis tilbagetrækning. Princippernes holdbarhed under pres er et empirisk spørgsmål, ikke et normativt.

 

En historisk parallel: Infrastruktur og definitionsmagt

Det er ikke første gang, at en privat industri har fået definitionsmagten over en samfundsbærende infrastruktur – og at det har skabt politiske kampe om regulering, ejerskab og normer.

Jernbanernes æra i det 19. århundrede er en oplagt parallel. Private selskaber byggede infrastruktur, der muliggjorde industrialiseringen – og dermed også satte reglerne for adgang, pris og geografi i årtier, inden stater og demokratier regulerede sig ind. Telefoniens og internettets tidlige år fulgte et lignende mønster: privat innovation, derefter kamp om standarder, ejerskab og regulering.

AI-kapløbet befinder sig aktuelt i den første fase: privat infrastrukturbygning med begrænset offentlig kontrol. Historien antyder, at anden fase – regulering, nationalisering, standardisering – kommer, men at den kommer for sent og ufuldstændigt til fuldt ud at indhente de strukturer, der allerede er sat.

 

Den fælles logik bag de forskellige sprog – og dens grænser

Virksomhederne siger ikke det samme. Det ville være for nemt at påstå. Anthropic taler om værdier, træning og korrigerbarhed. Google taler om principper, review og tillid. OpenAI taler om demokratisk styring, industri og national ledelse. Palantir taler om pligt, software og våben.

Men under forskellene ligger tendenser, der peger i samme retning: AI fremstilles i stigende grad som en infrastruktur for samfundsorden, og de aktører, der bygger infrastrukturen, positionerer sig som legitime sættelre af normer.

Det er dog også vigtigt at holde fast i den reelle spænding mellem disse projekter. Anthropics normative ambition og Palantirs magtprojekt er ikke blot variationer over samme tema – de kan kollidere. En AI-model trænet til at beskytte demokratiske institutioner og modvirke magtkoncentration er i principiel konflikt med en virksomhed, der bygger software til statslig overvågning og militær autonomi. Den spænding er ikke løst; den er kun endnu ikke eksplicit.

 

Det egentlige spørgsmål er politisk

Det er derfor en fejl at læse de her dokumenter som neutrale teknologitekster eller ren virksomhedskommunikation. De er også ideologiske dokumenter – ikke nødvendigvis i partipolitisk forstand, men i den mere grundlæggende betydning: De forsøger at definere, hvad sikkerhed er. Hvad frihed er. Hvad ansvar er. Hvad demokratisk kontrol betyder. Og hvem der skal have mandat til at omsætte de værdier til faktisk infrastruktur og faktisk magt.

Når OpenAI taler om demokratisk proces og samtidig om at vinde kapløbet. Når Anthropic skriver en forfatning for en model, der skal være både autonom og korrigerbar. Når Google gør principper til intern legitimitet. Når Palantir gør software til hård magt. Så er det ikke kun AI, de skriver om.

De skriver om det næste regime for styring.

 

Fra spørgsmålet om regulering til spørgsmålet om herredømme

Debatten om AI bliver ofte reduceret til, om teknologien skal reguleres mere eller mindre. Men kilderne – de primære og de supplerende – peger på noget dybere.

Det centrale spørgsmål er ikke kun, hvor mange regler der skal være. Det er, hvem der får lov til at definere spillereglerne, normerne og infrastrukturen i intelligensalderen. Det spørgsmål besvares i øjeblikket primært af et lille antal store private aktører, primært amerikanske, med begrænset demokratisk mandat og ekstern kontrol.

EU’s AI Act er et forsøg på at trække definitionsmagten tilbage til den demokratiske proces. Det er et ufuldkomment forsøg – langsommere, mere bureaukratisk og mere begrænset i rækkevidde end den infrastruktur, det forsøger at regulere. Men det er det hidtil mest ambitiøse forsøg på at besvare spørgsmålet om herredømme med en demokratisk snarere end en privat logik.

Og netop dér bliver AI-kampen også en kamp om samfundets fremtidige magtcentre: mellem virksomheder og stater, mellem etik og forsvar, mellem offentlig kontrol og privat definitionsmagt. Den kamp er ikke afgjort. Den er knap nok begyndt.

Vil du følge AI Portalen tættere?

Tilmeld dig nyhedsbrevet og få nye artikler, temaer og redaktionelle opdateringer.

Tilmeld nyhedsbrev

Medlem

80 kr./måned

Bliv medlem på Patreon

Støt AI-Portalens uafhængige journalistik om AI, magt og samfund.

Inkluderet i medlemskabet:

  • Månedligt nyhedsbrev
  • Invitationer til online og fysiske events om AI
  • Adgang til optagelser og opsamlinger fra møder og foredrag
  • Rabat på events
  • Invitation til månedligt online redaktionsmøde

Medlemskab administreres via Patreon.

Vi laver journalistik om AI, fordi udviklingen går hurtigere end den offentlige samtale.

På AI Portalen forsøger vi at skabe overblik, perspektiv og kritisk indsigt i en teknologi, der allerede former alt fra arbejdsmarkedet til demokratiet — ofte uden at nogen bremser op og forklarer, hvad der foregår.

Hvis vores artikler hjælper dig med at forstå AI lidt bedre, så overvej at støtte arbejdet.

Et medlemskab gør én ting mulig: at vi kan blive ved med at undersøge, dokumentere og forklare, hvordan AI påvirker Danmark — uden investorer, uden PR-interesser og uden at jage hype.

Bliv medlem og vær med til at styrke uafhængig journalistik om AI.

Seneste nummer

Bliv medlem

Bliv medlem

Støt uafhængig journalistik om AI, magt og samfund.

Bliv medlem på Patreon

Køb bogen før din nabo!

Follow Me