AI-Basics, del 5

AI-geopolitik: USA, Kina – og Europas (og Danmarks) vej ind i midten

Skrevet af Kåre Bjørn Jensen assisteret af AI

Da kinesiske DeepSeek pludselig blev et globalt samtaleemne, blev AI-kapløbet for mange ledere konkret: Det handler ikke kun om “bedre modeller”, men om data, forsyningskæder, chips, energiforbrug og tillid. I 2026 er AI-geopolitik derfor blevet en indkøbsdisciplin – ikke en avisoverskrift.

DeepSeek-casen er et godt startpunkt. På den ene side viser den, hvor hurtigt kinesiske aktører kan skalere (og hvor meget “open”-modeller kan flytte). På den anden side er DeepSeek samtidig blevet mødt af voksende regulatorisk og politisk modreaktion i flere lande, bl.a. med begrænsninger i offentlige systemer og undersøgelser af datapraksis [1]. Og i Kina illustrerer Huawei-versionen “DeepSeek-R1-Safe” noget andet centralt: at generativ AI i stigende grad formes af nationale regler og værdier – her via hård indholdsfiltrering og krav om “socialist values” [2].

USA: kapital, hyperscalers – og en ny flaskehals: energi

USA’s styrke er stadig økosystemet: hyperscalers, venturekapital, softwareplatforme og et enormt marked, der kan betale for compute. Men det er ikke længere nok at kunne købe GPU’er; man skal også kunne skaffe strøm og køling. Det er en af forklaringerne på, at OpenAI og SoftBank nu investerer direkte i energi- og datacenter-infrastruktur for at sikre kapacitet til træning og drift (“Stargate”) [10].

Samtidig er chips blevet geopolitisk valuta. NVIDIA er fortsat den dominerende leverandør – og netop derfor bliver eksportlicenser, forhandlinger og lovforslag en del af risikobilledet. På CES 2026 pegede NVIDIA’s CEO på, at eventuelle leverancer til Kina i praksis vil kunne aflæses i, om ordrer kan placeres (og om licenser godkendes) [7]. Og i USA er der også politisk pres for at blokere salg af avancerede AI-chips til Kina [8].

Kina: effektivisering, open weights – og tættere statslig styring

Kina er stærk på skala, hastighed og “effektiv innovation”: at gøre mere med mindre, genbruge open-weights og optimere implementering. Men tilgangen kommer ofte med to vilkår: 1) tættere regulering af indhold og brug, og 2) et voksende fokus på nationale alternativer til vestlig hardware og software. Huawei-casen viser begge dele: en modelvariant designet til høj filtreringsrate – trænet på virksomhedens egne Ascend-chips [2]. For europæiske organisationer bliver den centrale pointe praktisk: geopolitik kan påvirke alt fra datasuverænitet til, hvad en model “må” svare.

EU: regulering + kapacitet (og en midterstrategi)

EU forsøger at spille et dobbeltsignal: Skarpere regulering, men også mere compute. På kapacitetssiden udvidede EU i oktober 2025 netværket af “AI Factories” til i alt 19 på tværs af 16 medlemslande, med adgang til AI-optimerede supercomputere og støtte til bl.a. startups og SMV’er [3]. På regelsiden trådte EU’s nye krav til udbydere af general-purpose AI (GPAI) i kraft i august 2025 – med krav om mere dokumentation, ophavsretlig ansvarlighed og (for de mest kraftfulde modeller) ekstra sikkerhedsforpligtelser [5].

Danmark ligger ofte stærkt i “oversættelsen til praksis”: Datatilsynet og Digitaliseringsstyrelsen offentliggjorde i oktober 2025 slutrapporter fra den første AI-regulatoriske sandkasse – med konkrete læringer fra både privat og offentlig brug af generativ AI [6]. Det er et godt eksempel på en dansk “midterstrategi”: test, governance og ansvarlighed – uden at stoppe innovation.

Hvad betyder det for indkøb og strategi i Danmark?

Fem spørgsmål kan løfte diskussionen fra “hvilken model er bedst?” til “hvilken løsning kan vi stå på mål for?”:

  1. Hvor ender data (og metadata) – og under hvilken jurisdiktion? [1]
  2. Hvad er leverandørens compliance-pakke: dokumentation, auditspor, ophavsret og sikkerhed? [5]
  3. Hvilke afhængigheder har vi til chips/compute, som kan påvirkes af eksportregler? [7][9]
  4. Kan løsningen fungere i et energibegrænset scenarie (hybrid, caching, mindre modeller)? [10]
  5. Har vi en dansk/europæisk governance-ramme, så brugen kan skaleres trygt? [6]

Hvis 2023 var “prompting”, og 2024 var “pilotprojekter”, så er 2026 året, hvor AI bliver geopolitisk drift. Det kan lyde tungt – men for ledere er det i praksis et valg om robusthed: at bygge AI, der virker i virkeligheden, også når verden strammer til.


Kilder

[1] Reuters – “Governments, regulators increase scrutiny of DeepSeek” (6. januar 2026). (Reuters)
[2] Reuters – “China’s Huawei co-develops DeepSeek model, improves censoring” (19. september 2025). (Reuters)
[3] EU-Kommissionen (Shaping Europe’s digital future) – “EU expands network of AI Factories…” (10. oktober 2025). (digital-strategy.ec.europa.eu)
[4] EuroHPC Joint Undertaking – “Selects Six Additional AI Factories…” (10. oktober 2025). (eurohpc-ju.europa.eu)
[5] EU-Kommissionen (PRESS RELEASE) – “EU rules on general-purpose AI models start to apply…” (1. august 2025). (digital-strategy.ec.europa.eu)
[6] Datatilsynet – “Slutrapporter fra første runde af den regulatoriske sandkasse om AI” (22. oktober 2025). (Datatilsynet)
[7] Reuters – “Nvidia CEO says purchase orders… will signal Chinese approval of H200” (6. januar 2026). (Reuters)
[8] House Foreign Affairs Committee (Press release) – “Meeks Introduces Bill to Block Sales of Advanced AI Chips to China” (december 2025). (democrats-foreignaffairs.house.gov)
[9] Reuters – “OpenAI, SoftBank invest $1 billion in SB Energy…” (9. januar 2026). (Reuters)
[10] OpenAI – “OpenAI and SoftBank Group partner with SB Energy…” (9. januar 2026). (openai.com)

Seneste nummer

KURSER

Køb bogen før din nabo!

Bliv medlem

Vi er i gang med at bygge Danmarks første medlemsdrevne medie om AI. Det handler ikke om at få mere indhold. Det handler om at få bedre viden.

Vil du være med? Klik her – og vælg selv, hvordan du vil støtte:

Meld dig til her.

Follow Me