AI-geopolitik: USA, Kina – og Europas (og Danmarks) vej ind i midten

Skrevet af Kåre Bjørn Jensen assisteret af AI
Da kinesiske DeepSeek pludselig blev et globalt samtaleemne, blev AI-kapløbet for mange ledere konkret: Det handler ikke kun om “bedre modeller”, men om data, forsyningskæder, chips, energiforbrug og tillid. I 2026 er AI-geopolitik derfor blevet en indkøbsdisciplin – ikke en avisoverskrift.
DeepSeek-casen er et godt startpunkt. På den ene side viser den, hvor hurtigt kinesiske aktører kan skalere (og hvor meget “open”-modeller kan flytte). På den anden side er DeepSeek samtidig blevet mødt af voksende regulatorisk og politisk modreaktion i flere lande, bl.a. med begrænsninger i offentlige systemer og undersøgelser af datapraksis [1]. Og i Kina illustrerer Huawei-versionen “DeepSeek-R1-Safe” noget andet centralt: at generativ AI i stigende grad formes af nationale regler og værdier – her via hård indholdsfiltrering og krav om “socialist values” [2].
USA: kapital, hyperscalers – og en ny flaskehals: energi
USA’s styrke er stadig økosystemet: hyperscalers, venturekapital, softwareplatforme og et enormt marked, der kan betale for compute. Men det er ikke længere nok at kunne købe GPU’er; man skal også kunne skaffe strøm og køling. Det er en af forklaringerne på, at OpenAI og SoftBank nu investerer direkte i energi- og datacenter-infrastruktur for at sikre kapacitet til træning og drift (“Stargate”) [10].
Samtidig er chips blevet geopolitisk valuta. NVIDIA er fortsat den dominerende leverandør – og netop derfor bliver eksportlicenser, forhandlinger og lovforslag en del af risikobilledet. På CES 2026 pegede NVIDIA’s CEO på, at eventuelle leverancer til Kina i praksis vil kunne aflæses i, om ordrer kan placeres (og om licenser godkendes) [7]. Og i USA er der også politisk pres for at blokere salg af avancerede AI-chips til Kina [8].
Kina: effektivisering, open weights – og tættere statslig styring
Kina er stærk på skala, hastighed og “effektiv innovation”: at gøre mere med mindre, genbruge open-weights og optimere implementering. Men tilgangen kommer ofte med to vilkår: 1) tættere regulering af indhold og brug, og 2) et voksende fokus på nationale alternativer til vestlig hardware og software. Huawei-casen viser begge dele: en modelvariant designet til høj filtreringsrate – trænet på virksomhedens egne Ascend-chips [2]. For europæiske organisationer bliver den centrale pointe praktisk: geopolitik kan påvirke alt fra datasuverænitet til, hvad en model “må” svare.
EU: regulering + kapacitet (og en midterstrategi)
EU forsøger at spille et dobbeltsignal: Skarpere regulering, men også mere compute. På kapacitetssiden udvidede EU i oktober 2025 netværket af “AI Factories” til i alt 19 på tværs af 16 medlemslande, med adgang til AI-optimerede supercomputere og støtte til bl.a. startups og SMV’er [3]. På regelsiden trådte EU’s nye krav til udbydere af general-purpose AI (GPAI) i kraft i august 2025 – med krav om mere dokumentation, ophavsretlig ansvarlighed og (for de mest kraftfulde modeller) ekstra sikkerhedsforpligtelser [5].
Danmark ligger ofte stærkt i “oversættelsen til praksis”: Datatilsynet og Digitaliseringsstyrelsen offentliggjorde i oktober 2025 slutrapporter fra den første AI-regulatoriske sandkasse – med konkrete læringer fra både privat og offentlig brug af generativ AI [6]. Det er et godt eksempel på en dansk “midterstrategi”: test, governance og ansvarlighed – uden at stoppe innovation.
Hvad betyder det for indkøb og strategi i Danmark?
Fem spørgsmål kan løfte diskussionen fra “hvilken model er bedst?” til “hvilken løsning kan vi stå på mål for?”:
- Hvor ender data (og metadata) – og under hvilken jurisdiktion? [1]
- Hvad er leverandørens compliance-pakke: dokumentation, auditspor, ophavsret og sikkerhed? [5]
- Hvilke afhængigheder har vi til chips/compute, som kan påvirkes af eksportregler? [7][9]
- Kan løsningen fungere i et energibegrænset scenarie (hybrid, caching, mindre modeller)? [10]
- Har vi en dansk/europæisk governance-ramme, så brugen kan skaleres trygt? [6]
Hvis 2023 var “prompting”, og 2024 var “pilotprojekter”, så er 2026 året, hvor AI bliver geopolitisk drift. Det kan lyde tungt – men for ledere er det i praksis et valg om robusthed: at bygge AI, der virker i virkeligheden, også når verden strammer til.
Kilder
[1] Reuters – “Governments, regulators increase scrutiny of DeepSeek” (6. januar 2026). (Reuters)
[2] Reuters – “China’s Huawei co-develops DeepSeek model, improves censoring” (19. september 2025). (Reuters)
[3] EU-Kommissionen (Shaping Europe’s digital future) – “EU expands network of AI Factories…” (10. oktober 2025). (digital-strategy.ec.europa.eu)
[4] EuroHPC Joint Undertaking – “Selects Six Additional AI Factories…” (10. oktober 2025). (eurohpc-ju.europa.eu)
[5] EU-Kommissionen (PRESS RELEASE) – “EU rules on general-purpose AI models start to apply…” (1. august 2025). (digital-strategy.ec.europa.eu)
[6] Datatilsynet – “Slutrapporter fra første runde af den regulatoriske sandkasse om AI” (22. oktober 2025). (Datatilsynet)
[7] Reuters – “Nvidia CEO says purchase orders… will signal Chinese approval of H200” (6. januar 2026). (Reuters)
[8] House Foreign Affairs Committee (Press release) – “Meeks Introduces Bill to Block Sales of Advanced AI Chips to China” (december 2025). (democrats-foreignaffairs.house.gov)
[9] Reuters – “OpenAI, SoftBank invest $1 billion in SB Energy…” (9. januar 2026). (Reuters)
[10] OpenAI – “OpenAI and SoftBank Group partner with SB Energy…” (9. januar 2026). (openai.com)

Follow Me