Kortlægning: AI i det offentlige – en ny slags infrastruktur

Det starter med en e-mail fra jobcenteret. En borger får tilbudt et aktiveringskursus – og forstår ikke hvorfor. Bag kulissen har et AI-system analyseret data fra tusindvis af tidligere forløb og udregnet, at netop dette tilbud statistisk set virker bedst.

Ingen har fortalt borgeren, at det er sådan, det foregår.

I kommuner over hele landet bliver beslutninger i dag truffet, forberedt eller påvirket af kunstig intelligens. Systemerne refererer samtaler, planlægger ældrepleje, foreslår beskæftigelsestiltag og assisterer sagsbehandlere – uden at borgerne ved det, og uden at politikerne har sat grænser.

AI er blevet en ny slags infrastruktur i den danske velfærdsstat. Men i modsætning til veje, skoler og sygehuse er den usynlig. Den er ikke demokratisk vedtaget. Den har ingen fælles standarder. Og den dokumentation, der burde gøre teknologien ansvarlig, er i mange tilfælde hemmelig.

AI Portalens aktindsigtsbaserede kortlægning viser, at udviklingen allerede er i gang – og i drift – i over 10 kommuner. Mange af projekterne mangler centrale elementer som konsekvensvurderinger, borgerinformation eller gennemsigtighed i beslutningskæden. AI er ikke et eksperiment længere. Det er blevet en del af systemet.

Spørgsmålet er ikke længere, om vi vil bruge kunstig intelligens i det offentlige. Det gør vi allerede. Spørgsmålet er, hvordan – og hvem der skal have magten over de systemer, der former fremtidens velfærd.

En ny virkelighed uden regelsæt

Selvom den offentlige sektor i årevis har arbejdet med digitalisering og automatisering, markerer kunstig intelligens et afgørende skift. For hvor tidligere it-systemer typisk fulgte faste regler og manuelle input, er AI noget andet: modeller, der lærer af historiske data, og producerer output, der ikke nødvendigvis er gennemskueligt – heller ikke for dem, der bruger det.

Flere af de kommunale systemer, AI Portalen har kortlagt, har karakter af beslutningsstøtte: De foreslår løsninger, udarbejder udkast og prioriterer borgerforløb – men det er ofte uklart, hvordan og på hvilket grundlag. I Roskilde og Gladsaxe skriver systemet RoboRef udkast til referater fra samtaler mellem borgere og sagsbehandlere. I Odense hjælper OMAS med at anbefale forløb i beskæftigelsesindsatsen baseret på tidligere data. I København bruges den interne model KK-GPT som sagsbehandlingsassistent.

Ingen af disse systemer er synlige for borgerne. De nævnes ikke i politiske oplæg eller digitaliseringsstrategier. Og i langt de fleste tilfælde findes der hverken offentlig dokumentation, konsekvensvurderinger (DPIA’er) eller beskrevne klagemuligheder.

Alligevel er de i drift. I Roskilde bruges RoboRef til tusindvis af samtaler. I Odense anslås det, at OMAS kan spare betydelige mængder arbejdstid og forbedre matchningskvalitet. I København har AI-assistenten KK-GPT været tilgængelig for medarbejdere siden 2023 – men alle centrale governance-dokumenter er undtaget fra aktindsigt.

Det rejser et grundlæggende spørgsmål: Hvordan kan vi som samfund kontrollere en teknologi, vi ikke ved, vi bruger?

AI Portalens kortlægning bygger på aktindsigter fra 15 kommuner og gennemgang af over 100 dokumenter, herunder slutevalueringer, risikovurderinger, interne notater, leverandørmaterialer og juridiske afklaringer. Undersøgelsen dokumenterer, at AI ikke bare er på vej ind i den offentlige sektor – den er allerede i brug.

Tre hovedtyper i kommunerne

De identificerede systemer fordeler sig over tre centrale typer:

  1. Beslutningsstøtte

– fx OMAS i Odense, som anbefaler forløb i beskæftigelsesindsatsen ud fra historiske data (2023–2025)

– fx AIR-projektet i Aalborg, der byggede prototype til vurdering af borgeres rehabiliteringsbehov (afsluttet 2022)

  1. Automatisering og optimering

– fx LetBetaling (KMD) i Esbjerg, der håndterer fakturaer og kontering

– fx EVA i Favrskov, som bruger AI til at optimere rute- og personalefordeling i ældreplejen

– fx Middelfarts automatiske triagering af forebyggende hjemmebesøg, baseret på borgerbesvarelser

  1. Generativ AI (LLM’er)

– fx RoboRef i Roskilde og Gladsaxe: transskriberer og skriver referatudkast i jobcenteret

– fx KK-GPT i København: internt tekstgenereringsværktøj til sagsbehandlere

– fx chatbot i Esbjerg, drevet af InDialog via Azure OpenAI

Over halvdelen af disse systemer er i drift. Flere har været anvendt dagligt i over et år – uden at være nævnt i hverken kommunale digitaliseringsstrategier eller offentlig dokumentation.

AI uden navn – eller uden ejer

I mange tilfælde bruger kommunerne AI-teknologi uden at benævne det som sådan. I én kommune blev et sagsbehandlingsværktøj beskrevet som “en teknisk hjælp”, selvom det indeholder generative funktioner til tekstudkast. I flere tilfælde er værktøjer baseret på ChatGPT, men ingen konsekvensvurdering er gennemført, fordi forvaltningen ikke opfatter teknologien som “egentlig AI”.

I LetBetaling-casen fra Esbjerg fremgår det direkte i aktindsigtsmaterialet, at kommunen “ikke vurderer, at der er tale om AI”. 

Vi opfatter det som en funktionalitet/del af et system/et modul, som bl.a. anvender AI-funktionalitet (machine learning) – altså AI,” siger Anders Malling Aaboer, der er leder af Digitalisering i Esbjerg Kommune.

Systemet anvender automatisk kontering via modeller trænet på tidligere data – hvilket er defineret som AI både i EU’s forordning og i regeringens egne strategier. Helt så enkelt mener Anders Alling Aaboer dog ikke det er.

Automatisering følger faste regler og processer. Fx indsamling af data via en selvbetjeningsløsning, der videresendes til et fagsystem eller en mailboks. AI-løsninger anvender træning, læring, regler til autonomt at kunne handle eller til at anvise handling. AI løsninger er i vores optik både løsninger baseret på machine learning (fx Letbetaling) og generativ AI (chatbotten er en hybrid af de 2),” forklarer han.

IT-sikkerhedsspecialist i Datatilsynet, Allan Frank er enig, men mener sådanset ikke, at det drejer sig om automatisering i sig selv. 

“Om man bruger AI eller ikke AI, det er sådan set ikke det afgørende. […] Det er behandlingerne, der er de afgørende,” siger han.

Dette afspejler et strukturelt viden- og kontrolproblem: Hver kommune vurderer selv, om et system “er AI” – og mange undlader at gennemføre DPIA’er eller etikvurderinger, hvis de selv mener, systemet er “automatisering” snarere end intelligens.

Store forskelle – og ingen koordination

Der er betydelige forskelle mellem kommunerne i både dokumentation, ambitioner og governance:

  • Odense og Roskilde har gennemført dataetiske vurderinger og DPIA’er, men inddrager ikke borgere systematisk.
  • Esbjerg har sat systemer i drift uden dokumenteret konsekvensvurdering.
  • København nægter at udlevere governance-dokumenter for KK-GPT med henvisning til “interne processer”.
  • Aarhus Kommune går en anden vej: De har udviklet OS2ai – en open source AI-platform med åben dokumentation, governance og tværkommunalt samarbejde.

Det er jo også en af grundene til, at vi valgte at lave OS2ai fra starten af, så den var delbar med andre myndigheder. Og det er jo så det, vi er ved at være i mål med nu i version 1, hvor vi altså har en platform, vi kan give adgang til vores medarbejdere, som sådan en basal AI-understøttelse, og også en fin løsning, hvor vi kan bygge specialister og målrettede assistenter ind,” siger Bo Fristed, der er leder af ITK (Innovation, Teknologi og Kreativitet) i Odense Kommune. “Vi meget gerne vil undgå at blive ved med at grave os ned i afhængigheder, som vi kan se, at vi har gjort igennem mange år med vores nuværende platform.

Samtidig peger KL på, at kommunerne forsøger at tage ansvar. Frederik Nordentoft Andersen, kontorchef i KL mener, at kommunerne er nysgerrige på AI og allerede forsøger at bruge teknologien til gavn for borgere og medarbejdere.

Vi oplever bestemt, at landets kommuner er optagede af at gå ansvarligt til værks. Mange afholder bl.a. kurser og workshops, så medarbejdere kan blive klogere på teknologien, laver retningslinjer samt bruger tid og ressourcer på at finde ud af, hvordan de bedst navigerer inden for de juridiske rammer,” siger han.

Frederik Nordentoft Andersen anerkender dog, at de juridiske rammer for implementering af AI i kommunerne ofte er uklare.

De juridiske rammer er ofte uklare, og derfor er vi i KL glade for, at regeringen har lyttet til os – og at vi som en del af økonomiaftalen for 2025 har aftalt at etablere en fælles digital taskforce for kunstig intelligens. Her får vi mulighed for sammen at finde løsninger på de udfordringer, som kommunerne står med – særligt de juridiske. Det vil skabe mere klarhed og tryghed i kommunerne i arbejdet med AI.

Ingen vurderinger, ingen klageadgang, ingen gennemsigtighed

Når kunstig intelligens bruges i det offentlige, handler det ikke kun om teknologi – det handler om rettigheder, ansvar og tillid. Derfor stiller både databeskyttelsesforordningen (GDPR) og EU’s kommende AI-forordning klare krav: AI-systemer, der påvirker borgeres liv, skal vurderes, dokumenteres og kontrolleres. Men kortlægningen viser, at de krav ikke bliver overholdt i praksis.

Manglende konsekvensanalyser (DPIA’er)

Selvom flere systemer direkte påvirker borgernes rettigheder – fx gennem automatiseret rådgivning, referater eller prioritering – mangler der i flertallet af sager en dokumenteret data- og risikovurdering (DPIA).

Eksempler:

  • I København har man sat KK-GPT i drift uden at offentliggøre nogen konsekvensanalyse. Aktindsigt er afvist.
  • I Esbjerg er chatbotten sat i drift, men risikovurderingen er udarbejdet efterfølgende – og dækker ikke konkret borgerpåvirkning.
  • I Middelfart anvendes AI til at prioritere besøg hos ældre, men uden nogen dokumentation for om systemet er risikovurderet eller testet for bias.

Men reglerne omkring hvorvidt kommunerne skal foretage DPIA er helt afhængige af, om kommunerne mener, at de behandler personoplsyninnger eller ej.

Vi har ikke pligt at offentliggøre DPIA. Chatbotten behandler ikke personoplysninger og er derfor ikke omfattet af GDPR,” siger Anders Malling Aaboer og uddyber: “Letbetaling anvender faktureringslinjerne i økonomisystemet. Her kan der fremgå personoplysninger. Oplysninger anvendes dog ikke ift den automatiske fakturabetaling. Eventuelle risici relaterer sig til interne processer og ikke til borgernes rettigheder. Letbetaling godkender faktura til betaling ud fra en række regler. Den kan ikke afvise betalinger, men sender et udvalg af fakturaer til manuel behandling.

Der er kun få undtagelser. RoboRef i Roskilde og Gladsaxe er vurderet gennem DPIA og dataetisk analyse, men det er systemets output – ikke borgerens oplevelse – der vurderes. OMAS i Odense har gennemført et GDPR-afklaringsnotat, men ikke en fuld risikovurdering.

I stort set alle sager er systemerne sat i drift før vurderingerne er færdige – eller uden at de overhovedet påbegyndes. Og det kan være et problem.

Man risikerer juridisk et, at man kommer til at lave noget, der er ulovligt, fordi man ikke får vurderet de her ting på forhånd. Og hvis man formelt set skulle have lavet en konsekvensanalyse, så er der også en forpligtelse til, at man rent faktisk laver den, inden man går i gang,” siger Allan Frank. “Hvis vi ser, at folk ikke har lavet en konsekvensanalyse og alligevel har gået i gang med behandlingerne, så bliver vi relativt sure.

Uklare eller fraværende klagemuligheder

Når AI foreslår eller genererer beslutningsgrundlag, bliver det vigtigt for borgerne at forstå, hvordan de kan klage – og over hvad. 

Det er en retssikkerhedsgaranti for de registrerede. Man har ret til at vide, hvad det er for nogle behandlinger, der foregår, hvilke oplysninger der behandles, og hvor de sendes hen – uanset teknologi,” siger Allan Frank.

Men det er et område præget af uigennemsigtighed og teknisk ansvarsforskydning.

Eksempler:

  • I RoboRef skal sagsbehandleren godkende AI’ens referat. Men hvis der opstår fejl eller bias i AI’ens udlægning – kan borgeren da klage? Hvem har ansvaret?
  • I OMAS foreslår systemet forløb, som sagsbehandler kan vælge at følge. Men borgeren ved ikke, at anbefalingen kommer fra en algoritme.
  • I flere tilfælde nævnes det ikke engang, at AI er en del af processen – og dermed heller ikke, at man kan gøre indsigelse mod brugen af teknologien.

Det skaber en gråzone, hvor ingen reelt ved, hvem der bærer ansvaret – og hvor borgerens muligheder for at få genoptaget sin sag eller få indsigt i beslutningsgrundlaget er stærkt begrænset.

Skjult teknologi i velfærdsstaten

En af de mest gennemgående fund i kortlægningen er fraværet af offentlighed og oplysning. AI-systemer, der i praksis har stor betydning for borgernes liv, bliver ikke synliggjort nogen steder:

  • De er sjældent nævnt i digitaliseringsstrategier eller forvaltningsplaner.
  • De optræder ikke på kommunernes hjemmesider.
  • Der findes ingen fælles national oversigt eller pligt til at anmelde brug af AI.

Medarbejdere bruger værktøjerne som hjælp. Borgere mærker konsekvenserne. Men hverken brugere eller befolkning ved, at beslutningsgrundlaget i stigende grad formes af AI.

Denne usynlighed underminerer en grundpille i det danske velfærdssamfund: offentlighed i forvaltningen. Vi kan ikke føre demokratisk kontrol med systemer, vi ikke kender til. Og vi kan ikke beskytte borgere mod diskrimination, hvis vi ikke ved, hvornår teknologien påvirker afgørelser.

Demokratisk kontrol kræver gennemsigtighed

Kunstig intelligens bliver i stigende grad en del af den offentlige forvaltning – ikke som en fremtidig vision, men som en stille realitet. Det kan have alvorlige konsekvenser for tilliden, rettighederne og magtbalancen i det danske demokrati.

Når kommuner begynder at lade AI foreslå beslutninger om mennesker – uden at borgerne informeres, uden at politikere orienteres, og uden at nogen bærer tydeligt ansvar – opstår en ny og skjult magtstruktur. En usynlig algoritmisk infrastruktur, som former borgernes møde med staten.

Hvad mangler – fagligt og politisk?

AI Portalens kortlægning viser, at de fleste kommuner står alene i vurderingen af AI-projekter. Der mangler:

  • Faglige værktøjer og kompetencer til at foretage reelle vurderinger af etik, retssikkerhed og datastrømme
  • Politisk stillingtagen til, hvad kommuner må og bør anvende AI til – og hvornår de skal informere offentligheden
  • En fælles definition og terminologi, så teknologier ikke undslipper kontrol ved at blive kaldt noget andet (som “værktøj”, “hjælp”, “automatisering”)

Aarhus Kommune og OS2ai viser, at det er muligt at tænke i åbne, delbare og ansvarlige løsninger. Men det kræver, at flere følger trop – og at staten bakker op med fælles standarder og tydelige krav.

Tre veje mod en ansvarlig AI-infrastruktur

Kortlægningen viser, at AI allerede er i brug i det offentlige Danmark – men uden de kontrolmekanismer, som et demokratisk samfund kræver. Teknologien udvikles og implementeres i en gråzone, hvor ingen har det samlede ansvar, og hvor borgerne sjældent ved, at de er mødt af en maskine.

Hvis vi vil sikre, at AI bliver en støtte for velfærd – ikke en trussel mod den – er det nødvendigt at handle nu.

Her er tre konkrete forslag til, hvordan vi kan begynde:

1. Et nationalt register over offentlige AI-systemer

Hver kommune vurderer i dag selv, om et system “er AI”, og om det kræver særlige vurderinger. Det skaber uigennemsigtighed og vilkårlighed.

Derfor bør Danmark oprette et obligatorisk register over alle offentlige AI-systemer – med oplysninger om:

  • Systemets funktion og formål
  • Leverandør og teknologitype
  • Datastrømme og databehandlerroller
  • Juridisk grundlag (DPIA, etisk vurdering, klagemuligheder)

Det vil gøre det muligt for borgere, embedsmænd og journalister at føre demokratisk kontrol – og for politikere at få overblik.

Dette svarer til den hollandske Algorithm Register og anbefalinger fra bl.a. Dataetisk Råd.

2. Klare minimumskrav for etik, konsekvens og klage

AI i det offentlige bør underlægges lovfæstede minimumskrav, som gælder uanset hvor eller hvordan teknologien anvendes.

Disse krav kunne være:

  • Obligatorisk DPIA for alle AI-systemer med borgerkontakt
  • Etisk vurdering og offentliggørelse før ibrugtagning
  • Krav om klagevejledning, når AI er involveret i beslutningsgrundlaget
  • Ret til forklaring og indsigt i sagsbehandling, hvor AI har spillet en rolle

Sådanne rammer vil sikre, at borgerens rettigheder ikke undergraves af automatisering – og at tilliden til den offentlige sektor bevares.

3. Investér i faglig kapacitet og fælles løsninger

Mange af problemerne handler ikke om ond vilje, men om manglende viden og ressourcer. Kommuner og forvaltninger har brug for:

  • Uddannelse og støtte i databeskyttelse, AI-forståelse og konsekvensvurderinger
  • Adgang til open source-værktøjer og fælles standarder
  • Styrkelse af fællesskaber som OS2, hvor man deler kode, erfaringer og governance

Modellen fra Aarhus Kommune og OS2ai viser, at det er muligt at skabe demokratisk kontrollerbar AI – men det kræver, at staten bakker op og investerer i fælles kapacitetsopbygning.

AI er allerede en del af vores velfærd. Men hvis vi ikke får styr på gennemsigtighed, etik og ansvar, risikerer vi at gøre velfærden teknokratisk, uigennemsigtig – og i værste fald uretfærdig.

Det er ikke teknologien, der er problemet. Det er måden, vi indfører den på.

Derfor må AI i det offentlige ikke være usynlig. Den skal være synlig, gennemskuelig og styret af demokratiet.

Hvis du vil dykke ned i hele kortlægningen (Excel-ark), kan du gøre det her.

Seneste nummer

Køb bogen før din nabo!

Bliv medlem

Vi er i gang med at bygge Danmarks første medlemsdrevne medie om AI. Det handler ikke om at få mere indhold. Det handler om at få bedre viden.

Vil du være med? Klik her – og vælg selv, hvordan du vil støtte:

Meld dig til her.

Follow Me