
I flere danske kommuner – herunder Lyngby-Taarbæk Kommune – har algoritmen ASTA været brugt som støtteværktøj til at vurdere sygedagpengesager. Systemet blev implementeret som en del af en bredere bølge af automatisering i det offentlige, hvor AI-baserede værktøjer skulle effektivisere forvaltningen. Men erfaringerne viser, at ASTA i stedet blev et skrækeksempel på, hvad der kan ske, når algoritmer tages i brug uden tilstrækkelig kontrol, gennemsigtighed og ansvar.
Denne case illustrerer, hvorfor AI-regulering ikke er et valg, men en forudsætning for retssikkerhed i velfærdsstaten.
Et værktøj udviklet til at optimere der skabte fejl og mistillid
ASTA-algoritmen blev udviklet som et beslutningsstøttesystem til at hjælpe sagsbehandlere med at risikovurdere borgere i sygedagpengesystemet. Modellen rangerede borgere efter sandsynligheden for, at deres sag ville blive langvarig eller ende i førtidspension.
Ifølge Arbejdsmarkedskontor Midt-Nord og analyser fra Beskæftigelsesministeriet var formålet at målrette indsatsen og frigive ressourcer hos sagsbehandlere (kilde: Beskæftigelsesministeriets evaluering af ASTA, 2020).
Men flere kommuner – herunder Lyngby-Taarbæk – erfarede hurtigt, at værktøjet skabte skævvridning, fejlklassificering og uigennemsigtighed.
Manglende transparens og en algoritme, der ikke kunne forklare sig selv
I Lyngby-Taarbæk Kommune blev ASTA anvendt som supplement til sagsbehandlingen, men fagforeninger og medarbejdere har fortalt, at de ikke kunne få indsigt i, hvordan modellen vægtede data, og hvorfor specifikke borgere blev placeret i bestemte risikokategorier (kilde: FOA og HK Kommunal høringssvar, 2021).
Der opstod en række problemeri forbindelse med brugen af ASTA. Borgere ikke kunne få indsigt i, hvorfor de var markeret som “høj risiko”. Sagsbehandlere ikke kunne forklare afgørelser, når borgerne efterspurgte begrundelser. Og fejl opstod, fordi algoritmen byggede på historiske data med skævheder.
ASTA er dermed et eksempel på det, EU’s AI-forordning betegner som “high-risk AI”, netop fordi forvaltning af sociale ydelser direkte påvirker borgeres rettigheder og økonomi.
En algoritme baseret på historiske mønstre – ikke på retssikkerhed
Undersøgelser og faglige evalueringer viste, at algoritmer som ASTA risikerede at forstærke tidligere forvaltningspraksis: Hvis borgere med bestemte sociale, helbredsmæssige eller socioøkonomiske træk historisk havde fået langvarige forløb, blev de også fremadrettet kategoriseret som høj risiko.
Ifølge Ekspertgruppen for Dataetik kan sådanne modeller fungere som “black boxes, der fastholder borgere i kategorier uden mulighed for at forstå eller udfordre klassifikationen” (kilde: Dataetisk Råd, anbefalinger 2021).
Det kan skabe en situation, hvor algoritmen ikke blot afspejler, men reelt reproducerer ulighed.
Et værktøj, der ikke levede op til forventningerne
Selvom kommunen offentligt beskrev ASTA som et beslutningsstøtteværktøj og understregede, at den endelige afgørelse altid lå hos sagsbehandleren, viste interne evalueringer, at værktøjet i praksis havde betydelig indflydelse på prioriteringen af borgere.
Ifølge intern praksiserfaring omtalt i KL’s arbejdsgrupperapporter om digital sagsbehandling (2022) blev sager med “høj risiko” fremrykket eller intensiveret uden klar begrundelse, mens sager med “lav risiko” kunne risikere mindre opmærksomhed, selv når borgerne havde komplekse helbredsforhold. Kilde: Intern praksiserfaring omtalt i KL’s arbejdsgrupperapporter om digital sagsbehandling, 2022.
Det blev tydeligt, at ASTA ikke blot var et neutrált værktøj, men aktivt påvirkede arbejdets organisering – uden at nogen fuldt ud forstod mekanismerne bag.
Mangel på dokumentation og offentlighed
Da journalister og forskere forsøgte at få indsigt i algoritmens funktion, viste det sig, at dokumentationsgrundlaget var sparsomt, algoritmens træningsdata ikke var offentligt tilgængelige og ingen kunne dokumentere, om modellen faktisk forbedrede sagsbehandlingskvaliteten.
Dette er præcis den situation, AI-forordningen forsøger at forhindre: Offentlige AI-systemer skal kunne auditeres, forklares og gøre rede for deres beslutningslogik (EU’s AI Act, artikel 29-52 om high-risk systemer) .
Retssikkerhed kan ikke automatiseres uden ansvar
ASTA-casen viser tre strukturelle problemer:
1. Manglende mulighed for at klage over algoritmiske vurderinger: Hvis borgeren ikke ved, at en algoritme har påvirket sagen, kan vedkommende heller ikke klage over det.
2. Risiko for systematisk diskrimination: Historiske data i beskæftigelsessystemet afspejler sociale mønstre – ikke objektive sandheder.
3. Algoritmer påvirker forvaltningens prioriteringer – også når det benægtes: I flere kommuner blev algoritmens output behandlet som fakta snarere end som “vejledende”.
ASTA er et case-studie i, hvorfor AI-regulering er nødvendig
Når algoritmer bruges i velfærdsstaten, skal de kunne forklares, dokumenteres, efterprøves og være underlagt demokratisk kontrol. ASTA viste, at uden klare krav til dokumentation, transparens og ansvar, risikerer AI at skabe retssikkerhedsproblemer, der rammer nogle af de mest sårbare borgere i systemet.
EU’s AI-forordning stiller netop krav om:
- risikovurdering,
- kvalitetssikring,
- dokumentation,
- samt menneskeligt tilsyn.
ASTA-sagen viser, hvorfor disse krav er nødvendige – og hvorfor der er brug for fortsat journalistisk granskning af den offentlige sektors algoritmer.

Follow Me