Når algoritmer styrer sagsbehandlingen: ASTA som eksempel på AI-brug, der gik galt

Foto: and machines på Unsplash

I flere danske kommuner – herunder Lyngby-Taarbæk Kommune – har algoritmen ASTA været brugt som støtteværktøj til at vurdere sygedagpengesager. Systemet blev implementeret som en del af en bredere bølge af automatisering i det offentlige, hvor AI-baserede værktøjer skulle effektivisere forvaltningen. Men erfaringerne viser, at ASTA i stedet blev et skrækeksempel på, hvad der kan ske, når algoritmer tages i brug uden tilstrækkelig kontrol, gennemsigtighed og ansvar.

Denne case illustrerer, hvorfor AI-regulering ikke er et valg, men en forudsætning for retssikkerhed i velfærdsstaten.

Et værktøj udviklet til at optimere der skabte fejl og mistillid

ASTA-algoritmen blev udviklet som et beslutningsstøttesystem til at hjælpe sagsbehandlere med at risikovurdere borgere i sygedagpengesystemet. Modellen rangerede borgere efter sandsynligheden for, at deres sag ville blive langvarig eller ende i førtidspension.

Ifølge Arbejdsmarkedskontor Midt-Nord og analyser fra Beskæftigelsesministeriet var formålet at målrette indsatsen og frigive ressourcer hos sagsbehandlere (kilde: Beskæftigelsesministeriets evaluering af ASTA, 2020).

Men flere kommuner – herunder Lyngby-Taarbæk – erfarede hurtigt, at værktøjet skabte skævvridning, fejlklassificering og uigennemsigtighed.

Manglende transparens og en algoritme, der ikke kunne forklare sig selv

Lyngby-Taarbæk Kommune blev ASTA anvendt som supplement til sagsbehandlingen, men fagforeninger og medarbejdere har fortalt, at de ikke kunne få indsigt i, hvordan modellen vægtede data, og hvorfor specifikke borgere blev placeret i bestemte risikokategorier (kilde: FOA og HK Kommunal høringssvar, 2021).

Der opstod en række problemeri forbindelse med brugen af ASTA.  Borgere ikke kunne få indsigt i, hvorfor de var markeret som “høj risiko”. Sagsbehandlere ikke kunne forklare afgørelser, når borgerne efterspurgte begrundelser. Og fejl opstod, fordi algoritmen byggede på historiske data med skævheder.

ASTA er dermed et eksempel på det, EU’s AI-forordning betegner som “high-risk AI”, netop fordi forvaltning af sociale ydelser direkte påvirker borgeres rettigheder og økonomi.

En algoritme baseret på historiske mønstre – ikke på retssikkerhed

Undersøgelser og faglige evalueringer viste, at algoritmer som ASTA risikerede at forstærke tidligere forvaltningspraksis: Hvis borgere med bestemte sociale, helbredsmæssige eller socioøkonomiske træk historisk havde fået langvarige forløb, blev de også fremadrettet kategoriseret som høj risiko.

Ifølge Ekspertgruppen for Dataetik kan sådanne modeller fungere som “black boxes, der fastholder borgere i kategorier uden mulighed for at forstå eller udfordre klassifikationen” (kilde: Dataetisk Råd, anbefalinger 2021).

Det kan skabe en situation, hvor algoritmen ikke blot afspejler, men reelt reproducerer ulighed.

Et værktøj, der ikke levede op til forventningerne

Selvom kommunen offentligt beskrev ASTA som et beslutningsstøtteværktøj og understregede, at den endelige afgørelse altid lå hos sagsbehandleren, viste interne evalueringer, at værktøjet i praksis havde betydelig indflydelse på prioriteringen af borgere.

Ifølge intern praksiserfaring omtalt i KL’s arbejdsgrupperapporter om digital sagsbehandling (2022) blev sager med “høj risiko” fremrykket eller intensiveret uden klar begrundelse, mens sager med “lav risiko” kunne risikere mindre opmærksomhed, selv når borgerne havde komplekse helbredsforhold. Kilde: Intern praksiserfaring omtalt i KL’s arbejdsgrupperapporter om digital sagsbehandling, 2022.

Det blev tydeligt, at ASTA ikke blot var et neutrált værktøj, men aktivt påvirkede arbejdets organisering – uden at nogen fuldt ud forstod mekanismerne bag.

Mangel på dokumentation og offentlighed

Da journalister og forskere forsøgte at få indsigt i algoritmens funktion, viste det sig, at dokumentationsgrundlaget var sparsomt, algoritmens træningsdata ikke var offentligt tilgængelige og ingen kunne dokumentere, om modellen faktisk forbedrede sagsbehandlingskvaliteten.

Dette er præcis den situation, AI-forordningen forsøger at forhindre: Offentlige AI-systemer skal kunne auditeres, forklares og gøre rede for deres beslutningslogik (EU’s AI Act, artikel 29-52 om high-risk systemer) .

Retssikkerhed kan ikke automatiseres uden ansvar

ASTA-casen viser tre strukturelle problemer:

1. Manglende mulighed for at klage over algoritmiske vurderinger: Hvis borgeren ikke ved, at en algoritme har påvirket sagen, kan vedkommende heller ikke klage over det.

2. Risiko for systematisk diskrimination: Historiske data i beskæftigelsessystemet afspejler sociale mønstre – ikke objektive sandheder.

3. Algoritmer påvirker forvaltningens prioriteringer – også når det benægtes: I flere kommuner blev algoritmens output behandlet som fakta snarere end som “vejledende”.

ASTA er et case-studie i, hvorfor AI-regulering er nødvendig

Når algoritmer bruges i velfærdsstaten, skal de kunne forklares, dokumenteres, efterprøves og være underlagt demokratisk kontrol. ASTA viste, at uden klare krav til dokumentation, transparens og ansvar, risikerer AI at skabe retssikkerhedsproblemer, der rammer nogle af de mest sårbare borgere i systemet.

EU’s AI-forordning stiller netop krav om:

  • risikovurdering,
  • kvalitetssikring,
  • dokumentation,
  • samt menneskeligt tilsyn.

ASTA-sagen viser, hvorfor disse krav er nødvendige – og hvorfor der er brug for fortsat journalistisk granskning af den offentlige sektors algoritmer.

Vil du følge AI Portalen tættere?

Tilmeld dig nyhedsbrevet og få nye artikler, temaer og redaktionelle opdateringer.

Tilmeld nyhedsbrev

Medlem

80 kr./måned

Bliv medlem på Patreon

Støt AI-Portalens uafhængige journalistik om AI, magt og samfund.

Inkluderet i medlemskabet:

  • Månedligt nyhedsbrev
  • Invitationer til online og fysiske events om AI
  • Adgang til optagelser og opsamlinger fra møder og foredrag
  • Rabat på events
  • Invitation til månedligt online redaktionsmøde

Medlemskab administreres via Patreon.

Vi laver journalistik om AI, fordi udviklingen går hurtigere end den offentlige samtale.

På AI Portalen forsøger vi at skabe overblik, perspektiv og kritisk indsigt i en teknologi, der allerede former alt fra arbejdsmarkedet til demokratiet — ofte uden at nogen bremser op og forklarer, hvad der foregår.

Hvis vores artikler hjælper dig med at forstå AI lidt bedre, så overvej at støtte arbejdet.

Et medlemskab gør én ting mulig: at vi kan blive ved med at undersøge, dokumentere og forklare, hvordan AI påvirker Danmark — uden investorer, uden PR-interesser og uden at jage hype.

Bliv medlem og vær med til at styrke uafhængig journalistik om AI.

Seneste nummer

Bliv medlem

Bliv medlem

Støt uafhængig journalistik om AI, magt og samfund.

Bliv medlem på Patreon

Køb bogen før din nabo!

Follow Me