Billede generet med ChatGPT
Flere og flere offentligt ansatte har fået en ny type kollega: usynlig, datadrevet og aldrig træt. Algoritmer og kunstig intelligens bruges i dag til at skrive referater, foreslå beskæftigelsestiltag, prioritere ældrepleje og assistere sagsbehandlere. De gør det i kulissen – men deres anbefalinger former beslutninger, tempo og faglighed. Algoritmer er ikke længere værktøjer. De er blevet medaktører.
AI Portalens kortlægning viser, at en række kommuner allerede anvender systemer, der griber direkte ind i det faglige arbejde – ofte uden at medarbejderne har været inddraget i udviklingen, og uden at der er foretaget arbejdsmiljøvurderinger eller faglig opfølgning.
De ansatte står midt i en teknologisk omstilling, hvor beslutningskraft flyttes – og hvor ansvar og faglighed bliver flydende. I denne artikel undersøger vi, hvordan det påvirker deres hverdag, og hvordan man kan sikre, at kunstig intelligens bliver en kollega, ikke en overchef.
Udbredelsen – AI i frontlinjen
I Odense hjælper systemet OMAS sagsbehandlere med at foreslå det mest effektive forløb for ledige borgere. Anbefalingerne bygger på data fra tidligere indsatser og vises i sagsbehandlerskærmbilledet som valgmuligheder. Systemet er i drift og bruges dagligt – men borgerne får ikke at vide, at en algoritme er med til at forme deres beskæftigelsesforløb.
I Aalborg Kommune blev der gennem AIR-projektet udviklet en prototype, der kunne forudsige borgeres behov for rehabilitering. Projektet er afsluttet, men viser, hvordan AI flytter ind i vurderingsarbejdet.
I Roskilde og Gladsaxe anvender jobcentre systemet RoboRef, som optager og transskriberer samtaler mellem borger og sagsbehandler – og genererer et referat. Medarbejderen skal godkende det, men både tempo og formulering er i høj grad påvirket af AI’ens forslag. Der er gennemført en DPIA og dataetisk vurdering, men borgeren ved sjældent, at referatet ikke er skrevet af menneskehånd.
Københavns Kommune har indført KK-GPT, et internt generativt AI-værktøj, som medarbejdere bruger til at formulere tekster, argumentere for afgørelser og udarbejde udkast. Dokumentationen for systemets styring er undtaget aktindsigt – og det er uklart, hvordan kommunen sikrer ansvar og korrekthed i outputtet.
I ældreplejen bruges AI til at effektivisere planlægning og ruteoptimering. I Aalborg Kommune har man testet systemet EVA, som skal øge kontinuitet i hjemmeplejen ved hjælp af automatiske match og forslag. I Middelfart analyserer et system borgernes spørgeskemabesvarelser for at prioritere, hvem der skal have forebyggende hjemmebesøg.
I flere tilfælde fremgår det ikke, om disse systemer reelt er vurderet som AI – og dermed heller ikke, om de er underlagt krav om etik, evaluering eller arbejdsmiljøhensyn.
Fælles for systemerne er, at de ikke erstatter medarbejderen, men former opgaven både i forholdt til indhold og tempo. Det er dog også fælles for de fleste løsninger, at de er sat i drift uden medarbejderinddragelse eller arbejdsmiljøvurderinger, ud fra de dokumenter der er udleveret til AI Portalen. Teknologien præsenteres som en hjælp, men de ændrer praksis i kommunerne fundamentalt.
Algoritmen anbefaler – men hvem bærer ansvaret?
For medarbejderne i jobcentre, ældrepleje og sagsbehandling betyder AI ikke nødvendigvis færre opgaver – men en anden måde at arbejde på. Opgaverne bliver præstrukturerede, dokumenter bliver foreskrevet af systemer, og beslutninger formes af anbefalinger.
Når systemer som OMAS i Odense eller RoboRef i Roskilde foreslår forløb eller skriver referater, skal medarbejderen “godkende” outputtet. Men hvad betyder det i praksis? Skal man følge anbefalingen? Hvad hvis AI’en laver fejl?
I dokumentationen fra Odense fremgår det, at OMAS ikke er en afgørelsesmotor, men et støtteværktøj. Alligevel er det den anbefalede handling, der fremstår som standard i sagsbehandlingen – og som kræver aktivt fravalg, hvis den ikke følges.
Der er med andre ord risiko for, at ansvaret for beslutninger forbliver hos medarbejderen, mens initiativet flytter til systemet.
Faglighed på systemets præmisser
Mange AI-systemer bygger på historiske data. Det betyder, at tidligere mønstre bliver til fremtidige anbefalinger. Men det passer ikke altid med faglig intuition eller konkrete omstændigheder.
AI skal hjælpe – ikke erstatte. Sådan lyder det ofte fra både kommuner og leverandører. Men når teknologien først er indført og integreret i arbejdsgangene, opstår en række dilemmaer, som ingen har givet entydige svar på.
Når et AI-system foreslår en afgørelse, et forløb eller et referat, forventes det stadig, at medarbejderen har det endelige ansvar. Hvis et AI-genereret referat fra RoboRef misrepræsenterer, hvad der blev sagt – hvem hæfter så? Hvis OMAS anbefaler et forkert beskæftigelsestiltag – kan borgeren klage? Hvis en AI-chatbot formidler forkert information – er det systemet, leverandøren eller kommunen, der bærer ansvaret?
Disse spørgsmål er ikke teoretiske. De opstår allerede i dag – men i fravær af klare regler, retningslinjer og klageinstanser.
Når output fra AI fremstår autoritativt, bliver fagligheden noget, man enten bekræfter eller fraviger. Det gør det sværere at være i tvivl, at tænke kreativt, at sige “måske” – og dermed risikerer man at miste netop det menneskelige råderum, som velfærdsarbejdet er bygget på.
I de fleste af de projekter AI Portalen har dokumenteret, er AI-løsninger indført uden systematisk inddragelse af de medarbejdere, der skal bruge dem. I hvert fald at dømme ud fra AI Portalens aktindsigter. Der er få spor af brugerundersøgelser, testgrupper eller høringsprocesser i de dokumenter, som AI Portalen har fået udleveret. Ofte er systemerne blevet bestilt og sat i drift som standardiserede løsninger. Det efterlader medarbejderne med ansvaret for en teknologi, de ikke har haft indflydelse på – og uden de redskaber eller rammer, der gør det muligt at forme den fagligt.
AI som kollega, ikke som chef
Kunstig intelligens behøver ikke være en trussel mod faglighed, ansvar og arbejdsglæde. Men det kræver, at teknologien ikke indføres som en sort boks, men som en kollega, der selv skal lære, forstås og holdes ansvarlig.
Kortlægningen viser, at de fleste kommuner endnu ikke har defineret klare retningslinjer for, hvordan AI griber ind i medarbejdernes praksis. Det skaber tvivl, ansvarsforskydning og fagligt tomrum – men det er ikke for sent at handle.
Inddrag medarbejdere og tillidsrepræsentanter allerede i udviklingsfasen. De ved, hvor arbejdet flyder – og hvor det risikerer at løbe skævt, når systemer standardiserer beslutninger. Brug pilotprojekter, workshops og åbne testmiljøer til at sikre, at teknologien giver mening i praksis.
AI-systemer skal altid følges af: dokumenteret rolle- og ansvarsfordeling, klare procedurer for medarbejdergodkendelse og fravalg og klagemuligheder for borgere, hvis AI har påvirket afgørelser
Det skal fremgå tydeligt, hvornår et system er i brug, og hvad medarbejderen skal tage stilling til. En “godkendelse” af AI-output må aldrig være proforma.
Og så skal der sikres faglig opkvalificering og etisk refleksion. Hvis medarbejdere skal tage ansvar for AI’ens resultater, skal de have viden og tid til at vurdere dem. Det kræver for det første en basal AI-forståelse i efteruddannelse, skabelsen af etiske dialogrum i organisationen. Endeligt skal medarbejderne have ret til at sige fra, hvis teknologien ikke passer til opgaven
AI skal ikke gøre medarbejdere overflødige – den skal gøre dem bedre. Men det kræver, at teknologien styres på arbejdspladsens præmisser – ikke leverandørens.
Hvem sætter rammerne for vores nye kolleger?
I takt med at AI for alvor flytter ind på kontorer, i jobcentre og i ældreplejen, rejser det spørgsmål, som rækker ud over den enkelte kommune. For teknologien er her ikke bare for at blive – den er kommet for at forandre. Hvem skal styre forandringen
I mange af de dokumenter, AI Portalen har gennemgået, nævnes ingen systematisk involvering af faglige organisationer. Hverken i implementeringen, evalueringen eller risikovurderingen af AI-løsninger. Det er bemærkelsesværdigt, især fordi AI ændrer på beslutningsvejene, hvem der har ansvaret, det faglige råderum og ikke mindst dokumentations- og arbejdspres.
Hvis fagbevægelsen ikke træder ind i teknologidebatten nu, risikerer man at stå tilbage som tilskuere til en arbejdsrevolution, der allerede er i gang.
AI-kompetencer som nyt krav i velfærdsarbejdet
Mange medarbejdere oplever, at AI indføres uden efteruddannelse. Det betyder, at de pludselig stilles overfor en række nye krav til deres kompetencer. De skal kunne vurdere AI-output kritisk. De skal forstå datagrundlag og begrænsninger og de skal kunne stille krav til systemer, de ikke selv har været med til at vælge.
Der er behov for et nyt kompetencebegreb i velfærdsfagene, hvor digital dømmekraft, teknologiforståelse og systemkritik bliver lige så vigtigt som lovfortolkning og menneskelig kontakt. Men det kræver, at AI-kompetencer bliver anerkendt som kernekompetencer – og ikke kun som “noget for it-afdelingen”.
Tid til politisk stillingtagen
Teknologien er ikke længere på vej ind i det offentlige. Den er her. Men i stedet for at være politisk styret, etisk afvejet og fagligt forankret, styrer den i praksis sig selv. Det er hver kommune for sig. Hver leverandør for sig. Hver medarbejder med ansvaret alene.
Når algoritmer rådgiver, prioriterer og producerer på kommunale computere – uden gennemsigtighed, konsekvensanalyser eller klageadgang – er det ikke længere et teknisk spørgsmål. Det er et demokratisk. Derfor er det på høje tid, at nogen stiller spørgsmål til hvad vi vil med AI i velfærden – og hvem der skal bestemme det.
Det her er spørgsmål, der ikke bare kan overlades til embedsmænd og konsulenter, men som der skal tages politisk stilling til. Skal der være fælles spilleregler for, hvornår og hvordan AI må bruges i forvaltningen? Skal borgere have retten til at vide, når en maskine er med til at forme deres sag? Skal der være klare grænser for, hvilket ansvar vi placerer hos den enkelte medarbejder?Og hvem – hvis nogen – fører egentlig tilsyn med AI i kommunerne?
Så længe de spørgsmål ikke besvares, vil teknologien fortsætte med at forme vores arbejdspladser, vores beslutninger og vores borgerrelationer – uden at nogen har taget ansvaret for, hvilken retning vi bevæger os i.
AI er ikke neutral. Derfor skal vi heller ikke være det.
