
I Albanien er fremtiden allerede ankommet – i hvert fald hvis man spørger landets premierminister. Her har man udpeget en AI-model ved navn Diella til at være minister med ansvar for at overvåge og automatisere offentlige udbud. Målet er ambitiøst: at bekæmpe den korruption, der i årtier har plaget landets offentlige sektor, og skabe mere transparens i de processer, hvor statens penge fordeles. Men eksperimentet rejser spørgsmål, der rækker langt ud over Albaniens grænser. For hvad sker der egentlig, når vi begynder at tildele teknologi politisk autoritet? Og hvad betyder det for vores forståelse af demokrati, ansvar og den menneskelige dømmekraft, når en algoritme får ministertitel?
Sofie Burgos-Thorsen er chefanalytiker i Tænketanken INVI – Institut for Vilde Problemer – hvor hun til daglig arbejder med, hvordan AI og datadrevne processer kan bruges i politisk og demokratisk innovation. Med en baggrund som sociolog kombinerer hun en grundlæggende nysgerrighed over for teknologiens muligheder med en skarp kritisk sans over for dens faldgruber.
Da hun første gang hørte om Albaniens AI-minister, var reaktionen blandet:
“Det er selvfølgelig altid spændende at se sådan nogle reelle eksperimenter komme på banen. Men jeg synes også, at der er grund til at udvise skepsis og bekymring overfor den måde, det her eksperiment fungerer på. Det er ikke nødvendigvis der, hvor jeg selv ville være startet med at introducere AI i det politiske.”
For Sofie Burgos-Thorsen er problemet ikke AI i sig selv. Det er den måde, teknologien bliver fremstillet på – som en neutral, objektiv instans, der kan træffe bedre beslutninger end korrupte politikere. Den fremstilling, advarer hun, er ikke bare upræcis. Den er potentielt farlig for demokratiet.
Diella-projektet blev oprindeligt lanceret som en virtuel assistent, men er siden blevet opgraderet til ministerrang af premierministeren. Og netop dét illustrerer et paradoks, som Sofie Burgos-Thorsen finder bekymrende:
“Man har forsøgt at løse ét problem med en teknologisk, tech-fixeret tilgang, som i sig selv skaber fornyede versioner af det samme problem. Hele målet er at bekæmpe korruption og skabe mere transparens – men Diella rejser i sig selv en hel masse spørgsmål om netop transparens og gennemsigtighed og ansvar.”
Hvor idéen om neutral AI kommer fra
For at forstå, hvorfor Albaniens eksperiment er problematisk, er det nødvendigt at grave et spadestik dybere i den forestilling, der ligger til grund for det: idéen om, at teknologi kan være neutral.
I den offentlige debat opstilles ofte en dikotomi mellem teknologi og politik. Teknologi fremstilles som objektiv, datadrevet og fri for de menneskelige fejl og følelser, der plager politiske beslutningsprocesser. Politik derimod opfattes som subjektiv, beskidt og præget af kompromisser og særinteresser. I den fortælling bliver AI til et lokkende alternativ – en maskine, der kan levere de fejlfri, upartiske beslutninger, som demokratiet tilsyneladende har så svært ved at producere.
Men ifølge Sofie Burgos-Thorsen er denne forestilling grundlæggende forfejlet. AI-systemer er ikke neutrale observatører af virkeligheden. De er produkter af menneskelige valg – fra udvælgelsen af træningsdata til designet af algoritmerne og definitionen af, hvad “succes” betyder for systemet.
“Visioner om teknologi som neutrale eller objektive tekniske elementer bygger simpelthen på en falsk præmis. Uanset hvilke AI-teknologier vi bruger, så er de trænet på bestemte data og har indbygget bestemte værdisæt i sig.”
Træningsdata er per definition historiske. De afspejler fortiden – med alle dens uligheder, fordomme og magtstrukturer. Når et AI-system trænes på disse data, lærer det ikke bare at genkende mønstre. Det lærer også at reproducere de skævheder, der ligger indlejret i dataene. Og når systemet derefter præsenteres som neutralt, får disse skævheder en ny og farlig legitimitet.
Sofie Burgos-Thorsen er ikke i tvivl om, hvad der er på spil:
“Neutral teknologi findes simpelthen ikke. Og myten om, at der findes en fuldstændig unbiased, neutral teknologi, som kan tage beslutninger uden at være fedtet ind i al mulig menneskelig vurdering, er en af de farligste fejlslutninger for demokratiet. Den myte kan denne albanske case komme til at forstærke.”
Når neutralitet bliver en magtstrategi
Men neutralitetsmyten er ikke bare en uskyldig misforståelse. Den kan også fungere som en aktiv strategi for at legitimere magt og undgå ansvar.
Når en beslutning kaldes “teknisk” eller “datadrevet” i stedet for politisk, sker der noget afgørende med den måde, vi forholder os til den på. Den tekniske beslutning fremstår som objektiv nødvendighed snarere end som et valg blandt flere muligheder. Og når beslutningen er truffet af en algoritme, bliver det uklart, hvem der bærer ansvaret, hvis noget går galt.
Det er en dynamik, Sofie Burgos-Thorsen ser med stor bekymring på.
“Jo mere vi automatiserer, jo mere det bliver usynligt, hvor i en lang beslutningskæde der bliver taget forskellige beslutninger, jo mere bliver magten utydelig. Og jo nemmere bliver det for mange at fraskrive sig ansvar og sige: Det var ikke mig, der tog beslutningen – det var systemet.”
For at illustrere pointen trækker hun på den tysk-polske sociolog Zygmunt Baumans analyse af Holocaust. Bauman argumenterede for, at industrialiseringen og bureaukratiseringen af folkemordet var afgørende for, at det overhovedet kunne finde sted. Når individuelle handlinger blev til små led i en lang kæde af automatiserede processer, blev det muligt for den enkelte at fraskrive sig moralsk ansvar.
“Det farlige ved teknologien er ikke ond vilje, men fraværet af ansvar. Ideen om bureaukratiske systemer, som kan udføre problematiske handlinger, fordi de virker legitime og teknologisk neutrale – det er noget af det, Bauman advarer mod.”
Sammenligningen er naturligvis dramatisk, og Sofie Burgos-Thorsen understreger, at den skal bruges med forsigtighed. Men den illustrerer en central pointe: Når beslutninger automatiseres og pakkes ind i teknologisk neutralitet, risikerer vi at skabe systemer, hvor ingen føler sig ansvarlige for konsekvenserne.
Teknologi som genvej uden om institutioner
Albanien-eksperimentet opstår ikke i et vakuum. Det er symptomatisk for en bredere tendens, særligt i lande hvor de demokratiske institutioner er under pres.
Albanien har i årtier kæmpet med korruption, svage institutioner og dalende tillid til det politiske system. I den kontekst kan en AI-minister fremstå som en attraktiv løsning – en måde at omgå de besværlige, langsomme processer, der kræves for at opbygge velfungerende institutioner.
Men det er netop her, faren ligger, mener Sofie Burgos-Thorsen:
“Det er jo netop i lande, hvor der er pres på retsstaten og institutionerne, at den her slags eksperiment opstår. Det er et symptom på en større krise i dalende tillid til de demokratiske institutioner.”
Risikoen er, at teknologien bliver en genvej, der tillader politikere at undgå de svære, men nødvendige reformer af de demokratiske institutioner. I stedet for at investere i uafhængige domstole, gennemsigtige forvaltningsprocesser og en stærk offentlig sektor, kan man pege på AI’en som løsningen.
“AI kan blive set som en genvej uden om nogle sværere institutionelle processer, som man måske i virkeligheden bør give sig i kast med. Risikoen er, at teknologien erstatter den institutionelle opbygning, man i virkeligheden bør tage sig af.”
Resultatet kan blive et demokrati, der på overfladen ser moderne og progressivt ud, men som mangler den institutionelle substans, der er nødvendig for at beskytte borgernes rettigheder og sikre ansvarlighed i den offentlige forvaltning.
“Det kan skabe et demokrati, hvor det hele ser utrolig moderne og progressivt ud, men hvor man i virkeligheden er ret svag i sin institutionelle substans og i det grunddemokratiske fundament, man står på.”
Dertil kommer en række helt konkrete problemer med Diella-projektet. Hvem har egentlig trænet modellen? Hvilke værdier er indbygget i den? Hvordan er den designet, og hvem har godkendt den? Disse spørgsmål forbliver stort set ubesvarede.
“Det er enormt uklart. Der er efter sigende en international ekspertgruppe, der er blevet udvalgt til at skabe den her bot. Men hvordan er den designet? Hvad er den trænet på? Hvem har godkendt den? Det er i sig selv uklart, og det gør det svært at tildele ansvar.”
Demokrati kræver uenighed – ikke optimering
Der er en grund til, at demokratier er indrettet, som de er. Den politiske proces med valg, parlamentariske debatter og forhandlinger mellem partier er ikke bare en besværlig omvej til de “rigtige” beslutninger. Den er selve kernen i, hvad demokrati handler om.
Demokrati bygger på en grundlæggende anerkendelse af, at der i et samfund findes mange forskellige interesser, værdier og perspektiver. Den politiske proces er den arena, hvor disse modsætninger kan brydes og forhandles, indtil man når frem til løsninger, som – om ikke alle er tilfredse med – i det mindste har en demokratisk legitimitet.
“Grunden til, at vi har mange forskellige politikere, der skal repræsentere mange forskellige mennesker og interesser, er, at vi kommer frem til de bedste løsninger ved at have forskellige interesser, som går i dialog med hinanden.”
En AI-minister kan per definition ikke indgå i denne type dialog. Den kan ikke sidde med til et kommissionsmøde og lade sig påvirke af argumenter. Den kan ikke ændre holdning på baggrund af ny information eller skifte perspektiv efter at have hørt fra berørte borgere. Den leverer output baseret på sine algoritmer og sit træningsdata – punktum.
“Hvis vi har en AI-minister, som ikke rigtig kan sidde med til et møde og tage andre inputs ind end sit eget, så får vi nogle unilaterale beslutninger, som ikke vil tjene det brede samfund særlig godt.”
Den største risiko er måske, at politisk uenighed gradvist begynder at blive opfattet som et teknisk problem, der kan løses med bedre data og smartere algoritmer. I den forståelse bliver konflikter mellem forskellige samfundsgrupper reduceret til fejl i systemet, der blot kræver mere træningsdata.
“Alle former for politisk uenighed kan komme til at blive reduceret til data-problemer – noget, som der bare skal fyldes mere træningsdata på, og så finder AI-ministeren den bedste løsning. Det gør, at der bliver mindre plads til forskellige værdier, konflikter og civilsamfundets stemme.”
Hvem betaler prisen for neutralitetsmyten?
Hvis neutralitetsmyten får lov at stå uimodsagt, er det ikke alle, der kommer til at betale den samme pris. Erfaringerne fra årtiers forskning i algoritmisk beslutningstagning viser et tydeligt mønster: Det er de i forvejen marginaliserede grupper, der rammes hårdest.
Sofie Burgos-Thorsen understreger, at det er svært at sige præcist, hvem der vil blive ramt af netop Diella-projektet, så længe vi ikke kender træningsdata og designvalg. Men den generelle tendens er velkendt:
“Hvad vi ved fra mange års forskning, er, at sådan nogle løsninger har tendens til at bidrage til dårligere beslutninger for minoriteter og grupper, som er marginaliserede i samfundet – som også har tendens til at være historisk underrepræsenterede i data.”
Eksemplerne er efterhånden velkendte: Ansigtsgenkendelsessystemer, der har markant højere fejlrate for mennesker med mørk hud. Rekrutteringsalgoritmer, der systematisk diskriminerer kvinder. Kreditvurderingssystemer, der straffer beboere i bestemte postnumre. Listen er lang, og mønstret er det samme: Når AI-systemer trænes på historiske data, lærer de at reproducere historiske uligheder.
“Forskellige folk oplever, at teknologierne virker dårligere på dem, fordi der simpelthen er mindre repræsentation i træningsdata.”
Men der er også en anden gruppe, som risikerer at blive særligt sårbar: borgere med lav digital forståelse. For at kunne navigere i et system med en AI-minister kræves en vis forståelse for, hvad AI overhovedet er, hvordan den fungerer, og hvilke rettigheder man har som borger i forhold til algoritmiske beslutninger.
“Hvis du ikke ved, hvad en AI overhovedet er, og hvis du ikke kan gennemskue dine juridiske rettigheder, når der er en AI-minister, der tager beslutninger, så har du også sværere ved at vide, hvordan du skal klage og navigere i systemet.”
Netop klageadgangen er et centralt problem. I et traditionelt system kan en borger, der føler sig uretfærdigt behandlet, klage til en myndighed, kontakte en politiker eller gå til pressen. Men når beslutningen er truffet af en algoritme, bliver det uklart, hvor man overhovedet skal henvende sig.
“Kan man indgive en klage over en algoritmisk beslutning? Hvor gør man det henne? Diella-bot ’en slører ansvarslinjer og gør ansvaret uigennemsigtigt.”
Teknologi kan styrke demokratiet – hvis vi dropper neutralitetsillusionen
Det ville være misvisende at fremstille Sofie Burgos-Thorsen som teknologiskeptiker. Tværtimod arbejder hun til daglig med at udforske, hvordan AI kan bruges til at styrke demokratiske processer. Men hun insisterer på en afgørende skelnen: mellem AI som input til politiske beslutninger og AI som beslutningstager.
“Der sker rigtig mange interessante eksperimenter, hvor forskere leger med tanken om at bruge AI til at skabe nye former for repræsentation i den politiske debat. AI kan være god til at løfte mange forskellige slags stemmer ind i det politiske system.”
I INVI arbejder man blandt andet med at bruge store sprogmodeller til at analysere borgerinput på en måde, der fanger flere nuancer, end traditionelle surveys kan. Det gør det muligt at inddrage flere perspektiver i den politiske proces – uden at AI’en træffer beslutningerne.
Et andet eksempel er kunstprojektet “Det Syntetiske Parti” og den fiktive politiker Computer Lars, skabt af kunstneren Asger Bryl Staunæs. Projektet udforsker muligheden for at give politisk stemme til de partiprogrammer, der aldrig har fået repræsentation i Folketinget.
“Hvad hvis man tog alle de politiske programmer, som forskellige partier har forsøgt at stille op med, men ikke er blevet valgt ind med, og trænede en AI på dem? Det er en anden måde at gentænke demokratiet på – kan vi give mere stemme til de overhørte samfundsgrupper?”
AI kan også bruges til at skabe bedre feedback-loops i den politiske proces. Et af problemerne med den nuværende model er, at politikere vedtager reformer og først evaluerer dem år senere. I mellemtiden mangler de indsigt i, hvordan reformerne faktisk virker i praksis.
“Vi kan bruge AI til at skabe feedback-loops, som hurtigt og regelmæssigt henter indsigter ind fra de mennesker, der arbejder med et problem, og dem der berøres af det. Og bruge det til at fintune de politikker, vi laver.”
Den afgørende pointe er, at AI i alle disse eksempler fungerer som et værktøj, der beriger den demokratiske proces med flere input og perspektiver. Den erstatter ikke den politiske beslutning – den kvalificerer den.
“Der er masser af steder, hvor vi kan bruge AI, men hvor vi ikke erstatter magt, ansvar og politisk beslutning. Vi bruger AI som løftestang til at få flere erfaringer, flere stemmer og mere mangfoldig viden på bordet til at informere de beslutninger, vi tager som samfund.”
Ansvar er det modsatte af neutralitet
Myten om neutral teknologi er tillokkende, fordi den lover noget, demokratiet har svært ved at levere: beslutninger uden kompromisser, uden fejl, uden de besværlige konflikter mellem forskellige interesser. Men det er en farlig illusion – og den har en pris. Sofie Burgos-Thorsen advarer mod at lade sig forføre af fortællinger om teknologi som objektiv og upolitisk:
“Vi ved fra historien, at når vi udliciterer det menneskelige ansvar til automatisering og teknologi, så har vi tendens til at fraskrive os ansvar og vi får mindre empati i beslutningskæderne.”
Albanien-eksperimentet er i den forstand et varsel. Ikke fordi AI-ministre nødvendigvis kommer til Danmark i morgen, men fordi det illustrerer en logik, der allerede er på fremmarch: forestillingen om, at komplekse politiske problemer kan løses med teknologiske fixes, og at algoritmer kan levere den neutralitet, mennesker ikke kan.
“Det farlige er, at det kommer til at ligne en hyperoptimeret, neutral maskine, der kan tage politiske beslutninger. Det kan i sig selv underminere tilliden til politik – fordi vi ikke længere tror på, at politik er noget, mennesker har ansvar for.”
Tre røde linjer for AI i demokratiet
Sofie Burgos-Thorsen er som sagt ikke teknologimodstander, men hun mener, at der skal opsættes retningslinjer for udvikling og implementering af AI-systemer. Derfor mener hun, at der bør tegnes i hvert fald tre røde linjer for brugen af AI i det offentlige og demokratiske system.
For det første: Ingen AI uden klart menneskeligt ansvar. Uanset hvor avanceret teknologien bliver, må der altid være et menneske, der kan holdes ansvarligt for de beslutninger, der træffes. Det gælder ikke kun i politik, men overalt hvor AI bruges til at påvirke borgeres liv.
For det andet: Ingen automatisering uden gennemsigtighed og klageadgang. Borgere har ret til at vide, på hvilket grundlag beslutninger træffes, og de har ret til at klage, hvis de oplever sig uretfærdigt behandlet. Det kræver klare regler og procedurer, der er tilpasset en verden med algoritmisk beslutningstagning.
For det tredje: Ingen symbolske roller, der forveksler teknologi med demokrati. At give en AI ministertitel er ikke bare en kuriositet – det er en sammenblanding af kategorier, der risikerer at udvande selve idéen om demokratisk legitimitet.
“Vi er nødt til at gentænke demokratiet, hvis AI skal være en legitim demokratisk aktør. Så længe vi ikke har det på plads, skal vi passe på med ikke at sammenblande det for meget med teknologi.”

Follow Me