marts 25, 2026

Sådan bygger vi en AI, der faktisk er en ligestiller

Det er fristende at tale om kunstig intelligens, som om teknologien i sig selv trækker samfundet i en bestemt retning. Som om AI automatisk gør verden mere effektiv, mere oplyst og måske også mere lige. Men det gør den ikke.

AI bliver ikke en ligestiller af sig selv. Den kan tværtimod forstærke gamle skævheder, gøre normer sværere at få øje på og sortere mennesker mere stille og mere effektivt end før. Det afhænger ikke kun af, hvor god teknologien er. Det afhænger af, hvordan den bliver bygget, af hvem der bygger den, og af hvilke erfaringer den tager alvorligt. Det er også den grundlæggende pointe i planlægningen af denne afsluttende artikel: ligestilling kan ikke tilføjes bagefter; den skal bygges ind i data, design, organisationer og beslutningsprocesser fra begyndelsen.

Spørgsmålet er derfor ikke, om AI kan blive en ligestiller. Spørgsmålet er, hvad det kræver at den bliver det.

Ligestilling er ikke en feature

Noget af det mest misvisende ved den nuværende AI-debat er forestillingen om, at fairness, inklusion og lighed er noget, man kan lægge ovenpå et system til sidst. Som en slags sidste kontrol: Har vi husket etik? Har vi husket bias? Har vi husket brugerne?

Men hvis teknologien allerede er bygget på et snævert billede af verden, hjælper det kun begrænset at rette lidt til bagefter. Det er derfor, det giver mere mening at tale om ligestilling som et designprincip end som en funktion. Hvis AI-systemer bliver trænet på skæve data, udviklet i ensartede miljøer og rullet ud uden reel kritik eller brugerindflydelse, bliver skævheden bygget ind i selve systemets logik. Så er problemet ikke bare, at teknologien laver fejl. Problemet er, at den lærer bestemte normer at kende som det almindelige menneske.

Start med kanten, ikke med midten

Cathrine Mejdal, der arbejder med disability tech og selv er født døv, formulerer måske det vigtigste korrektiv til hele diskussionen: mennesker med handicap er ikke bare brugere af teknologi. De er også med til at bygge og forme den. “Det er en stor misforståelse, at handicappede kun er brugere af teknologien. De bygger også teknologi.

Den sætning rummer mere end handicapfeltet. Den peger på et generelt princip: Teknologi bliver bedre, når den ikke først og fremmest tager udgangspunkt i den gennemsnitlige eller “normale” bruger, men i de mennesker, der mærker friktionen tydeligst.

Det er også grunden til, at disability tech ofte er så interessant. Ikke fordi handicap er en niche, men fordi handicapfeltet synliggør fejlene i design hurtigere end mange andre steder. Det, der for nogle ligner små irritationsmomenter, kan for andre være forskellen på adgang og eksklusion.

Morten Hauge Larsen fra Inclusive Tech Lab siger noget beslægtet, når han beskriver AI som den teknologi, der har størst potentiale for at bringe mennesker med handicap “tættere på at blive mere deltagende i samfundet, i alle mulige forskellige arenaer,” netop fordi den kan tilpasses forskellige behov. Han understreger samtidig, at to brugere med samme type handicap kan have vidt forskellige ønsker til tilgængelighed, og at det kræver grundighed og brugerinddragelse at bygge noget, der faktisk virker.

Det peger mod det første princip:

Byg fra kanten.

Tag udgangspunkt i dem, der ellers først bliver inviteret ind til sidst. Ikke for at være venlig, men fordi deres erfaringer gør teknologien mere præcis, mere robust og mere menneskelig.

Mangfoldighed er ikke pynt

Det andet princip er mere banalt, men ikke mindre vigtigt: Hvem der bygger teknologien, påvirker hvordan problemer bliver forstået.

Katrine Bach fra Connected Women in AI siger det meget direkte: “AI kan jo være et fantastisk ligestillingsværktøj, hvis vi bare er opmærksomme på de risici, der også er”. Men den opmærksomhed opstår ikke af sig selv. Den kræver, at flere perspektiver faktisk er til stede i udviklingen.

Bach peger på tre ting igen og igen: diversitet, tværfaglighed og synlighed. Hun arbejder selv med initiativet 100 Women in AI for netop at gøre flere kvinders kompetencer og roller i feltet synlige, fordi forestillingen om, hvem der “hører til” i AI, stadig er alt for smal .

Når hun bliver spurgt, hvordan man bygger mere ligestillende AI, svarer hun lavpraktisk: Man må være opmærksom på muligheden for bias og teste for den. Man må bruge audits. Man må sikre diversitet og tværfaglige teams. Og man må holde op med at se AI som et rent teknisk projekt. “Hvis det bliver set som et teknisk projekt, så mister vi så meget mulighed for diversitet,” siger hun.

Det er et vigtigt punkt. For mangfoldighed i udviklingsteams er ikke kun et spørgsmål om signalværdi. Det handler om, hvilke spørgsmål der overhovedet bliver stillet. Hvilke risici der opdages tidligt. Hvilke erfaringer der bliver taget for givet — og hvilke der bliver overset. Derfor er mangfoldighed heller ikke noget, man kan delegere til HR alene. Det er en del af selve teknologiens kvalitet.

Gør bias synlig

Det tredje princip er måske det mindst glamourøse og det mest nødvendige: Transparens.

Hvis AI skal være mere retfærdig, må den holde op med at blive præsenteret som neutral. Systemerne er bygget på data, optimeringsmål, antagelser og prioriteringer. De kommer fra et sted. De er udviklet i et samfund og til et samfund. Som Katrine Bach siger: “Jeg tror ikke, at man kan håbe på, at den nogensinde er fuldstændig neutral. Så det er vigtigt at være opmærksom på, hvor er det, det kommer fra, hvem har udviklet, og hvad er det for et samfund, det er udviklet i og til?”  

Det betyder i praksis, at AI-projekter bør kunne besvare nogle ret enkle spørgsmål:

Hvilke data bygger systemet på?

Hvem er repræsenteret i de data?

Hvilke former for fejl er særligt alvorlige?

Hvem kan kritisere systemet, og hvordan bliver kritikken taget ind?

Hvordan bliver modellen evalueret over tid?

Transparens gør ikke teknologien perfekt. Men den gør det sværere at gemme normer inde i systemet og kalde dem objektive resultater.

Brugerne skal ikke bare testes — de skal være med

Det fjerde princip følger direkte af de tre første: Brugerne skal ikke bare ind i testfasen. De skal være med til at definere problemerne.

Her er disability tech igen et stærkt korrektiv til resten af AI-feltet. Morten Hauge Larsen siger, at det, Inclusive Tech Lab og hackathon-formatet har lært, er, at der er behov for “noget helt grundlæggende arbejde i forhold til at forstå de forskellige behov, som er for brugerne,” og at tilgængelighed er et komplekst emne, hvor “der ikke er to brugere, der er ens” .

Det lyder måske selvfølgeligt. Men store dele af AI-udviklingen fungerer stadig, som om brugeren primært er en testperson. Først definerer man problemet. Så bygger man modellen. Til sidst undersøger man, om den virker.

Hvis AI skal være en ligestiller, må den rækkefølge vendes om. Brugerne er ikke bare dem, der bekræfter, om løsningen fungerer. De er ofte dem, der hurtigst kan se, om problemet overhovedet er rigtigt forstået. Det er også derfor, hackathons, co-creation og participatory design ikke bare er bløde metoder. De er forsøg på at ændre magtforholdet i selve udviklingen. I planlægningen bliver det formuleret meget klart: Brugerne skal ikke bare testes — de skal være med til at definere problemer og løsninger .

Regulering er ikke modsætningen til innovation

Det femte princip ligger uden for designrummet: institutioner og regulering.

Markedet alene skaber ikke ligestilling. Markedet belønner ofte hastighed, skalering og effektivitet længe før det belønner fairness. Derfor bliver AI heller ikke mere retfærdig af, at man bare håber på ansvarlige virksomheder.

I planlægningen peges der netop på lovgivning, offentlige indkøb og standarder som medformende kræfter. Teknologi formes ikke kun af udviklere, men også af de institutioner og incitamenter, den møder .

Det betyder blandt andet, at:

  • det offentlige bør stille tydeligere krav til bias, dokumentation og tilgængelighed, når AI-løsninger købes ind
  • regulering som EU AI Act ikke kun skal ses som begrænsning, men som forsøg på at placere ansvar
  • governance ikke er et sideprojekt, men en del af teknologiens samfundsmæssige design

Katrine Bach peger selv på behovet for audits, høj transparens og en iterativ proces, hvor systemer løbende bliver evalueret, netop fordi de udvikler sig hele tiden. Retfærdighed i AI kræver altså ikke mindre politik, men mere.

AI er et demokratisk projekt

Når man samler de forskellige spor, bliver det tydeligt, at AI ikke bare er en teknologisk udvikling. Det er også et demokratisk projekt. Ikke i den højstemte forstand, at AI vil redde demokratiet. Men i den mere jordnære og vigtige forstand, at teknologi former adgang, deltagelse og beslutningskraft. Spørgsmålet er ikke kun, hvilke modeller vi bygger. Spørgsmålet er også, hvem der får indflydelse på, hvordan de bliver bygget.

Hvis de samme få grupper sætter standarderne, samler infrastrukturen og definerer problemerne, vil teknologien næsten uundgåeligt reproducere skævheder. Hvis flere erfaringer derimod bliver taget alvorligt som viden, ændrer det ikke bare etiketten på systemet. Det ændrer selve systemets udgangspunkt.

Det er måske det mest konstruktive, der kan siges efter alle de kritiske lag: En mere retfærdig AI kræver ikke først og fremmest bedre branding. Den kræver andre processer.

Valget

Kunstig intelligens kan blive en teknologi, der reproducerer ulighed. Den kan også blive en teknologi, der udvider menneskers muligheder. Begge dele er allerede synlige.

Den bliver ikke en ligestiller af sig selv. Den bliver det kun, hvis nogen insisterer på, at lighed ikke er noget, man lægger ovenpå til sidst, men noget man bygger ind fra begyndelsen. I dataene. I designet. I teamsene. I evalueringen. I reguleringen. I spørgsmålet om, hvem der får lov til at definere, hvad teknologien overhovedet skal være.

Det er derfor, den vigtigste diskussion om AI måske ikke handler om, hvor intelligent teknologien bliver. Men om hvem der får lov til at forme den.

Vil du følge AI Portalen tættere?

Tilmeld dig nyhedsbrevet og få nye artikler, temaer og redaktionelle opdateringer.

Tilmeld nyhedsbrev

Medlem

80 kr./måned

Bliv medlem på Patreon

Støt AI-Portalens uafhængige journalistik om AI, magt og samfund.

Inkluderet i medlemskabet:

  • Månedligt nyhedsbrev
  • Invitationer til online og fysiske events om AI
  • Adgang til optagelser og opsamlinger fra møder og foredrag
  • Rabat på events
  • Invitation til månedligt online redaktionsmøde

Medlemskab administreres via Patreon.

Vi laver journalistik om AI, fordi udviklingen går hurtigere end den offentlige samtale.

På AI Portalen forsøger vi at skabe overblik, perspektiv og kritisk indsigt i en teknologi, der allerede former alt fra arbejdsmarkedet til demokratiet — ofte uden at nogen bremser op og forklarer, hvad der foregår.

Hvis vores artikler hjælper dig med at forstå AI lidt bedre, så overvej at støtte arbejdet.

Et medlemskab gør én ting mulig: at vi kan blive ved med at undersøge, dokumentere og forklare, hvordan AI påvirker Danmark — uden investorer, uden PR-interesser og uden at jage hype.

Bliv medlem og vær med til at styrke uafhængig journalistik om AI.

Seneste nummer

Bliv medlem

Bliv medlem

Støt uafhængig journalistik om AI, magt og samfund.

Bliv medlem på Patreon

Køb bogen før din nabo!

Follow Me