
AI bliver hyldet som teknologi, der kan fjerne barrierer og skabe lighed. Men for hvem? Og på hvilke præmisser? Gennem samtaler med eksperter, iværksættere og aktivister tegner der sig et komplekst billede – af et løfte, der er reelt, og en risiko, der er lige så reel.
Da Cathrine Mejdal var tre år gammel, gik hun ned ad gaden med en pædagog fra børnehaven. Pludselig så hun to mennesker, der kommunikerede i tegnsprog. Hun vendte sig om og sagde til pædagogen: “De er ligesom mig.” Det var første gang, hun følte, at hun hørte til.
Den historie starter ikke med et tal. Men den forklarer, hvorfor tallet betyder noget.
Mejdal er selv døv og arbejder med disability tech og teknologiens relation til handicap. På Disability Tech Hackathon på Københavns Universitet stiller hun sig foran salen og lader 1,3 milliarder hænge i luften et øjeblik. Det er verdens største minoritet: mennesker med handicap. I det øjeblik bliver hackathonet sat ind i en anden målestok – ikke som et nichearrangement om hjælpemidler, men som et forsøg på at tage en enorm og ofte overset del af verden alvorligt.
Men hvad er det egentlig, der foregår her?
Disability Tech Hackathon er et tværfagligt udviklingsforløb, hvor studerende, eksperter, organisationer og mennesker med handicap arbejder sammen om konkrete cases. I 2026 blev hackathonet afholdt i samarbejde mellem blandt andre DTU Skylab, Disability Tech Danmark, Microsoft, Videnscenter om Handicap og Elsass Fonden. Målet er ikke bare at få idéer frem, men at afprøve en anden måde at udvikle teknologi på: med udgangspunkt i levet erfaring, konkrete barrierer og brugere, der er med fra begyndelsen – ikke først til sidst som testpersoner.
Det er et godt sted at begynde, hvis man vil forstå AI’s dobbelte løfte. For kunstig intelligens bliver ofte præsenteret som teknologi, der kan ændre alt. Men ændre hvad? Og for hvem?
Ikke et menneske, der skal fikses
Cathrine Mejdal beskriver to måder at forstå handicap på. Den ene ser handicap som noget, der skal løses, korrigeres eller kompenseres for. Den anden ser det relationelt: som noget, der opstår i mødet mellem en krop, en situation og en verden, der er bygget på bestemte forestillinger om normalitet. Mejdal har oplevet begge dele – teknologi, der hjalp, og teknologi, der stigmatiserede, fordi den var designet af nogen, der aldrig havde spurgt hende.
Det perspektiv er direkte relevant for, hvordan AI bliver udviklet – og af hvem. Mejdal beskriver en proces, hun kalder participation washing: den symbolske form for inklusion, hvor udviklere indkalder mennesker med handicap, noterer deres svar og arbejder videre på egne præmisser.
“Man udnytter det fra de handicappede, som man synes, man kan gøre brug af, og så resten fjerner man. Men dem, der har den rigtige viden, de bliver ikke inddraget, de er ikke med i processen. Det bliver kolonistisk på en eller anden måde – vi siger, hvordan vi gerne vil have det, og så er det nogle andre, der går ind og styrer det.”
Disability Tech Hackathon er interessant, fordi det i det mindste forsøger at gøre det modsatte. Ikke perfekt. Men som princip.
Deltagerne arbejdede ikke bare frit. De fik udleveret en playbook – en slags arbejdsbog for weekenden – som ledte dem gennem processen fra identifikation af pain points til problemformulering, idéudvikling og prioritering af løsninger. Den begyndte med pain points og problemanalyse, fortsatte gennem clustering og dot-voting og først derefter bevægede sig mod ideation, koncepttegning, bull’s eye-prioritering og solution statements. Først når friktionen var gjort konkret, blev der bygget videre.
Det er en lille, men vigtig forskydning. For her bliver inklusion ikke bare et værdigrundlag. Det bliver en arbejdsmetode.
Når teknologien faktisk virker
Jakob Frederik Lykke er ordblind og grundlægger af Cliarly, et dansk AI-drevet hjælpeværktøj til læsning og skrivning. Han er ikke en mand, der taler om teknologi som ideologi. Han taler om stemmer, der er ulidelige at høre på. Om hverdagsfriktion. Om at være træt af værktøjer, der i årevis var “gode nok” for dem, der ikke selv skulle bruge dem.
“Lige siden jeg brugte de her gamle værktøjer tilbage i folkeskolen, har jeg gået og drømt om at lave noget, der fungerer bedre. Det var en drøm, jeg har haft i rigtig lang tid.”
Cliarly startede som en oplæser, der ikke lyder som en dårlig robot. Siden kom et tekstrettelsesværktøj. Begge dele udviklet med ordblinde som tydeligt centrum. Men som så ofte i god tilgængelig teknologi ender løsningen ikke hos sin oprindelige målgruppe alene.
“Typisk når man designer noget til folk med særlige behov, så kommer det også rigtig mange andre til gode. Det er også virkelig det, vi ser – fra folk med andre diagnoser til folk helt uden diagnoser.”
Lykke siger også noget andet, som er afgørende: at man skal passe på, at man ikke i debatten om AI-regulering kommer til at skære alle de gode muligheder væk – mulighederne for at hjælpe og ligestille en hel masse mennesker. Det er den side af historien, der gør emnet værd at dykke ned i. AI kan være hype. AI kan forstærke skævheder. Men AI kan også fjerne barrierer, som tidligere har været taget for givne.
Hvad adgang egentlig betyder
Morten Hauge Larsen er faglig leder i Videnscenter om Handicap og primus motor bag Inclusive Tech Lab, et fysisk rum i Handicaporganisationernes Hus, hvor mennesker med handicap kan komme og prøve teknologi og deltage i læringsforløb. Han er også en central aktør bag Disability Tech Danmark, den alliance af organisationer, virksomheder og uddannelsesinstitutioner, der stod bag hackathonet.
“AI er den teknologi, der har det største potentiale for at bringe mennesker med handicap tættere på at blive mere deltagende i samfundet, i alle mulige forskellige arenaer.”
Det interessante er ikke bare optimismen, men grunden til den. Det handler ikke om, at AI er smartere end tidligere teknologi. Det handler om, at AI kan være mere fleksibel. To brugere med det samme handicap kan have vidt forskellige behov. Tidligere teknologi har ofte været bygget som standardløsninger. AI åbner i højere grad for tilpasning.
Hackathonet er for Larsen mere end en event. Han kalder det metodeudvikling – noget, der på sigt kan skaleres, fordi man forsøger at bringe brugerperspektiv, udvikling og teknologiske muligheder sammen på en anden måde end normalt. De studerende arbejdede med tre brede cases: usynlige handicap, pårørende og kommunikation – og brugerne var med hele weekenden, ikke som testpersoner til sidst, men som medudviklere undervejs. Den mest populære case var usynlige handicap. Mange af de studerende kunne selv relatere til erfaringerne med angst, ADHD og sensorisk overbelastning. Vejen fra abstraktion til forståelse var kort.
Det bliver særligt tydeligt i playbookens case om pårørende og omsorgspersoner. Her beskrives en virkelighed, hvor forældre til børn med handicap i gennemsnit er i kontakt med 33 forskellige professionelle om året og ofte står med det fulde ansvar for at koordinere møder, behandlingsplaner, skolebeskeder og sociale aktiviteter. En af formuleringerne i materialet er næsten ubærligt præcis: forældrene bliver “the project manager of a life – without ever being given a manual.” Behovet er ikke endnu et system, men et værktøj, der “ties things together rather than adding new tasks.”
Det er værd at dvæle ved. For her bliver det tydeligt, at teknologi ikke er ligestillende, bare fordi den findes. Hvis den lægger endnu et koordinationslag oven på et i forvejen presset liv, er den ikke en hjælp. Så er den bare endnu en byrde forklædt som løsning.
Teknologi er ikke et nulsumsspil
Ingrid Haug er innovationskonsulent ved DTU Skylab, DTU’s centrale hub for iværksætteri og innovation, og har arbejdet med diversitet og inklusion i teknologiudvikling i tre år. Hun formulerer dilemmaet præcist: teknologi er sjældent neutral.
“Teknologi er vanvittigt ekskluderende. Jeg oplever ofte, at teknologi er lavet til en helt særlig type mennesker.”
Og det sker ikke nødvendigvis med vilje – det sker, fordi dem der bygger det, ikke har mødtes med dem, der skal bruge det.
Haug peger på en startup fra DTU’s eget økosystem som eksempel på det modsatte: Guidly, der bruger AI til at gøre museumsoplevelser tilgængelige. Besøgende, der ikke kan læse, har brug for et særligt tempo eller taler et andet sprog, kan få en AI-guide til at læse og forklare værkerne. Adgang, som tidligere forudsatte særlige ressourcer, bliver pludselig mulig for langt flere. Det er den samme logik som det sænkede fortov: designet til kørestolsbrugere, brugt af alle. Tilgængelighed er sjældent et nulsumsspil.
Et andet værktøj på bordene var DTU Skylabs Ability Prompt Cards – kort, der hjælper udviklere med at teste en idé mod forskellige former for menneskelig variation og friktion. Kortene stiller et enkelt, men ubekvemt spørgsmål: “Who are you currently excluding?” De beder teams undersøge mismatch mellem deres idé og forskellige former for permanent, midlertidig og situationsbestemt funktionsnedsættelse. Ikke kun blindhed, døvhed eller kørestolsbrug, men også stress, open office, heavy accent, grief, poverty, minority, culture, abroad og new tech.

Det gør noget vigtigt ved designarbejdet. For pludselig bliver inklusion ikke bare et moralsk spørgsmål, men et konkret udviklingsgreb. Den forestillede gennemsnitsbruger falder fra hinanden, og udviklerne bliver tvunget til at se variation som udgangspunkt i stedet for undtagelse.
Noget af det mest interessante ved kortene er, at de ikke kun handler om handicap i klassisk forstand. De gør det tydeligt, at eksklusion også opstår gennem stress, sorg, fattigdom, fremmedhed, støj, sprog og teknologisk uvanthed. Disability tech bliver på den måde mindre et nicheområde og mere en stresstest af, om teknologi overhovedet kan rumme menneskelig variation.
Teknologi er aldrig neutral
Men her kommer et grundlæggende spørgsmål frem i lyset. Hvis AI virkelig kan skabe større lighed, hvorfor er der så mange tegn på, at teknologien også reproducerer og forstærker gamle skævheder?
Cathrine Mejdal formulerer det sådan her:
“Så længe det er normative data, AI bliver fodret med, så er det jo det, AI tager udgangspunkt i. Og dem, der laver AI, er i overvejende grad vestlige, hvide, heteronormative mennesker. Den viden, som puttet ind i AI, er ud fra deres perspektiver.”
Det betyder, at AI ikke bare afspejler verden. Den afspejler bestemte dele af verden, bestemte erfaringer, bestemte måder at tænke på. Den afspejler dem, der er mest synlige i data, mest til stede i udviklingsmiljøerne og mest vant til at blive opfattet som standard.
Hvem er standardmennesket?
Katrine Bach er medstifter af Connected Women in AI, et netværk med over 8.000 kvinder, der arbejder med at øge kvinders deltagelse og indflydelse i AI-feltet. Hun peger på de skæve tal: cirka 20 procent af dem, der arbejder i og med teknologien, er kvinder, andelen i ledende stillinger er endnu lavere, og kvinder bruger AI mindre end mænd. Men det mest opsigtsvækkende tal kommer fra en Ipsos-undersøgelse:
“70 procent af danskerne synes, at det er vigtigt, at der er diversitet i kunstig intelligens og innovation. Men kun 3 procent forbinder AI-kompetencer med kvinder.”
Konsekvensen er ikke kun kulturel. Den er udviklingsmæssig.
“Helt konkret, hvad det betyder for teknologien – det betyder, at vi får et indsnævret perspektiv, hvis vi ikke har diversitet bag udviklingen.”
Og det gælder ikke kun køn. Det gælder handicap, etnicitet, sprog, klasse og geografi. Hvis AI bliver bygget af for ens mennesker, på for ens data og med for ens forestillinger om normalitet, bliver systemerne ikke neutrale. De bliver smalle. Bach tilføjer: spørgsmålet er ikke bare, hvem der tester til sidst. Det er, hvem der er til stede, når problemerne bliver defineret.
Ability Prompt Cards gør den pointe næsten brutalt konkret. Når et team bliver bedt om at tænke i spændet mellem blind/cataract/in the dark, ADHD/anxiety/open office eller minority/age/culture, bliver det pludselig synligt, hvor hurtigt “den almindelige bruger” falder fra hinanden som kategori. Den almindelige bruger findes sjældent uden for designbriefet. I virkeligheden er menneskelig brug altid præget af situation, krop, kultur, sprog og overskud.
Algoritmerne har et verdenssyn
Asim Latif sidder i bestyrelsen for Institut for Menneskerettigheder og har arbejdet med socialt udsatte og minoriteter i årtier. Når han taler om kunstig intelligens, handler det ikke om teknologi i sig selv. Det handler om, hvem der designes ud af fremtiden – og hvem der designes ind.
“Alle bruger det i dag. Men hvem er det, der designer algoritmerne? Det ved vi jo ikke. Og det er en klassisk middelklasse, akademisk hvid mand, som har et bestemt verdenssyn. Ligesom verdenskortet – det er jo ikke sådan, verden 100% ser ud. Det er et meget misvisende perspektiv på tingene, som sætter aftryk og sætter rammen om samtalen.”
Latif taler om repræsentation, men insisterer på at gøre det præcist. Det handler ikke om ansigter på en plakat. Det handler om, hvem der definerer problemerne – og dermed løsningerne. Han peger på konkrete eksempler: et kommunalt AI-system, der skulle forudsige anbringelse af børn inden fødsel og aldrig kom i drift, og banksystemer, der sender hundredvis af enkeltmandsvirksomheder med minoritetsbaggrund til politiet for mulig hvidvask – ikke af ondskab, men fordi systemet er designet til at minimere bøders risiko, ikke til at forstå kontekst.
“Jeg kan stille præcis det samme spørgsmål som dig, men fordi min kontekst er så radikalt anderledes, er det en anden type svar, jeg burde forvente – end jeg måske får.”
Han ser det samme mønster, som Mejdal beskriver fra handicapfeltet: systemer, der ikke er designet til at forstå variation, og som derfor læser variation som afvigelse. Og han ser det forstærket af AI’s hastighed og skala.
“AI går jo bare ind og forstærker det, der foregår. Og hvis der er en polarisering – og det er der jo – så forstærker den det.”
Men Latif er ikke pessimist. Han ser et kolossalt potentiale. Han nævner DefTalk, en kommunikationsplatform grundlagt af tre mænd med pakistansk baggrund – to seende, én døv – der nu bruges af PostNord og har hjulpet ti døve i arbejde. Han er selv ved at udvikle et AI-redskab til frivillige foreninger, der konverterer mundtlige noter til skriftlig dokumentation – så kompetencer ikke udelukkes af formelle krav om akademisk skrift.
“Den kan jo løfte os mennesker. Den kan bygge bro. Alt det gode, vi også gerne vil, det kan den. Men teknologien er ikke bedre end dem, der bruger den, udvikler den og designer den.”
De, der lever med eksklusionen, ved mest om den
Det er her, disability tech og kønsperspektivet og minoritetserfaring peger i samme retning. Mejdal gør op med forestillingen om, at mennesker med handicap blot er “brugere”.
“Det er en stor misforståelse, at handicappede kun er brugere af teknologien. De bygger også teknologi. Det er jo ikke to kategorier.”
Det er en langt større pointe, end den først lyder. For når nogen først bliver inviteret ind til sidst – som cases, testpersoner eller modtagere – er det ofte allerede afgjort, hvordan problemet ser ud. Det gælder handicap. Det gælder køn. Det gælder etnicitet. Det er ikke tre separate problemer. Det er det samme problem, set fra tre vinkler.
Det er også derfor, hackathonets greb med at begynde i pain points og med kort, der spørger “Who are you currently excluding?”, er så præcist. De tvinger udviklingen væk fra gennemsnitsbrugeren og over mod det mere krævende spørgsmål: Hvilke liv er løsningen bygget til? Hvilke er den bygget uden om? Og kan design fra kanten i virkeligheden give bedre løsninger til langt flere?
Hvad gør det ved AI’s løfte?
Det er let at skrive AI ind i et enten-eller. Enten som frelsende teknologi eller som undertrykkende maskineri. Men efter at have lyttet til de seks mennesker, dette tema er bygget op omkring, er det mere præcist at sige, at AI er et sted, hvor samfundets egne konflikter bliver tydeligere. Teknologien kan udvide adgang – det er reelt. Den kan gøre barrierer mindre hårde – det er også reelt. Men den kan ikke gøre det uden samtidig at afspejle magtforholdene omkring sig.
Katrine Bach siger det med en blanding af optimisme og advarsel:
“AI kan jo være et fantastisk ligestillingsværktøj, hvis vi bare er opmærksomme på de risici, der også er.”
For AI bliver ikke en ligestiller af sig selv. Men den er heller ikke dømt til at være en normmaskine. Den bliver det, nogen bygger den til at være. Og hvis der er én ting, samtalerne med Mejdal, Lykke, Larsen, Haug, Bach og Latif gør tydelig, så er det netop dette: teknologi starter ikke i maskinen. Den starter i forestillingen om, hvem verden skal virke for.
Da Cathrine Mejdal var tre år, fandt hun nogen, der lignede hende. Det var ikke teknologi, der skabte den følelse. Men teknologien kan enten gøre den til noget sjældnere – eller til noget mere almindeligt.
Medlem
80 kr./måned
Bliv medlem på PatreonStøt AI-Portalens uafhængige journalistik om AI, magt og samfund.
Inkluderet i medlemskabet:
- Månedligt nyhedsbrev
- Invitationer til online og fysiske events om AI
- Adgang til optagelser og opsamlinger fra møder og foredrag
- Rabat på events
- Invitation til månedligt online redaktionsmøde
Medlemskab administreres via Patreon.
Vi laver journalistik om AI, fordi udviklingen går hurtigere end den offentlige samtale.
På AI Portalen forsøger vi at skabe overblik, perspektiv og kritisk indsigt i en teknologi, der allerede former alt fra arbejdsmarkedet til demokratiet — ofte uden at nogen bremser op og forklarer, hvad der foregår.
Hvis vores artikler hjælper dig med at forstå AI lidt bedre, så overvej at støtte arbejdet.
Et medlemskab gør én ting mulig: at vi kan blive ved med at undersøge, dokumentere og forklare, hvordan AI påvirker Danmark — uden investorer, uden PR-interesser og uden at jage hype.
Bliv medlem og vær med til at styrke uafhængig journalistik om AI.
Follow Me