
Det begynder næsten altid med en god intention. En teknologi skal hjælpe nogen, der er hægtet af. En app skal gøre systemer lettere at forstå. En model skal give adgang til sprog, struktur, viden eller støtte, som tidligere var dyr, langsom eller socialt utilgængelig. Kunstig intelligens passer perfekt ind i den fortælling. Den kan forklare det, ingen lærer når at forklare igen. Den kan oversætte, strukturere, opsummere og formulere. Den kan sænke tærskler og flytte noget, der før lå langt væk, tættere på flere mennesker. Det er også derfor, AI så let kommer til at ligne en allieret.
Men det er kun den ene halvdel af historien. For når teknologien bliver præsenteret som redning, opstår der et andet spørgsmål i skyggen: Hvem har egentlig defineret problemet? Hvem ejer systemet? Hvem bestemmer, hvilke data der tæller, hvilke brugere der ligner standarden, og hvilke liv der skal oversættes ind i noget, maskinen kan forstå?
Det er dér, den samme teknologi kan begynde at ligne noget andet end hjælp. Ikke nødvendigvis rå dominans. Ikke nødvendigvis ond vilje. Men en ny måde at eksportere normer, samle beslutningskraft og gøre bestemte verdensbilleder til standard.
Når teknologien faktisk hjælper
Det er vigtigt at begynde med det, der virker. Jakob Frederik Lykke grundlægger Cliarly ud fra noget meget konkret: sin egen erfaring som ordblind og sin frustration over de værktøjer, der allerede findes. “Lige siden jeg brugte de her gamle værktøjer tilbage i folkeskolen, har jeg gået og drømt om at lave noget, der fungerer bedre. Det var en drøm, jeg har haft i rigtig lang tid,” fortæller han.
Det første problem, Cliarly går efter, er ikke verdensfrelse, men oplæsning, der faktisk lyder ordentligt. Senere kommer tekstrettelse. Begge dele udvikles med ordblinde brugere som tydeligt centrum. Men som Lykke selv siger: “Typisk når man designer noget til folk med særlige behov, så kommer det også rigtig mange andre til gode. Det er også virkelig det, vi ser – fra folk med andre diagnoser til folk helt uden diagnoser.”
Det er en vigtig påmindelse. Teknologi udviklet fra kanten bliver ikke nødvendigvis smallere. Den kan tværtimod blive mere robust og mere anvendelig. Her ligner AI ikke en koloniserende kraft, men noget, der flytter adgang til sprog og forståelse tættere på mennesker, der tidligere måtte klare sig med dårligere værktøjer.
Morten Hauge Larsen fra Inclusive Tech Lab formulerer noget beslægtet. Han ser AI som “den teknologi, der har det største potentiale for at bringe mennesker med handicap tættere på at blive mere deltagende i samfundet, i alle mulige forskellige arenaer,” netop fordi den kan tilpasses konkrete behov, hvis brugerne bliver involveret undervejs.
Så nej: det giver ikke mening at skrive om AI, som om teknologien bare er bluff. Den kan være reel støtte. Den kan mindske friktion. Den kan bringe noget, der ligner ekspertise, tættere på mennesker, der tidligere stod længere væk fra den.
Men hjælp er ikke det samme som neutralitet
Det er her, historien bliver mere besværlig. Cathrine Mejdal, der arbejder med disability tech og teknologiens relation til handicap, gør det klart, at teknologi aldrig bare er et uskyldigt redskab. “AI-koderne er jo ikke selvreflekterende og gennemtænkende. Det er jo bare koder, der akkumulerer ud fra et korpusviden, som er blevet samlet.”
Det lyder måske teknisk. Men pointen er enkel: Hvis systemerne lærer verden at kende gennem et smalt udsnit af erfaringer, vil de også lettere tage det udsnit som standard. Det, der ligner neutralitet, kan i praksis være et meget bestemt verdenssyn.
Det er her, AI holder op med bare at ligne et værktøj og begynder at ligne et verdensbillede.
Den normative udvikler
Katrine Bach, der arbejder med diversitet og AI gennem Connected Women in AI, peger på noget tilsvarende fra et kønsperspektiv. “Helt konkret, hvad det betyder for teknologien, det betyder jo, at vi får sådan et indsnævret perspektiv, hvis det er, at vi ikke har diversitet bag udviklingen.”
Hun flytter også opmærksomheden væk fra selve modellen og hen mod processen bag den: “Hvem er det, der er repræsenteret i den data, der ligger til grund for både problemet og for den data, man bruger i sin innovation?”
Det er et afgørende spørgsmål, fordi det gør det svært at nøjes med at tale om AI som teknik. Hvis for få perspektiver får lov til at definere både problemet, dataene og løsningen, bliver skævheden bygget ind længe før systemet møder brugeren.
Det er her, figuren af den normative udvikler opstår. Ikke nødvendigvis som én bestemt person, men som et miljø: relativt ens uddannelser, ens kulturelle referencer, ens forestillinger om, hvad der er normalt, effektivt og troværdigt. Normen føles usynlig for dem, der ligner den. Og derfor bliver den let skrevet ind i teknologien som om den bare var virkeligheden.
Når algoritmerne har et verdenssyn
Asim Latif siger det mere direkte. Han har i årevis arbejdet med brobygning mellem borgere og systemer, sidder i bestyrelsen for Institut for Menneskerettigheder og kender både de offentlige institutioners sprog og de erfaringer, der ofte bliver skubbet ud til siden. Når han ser på AI, ser han ikke bare teknologi. Han ser en ny måde, hvorpå bestemte perspektiver kan komme til at ligne det almindelige menneskes perspektiv.
“Alle bruger det i dag. Men hvem er det, der designer algoritmerne? Det ved vi jo ikke. Og det er en klassisk middelklasse, akademiske hvid mand, som har et bestemt verdenssyn,” siger han. “Ligesom, når man kigger på verdenskortet. Det er jo ikke sådan, den 100% ser ud. Det er jo et meget misvisende perspektiv på tingene, som så også sætter aftryk og sætter rammen om samtalen og verdenssynet.”
Det er et stærkt billede, fordi det viser, at problemet ikke kun handler om fejl i output. Det handler om, at systemet allerede er vinklet, før man overhovedet stiller sit spørgsmål.
Asim Latif gør det også konkret på en måde, de andre kilder ikke gør: “Jeg kan stille præcis det samme spørgsmål som dig, men fordi min kontekst er så radikalt anderledes, så er det jo en anden type svar, jeg burde forvente.”
Det er her, AI begynder at ligne en stille eksport af normer. Ikke fordi systemet nødvendigvis siger, at nogle mennesker er forkerte. Men fordi det igen og igen tager noget bestemt som udgangspunkt for, hvad der er normalt sprog, legitim adfærd og relevant erfaring.
Fra bruger til råstof
Det er her, koloniperspektivet bliver mere end et polemisk ord. Koloniale relationer handler ikke kun om territorium. De handler også om, hvem der henter værdier ud af andres liv, erfaringer og ressourcer — og hvem der sidder tilbage med kontrollen. I den digitale økonomi er råstoffet ofte data, adfærd, sprog og opmærksomhed. Det er disse materialer, AI-systemer lærer af. Men ejerskabet til modellerne, infrastrukturen og beslutningskraften ligger sjældent hos dem, der bidrager med råstoffet gennem deres liv.
Derfor kan hjælpsom teknologi også glide over i noget mere asymmetrisk. Et system bliver rullet ud i én kontekst, men udviklet i en anden. Brugerne får adgang til et værktøj, men ikke indflydelse på dets grundlogik. De kan bruge systemet, men ikke gennemskue det. De kan få hjælp af det, men ikke nødvendigvis ændre det.
Asim Latif sætter det på spidsen, når han taler om AI og samfundets eksisterende spændinger: “AI og sådan noget, den går jo bare ind og forstærker det, der foregår. Og hvis der er en polarisering – og det er der jo – så forstærker den det.”
På den måde kan AI godt ligne støtte i brugerens hånd og samtidig ligne udvinding i systemets struktur. Det er ikke en modsætning. Det er to sider af samme teknologi.
Når hjælp bliver styring
Det særlige ved AI er, at det samme system ofte både kan hjælpe og kontrollere. Det kan oversætte og samtidig standardisere sproget. Det kan gøre adgang lettere og samtidig gøre brugeren mere afhængig af en platform, vedkommende ikke ejer, ikke forstår og ikke har reel indflydelse på. Det kan støtte mennesker i komplekse systemer og samtidig gøre disse systemer sværere at udfordre, fordi teknologien får dem til at fremstå mere rationelle, mere effektive og mere objektive.
Det er dér, AI bevæger sig fra at være allieret til at blive en mere stille magtform. Ikke nødvendigvis gennem åben undertrykkelse. Men gennem autoritet. Gennem den måde, teknologiske systemer let bliver læst som neutrale, selv når de er bygget på skæve antagelser. Gennem deres evne til at få én bestemt måde at se verden på til at ligne almindelig sund fornuft. Når det sker, bliver brugeren ikke bare hjulpet. Brugeren bliver også formet.
Hvad gør en teknologi til en reel allieret?
Hvis man tager både løftet og faren alvorligt, peger der sig én forskel ud igen og igen. Teknologi bliver en reel allieret, når den ikke starter med sin egen løsning, men med andres virkelighed.
Morten Hauge Larsen peger på noget afgørende, når han siger: “Jeg tror helt sikkert, at der er noget metodeudvikling i det her, som godt kan skaleres.” Det lyder måske beskedent, men det er faktisk et vigtigt modtræk til den koloniale logik. For alternativet til teknologi som eksport af normer er ikke bare bedre etik. Det er en anden praksis. En anden rækkefølge. En anden måde at definere problemer på.
Katrine Bach peger samtidig på audits, tværfaglige teams, transparens og løbende evaluering som nødvendige modtræk mod teknologiens indbyggede skævheder. Og hun advarer mod at se AI som et rent teknisk projekt, fordi netop det blik gør det lettere at miste muligheden for diversitet og kritik.
Det er ikke romantiske løsninger. Det er governance, metode og magtdeling. Men det er netop derfor, de betyder noget.
Allieret eller kolonist
Kunstig intelligens bliver ikke automatisk det ene eller det andet. Den kan være et redskab til empowerment, som når sprogteknologi, oplæsning eller strukturværktøjer faktisk gør det lettere at læse, arbejde og deltage. Men den kan også være en teknologi, der forenkler sociale problemer, eksporterer snævre normer og samler kontrol over data, modeller og standarder hos få.
Det afgørende spørgsmål er derfor ikke kun, hvad AI kan. Det er, hvem den virker på vegne af. Hvis teknologien skal være en allieret, må den udvikles tættere på dem, der lever med problemerne, og længere væk fra forestillingen om, at verden kan reddes med et smart system alene. Hvis ikke, vil den — selv i sin mest hjælpsomme form — altid bære risikoen for at ligne noget andet: en teknologi, der kommer med løsningen, men tager retten til at definere problemet med sig.
Medlem
80 kr./måned
Bliv medlem på PatreonStøt AI-Portalens uafhængige journalistik om AI, magt og samfund.
Inkluderet i medlemskabet:
- Månedligt nyhedsbrev
- Invitationer til online og fysiske events om AI
- Adgang til optagelser og opsamlinger fra møder og foredrag
- Rabat på events
- Invitation til månedligt online redaktionsmøde
Medlemskab administreres via Patreon.
Vi laver journalistik om AI, fordi udviklingen går hurtigere end den offentlige samtale.
På AI Portalen forsøger vi at skabe overblik, perspektiv og kritisk indsigt i en teknologi, der allerede former alt fra arbejdsmarkedet til demokratiet — ofte uden at nogen bremser op og forklarer, hvad der foregår.
Hvis vores artikler hjælper dig med at forstå AI lidt bedre, så overvej at støtte arbejdet.
Et medlemskab gør én ting mulig: at vi kan blive ved med at undersøge, dokumentere og forklare, hvordan AI påvirker Danmark — uden investorer, uden PR-interesser og uden at jage hype.
Bliv medlem og vær med til at styrke uafhængig journalistik om AI.
Follow Me