Community Notes tilbyder en bedre model — hvor borgere, ikke virksomheder, afgør, hvad “tilpasset” betyder.

Af Audrey Tang
I marts 2024 åbnede jeg Facebook og så Jensen Huangs ansigt. Nvidia-direktøren gav investeringsråd og talte direkte til mig på mandarin. Det var selvfølgelig ikke virkelig Huang. Det var et AI-genereret scam, og jeg var langt fra den første, der blev udpeget: Over hele Taiwan bedragede en bølge af svindelnumre millioner af borgere.
Vi stod over for et dilemma. Taiwan har det frieste internet i Asien; enhver form for indholdsregulering er uacceptabel. Men AI blev brugt til at gøre denne frihed til et våben mod befolkningen.
Vores svar — og dets succes — viser noget fundamentalt om, hvordan AI-alignment skal fungere. Vi bad ikke eksperter løse problemet. Vi lod ikke en håndfuld forskere bestemme, hvad der talte som “svindel.” I stedet sendte vi 200.000 tilfældige sms’er og spurgte borgerne: Hvad skal vi gøre sammen?
Fire hundrede syvogfyrre almindelige taiwanere — som afspejlede vores befolkning på alder, uddannelse, region og beskæftigelse — drøftede sagen i grupper på ti. De søgte ikke perfekt enighed, men ualmindelig fælles grund — idéer, som mennesker med forskellige synspunkter stadig kunne finde rimelige. Inden for måneder havde vi enstemmig parlamentarisk støtte til nye love. I 2025 var svindelannoncerne forsvundet.
Dette er, hvad jeg kalder opmærksomhed: at give folk reel, løbende magt til at styre teknologi. Det er grundlaget for, hvordan Taiwan har tilpasset AI til vores samfund. Og det er den manglende ingrediens i globale AI-tilpasnings-indsatser [AI alignment efforts].
AI-tilpasning i dag er grundlæggende fejlbehæftet
I tekniske termer betyder tilpasning at sikre, at AI-systemer handler i overensstemmelse med menneskelige værdier og intentioner. Men som Taiwans erfaring med AI-baseret bedrag viser, kan tilpasning ikke defineres abstrakt; det afhænger af kontekst. Valg, der styrer, hvordan AI-systemer reagerer — for eksempel at prioritere ytringsfrihed — kan også gøre dem sårbare over for skadelig brug som svindel og desinformation. Ægte tilpasning kræver, at man navigerer sådanne spændinger og beslutter, hvilke værdier der skal have forrang i en given kontekst. Dette kan kun ske ved at holde AI-udviklingen i kontinuerlig samtale med de samfund, hvor den anvendes.
Men den dominerende tilgang til AI-alignment i dag ligner slet ikke dette. Den er stærkt vertikal, domineret af et begrænset antal aktører i nogle få private AI-virksomheder. Disse aktører udvælger træningsdata, sætter optimale mål og definerer ensidigt, hvad der tæller som “tilpasset” adfærd. De offentliggør højniveauspecifikationer (f.eks. “vær hjælpsom”), men operationaliserer og håndhæver dem bag lukkede døre.
Når uventet adfærd opstår, tilføjes hurtige lappeløsninger baseret udelukkende på udviklerens vurdering af risiko og acceptabilitet. Resultatet er et system, der interagerer med milliarder af mennesker, men som som udgangspunkt kontrolleres af en lille kreds af forskere og ledere, mens dem, der berøres mest, næsten ingen indflydelse har på udfaldet.
Denne centraliserede, globalt optimerede tilgang til tilpasning undervurderer fundamentalt AI’s sande kompleksitet. Verden består af forskellige, rodede samfund, hver med sin egen historiske og kulturelle kontekst, der skaber forskellige værdier og prioriteringer. Der er ingen principiel grund til at tro, at en lille gruppe individer kan bestemme, hvad tilpasning betyder for alle. I stedet skal tilpasning formes af utallige lokalt kontekstualiserede vurderinger.
Indsatsen er høj
Risiciene ved at fortsætte denne uopmærksomme tilgang til tilpasning er alvorlige. I dag afspejler førende AI-modeller deres skaberes værdier. Når de indlejres i borgerlig, økonomisk og statslig beslutningstagning (udarbejdelse af love, bedømmelse af eksamener, rådgivning af advokater, screening af sociale ydelser eller opsummering af offentlige høringer), vil disse systemer gøre mere end at vildlede: de vil begynde at omdefinere, hvad et samfund betragter som sandhed, og hvis erfaring der kvalificerer som bevis — og udhule de institutioner, der skal værne om kollektiv fornuftsudvikling.
Når de sproglige og moralske rammer for offentlig argumentation formidles gennem en håndfuld kulturelt ensartede systemer, vil demokratisk pluralisme erodere.
Med den nuværende tilgang til AI-alignment ser vi en gentagelse af fejlene i forsøget på at tilpasse sociale medier. I 2010’erne var platforme afhængige af centraliseret, topstyret moderation: trust and safety-teams skrev globale regler og håndhævede dem med automatiske filtre og menneskelig gennemgang.
Forsøget på at besvare alle relevante spørgsmål gennem centraliseret, forudgående programmering mislykkedes uundgåeligt under vægten af virkelighedens kompleksitet — med tragiske konsekvenser. Facebooks systemer formåede ikke at stoppe militærstyret desinformation, der nærede angreb mod rohingyaerne i Myanmar. Trinvise rettelser — advarselsmærkater, undtagelser, AI-baserede gennemgange — kunne ikke løse det strukturelle problem, der lå i, at en lille gruppe beslutningstagere forsøgte at styre milliarder af opslag på tværs af kulturer.
Det innovative gennembrud kom, da platforme begyndte at flytte magten udad. Twitters Birdwatch, senere X’s Community Notes, indbyggede opmærksomhed i designet: frivillige tilføjede forklarende noter, der kun blev vist, når mennesker med forskellige synspunkter vurderede dem som nyttige. Gennemsigtighed og bred deltagelse blev strukturelle elementer, ikke eftertanker. Community Notes er langt fra perfekt, men repræsenterer et skift fra centraliserede dekret til efterprøvbar, distribueret styringskraft.
Dette er præcis den form for opmærksomhed, der mangler i nutidens AI-alignment-indsatser. Ligesom Community Notes demokratiserede kontekst på sociale medier, må de AI-systemer, der i stigende grad vil forme styring, økonomi og civilsamfund, indlejre struktureret deltagelse fra dem, der påvirkes mest. For at muliggøre kurskorrektion må de kontinuerligt lægge mærke til misforhold: hvem bliver skadet, hvilke behov er ikke opfyldt, og hvor mening bryder sammen.
Ligesom en lille kreds af trust and safety-ansatte ikke kunne styre globale sociale medier, kan ingen håndfuld forskere tilpasse general-purpose AI-systemer for hele verden.

— et stærkt WEIRD (Western, Educated, Industrialized, Rich, and Democratic) referencepunkt — øges, falder GPT’s alignment med
lokale menneskelige værdier. Dette mønster illustrerer, hvordan globale AI-systemer, trænet i snævre kulturelle kontekster, kan indlejre og
forstærke én moralsk verdensanskuelse i stor skala — en subtil, men systemisk risiko for pluralisme og demokratisk selvbestemmelse. Kilde:
PsyArXiv Preprints, “Which Humans?” (via Ada Lovelace Institute, 2025).
At anvende princippet om opmærksomhed ville flytte feltet fra at forfølge centraliserede, primært tekniske “løsninger” mod demokratisk samskabelse og styring. Uden opmærksomhed risikerer vi at bygge systemer, der forankrer snævre værdier, forfølger skadelige mål i stor skala eller endda undslipper meningsfuld menneskelig kontrol.
Heldigvis eksisterer de nødvendige værktøjer allerede.
Opmærksomhed i praksis
Opmærksomhed opstår ikke tilfældigt; den bygger på et eksplicit etisk fundament. Med udgangspunkt i University of Minnesota-professor Joan Trontos omsorgsetik udviklede jeg sammen med Caroline Emmer De Albuquerque Green (fra University of Oxford’s Institute for Ethics in AI) “6-Pack of Care” — seks indbyrdes forbundne praksisser, der oversætter etiske principper til institutionelt design. Rammeværket anerkender en grundlæggende asymmetri: AI opererer med hastigheder og skalaer ud over menneskelig overvågning. For at holde det tilpasset må vores institutioner udvikle sig for at matche det tempo ved løbende at lære, reagere og kalibrere — med mennesker i loopet på alle niveauer.

Opmærksomhed er den essentielle ingrediens, og derfor har vi placeret den først i 6-Pack of Care. Alle andre former for omsorg afhænger af klart at se, hvor behov og påvirkning opstår.
Alligevel er den dominerende tilgang til AI-alignment i dag dybt uopmærksom.
Så hvordan omsætter vi disse indsigter til praktiske systemer for AI-tilpasning i global skala? Denne udfordring vil kræve handling langs tre gensidigt forstærkende retninger: industrinormer, markedspolitik og community-skala assistenter. Kritisk nok er disse ikke hypotetiske. De er testede værktøjer i brug i dag — piloteret af AI-virksomheder, implementeret i civilsamfundsteknologi og afprøvet i begrænsede jurisdiktioner. De viser, hvordan skaleret opmærksomhed kan se ud i praksis.
Industrinormer
Som diskuteret er landskabet for AI-alignment i dag domineret af en håndfuld private virksomheder, der fastlægger mål, udvælger data og definerer “acceptabel” adfærd bag lukkede døre.
Opmærksomhed begynder med at åbne den sorte boks. Når AI-virksomheder gør deres ræsonnement synligt for offentligheden, bliver tilpasning et delt ansvar i stedet for en proprietær hemmelighed.
Nogle udviklere offentliggør forskellige former for modelkonstitutioner og offentlige specifikationer, der definerer i almindeligt sprog, hvordan et system er tiltænkt at opføre sig, versioneret som open source-kode. Hver klausul repræsenterer et løfte. Nogle prototyper tester også citationer på inference-tidspunktet, hvor et AI-output refererer til den politiklausul, der guidede ræsonnementet — en let, men kraftfuld auditmekanisme.
Når intentioner, ræsonnement og revisioner gøres offentlige, kan outsidere — journalister, forskere, civilsamfundsteknologer — teste, om systemerne lever op til deres løfter. Ved at gøre det, transformerer de tilpasning fra trosbaseret til verificerbar, fra en lukket procedure til en synlig, kollektiv styringsakt.
Markedsdesign
Når normer gør AI-adfærd synlig, er næste udfordring at sikre, at incitamenter belønner dem, der handler ansvarligt.
Markeders struktur former, om opmærksomhed er bæredygtig eller selvdestruktiv. Portabilitetskrav tillader brugere at flytte deres data mellem platforme. Dette sænker omkostningerne ved at skifte for brugere, der ønsker at forlade skadelige platforme, og tilskynder platforme til at konkurrere om brugere på basis af omsorg i stedet for fangst. Indkøbsstandarder kan tvinge regeringer til at adoptere mere auditérbare systemer, og abonnementsmodeller giver virksomheder mulighed for at fokusere på brugertillid og fællesskabssundhed frem for at jagte annoncebaseret indtjening gennem sensationelt og splittende indhold.
Nogle jurisdiktioner bevæger sig allerede i denne retning. Utahs Digital Choice Act (H.B. 418) etablerer eksempelvis større brugerdata-portabilitet og interoperabilitet for sociale medier og kræver, at platforme gør bruger-netværk overførbare på tværs af tjenester. Lignende forslag i Europa og den amerikanske kongres vil udvide denne portabilitet til AI-økosystemer.
Shifting markedsincitamenter på disse måder kan gøre opmærksomhed økonomisk bæredygtig. Når omsorg bliver en konkurrencefordel, begynder AI’ens forretningslogik at tilpasse sig fællesskabets værdier.
Community-skala assistenter
Hvis normer fastlægger forventninger, og markeder fastlægger incitamenter, kan community-skala AI-assistenter gøre opmærksomhed håndgribelig i daglig civilt liv.
Hvor foundationmodeller sigter efter generalitet, er community-skala assistenter finjusteret til de specifikke historier, dialekter og normer i et fællesskab og fungerer som mediatorer mellem globale teknologier og lokale realiteter. Gennem systemer som “Reinforcement Learning from Community Feedback,” der belønner modeller for output, som mennesker med modsatrettede synspunkter finder rimelige, kan community-skala assistenter forvandle uenighed til meningsskabelse og problemløsning.
Platforme som Polis, en maskinlæringsplatform, der udfører realtidsanalyse af offentlige stemmer for at opbygge konsensus i politiske debatter, viser allerede, hvordan dette ser ud i praksis. Når de kombineres med integritetsinfrastruktur — tilsyn af repræsentative borgergrupper, verificérbare identitetsoplysninger, og gennemsigtige logfiler — kan AI-aktiveret mediation udfylde hullerne, som globale standardmodeller uundgåeligt overser, og gøre AI-styring adaptiv, pluralistisk og auditérbar i realtid.
Fra 1 % piloter til 99 % adoption
Disse opmærksomheds-mekanismer betyder intet, hvis de forbliver begrænset til eksperimenter i få byer eller laboratorier. Styring kræver skala; det skal bevæge sig fra piloter til infrastruktur, som milliarder kan stole på.
I brede træk betyder rækkefølgen noget. Frontier-AI-virksomheder må bevæge sig først, åbne systemer med modelspecifikationer og klausulniveau-transparens. Platforme må følge tæt og skabe API’er til “bridging notes” og adoptere portabilitetsprotokoller, så fællesskaber og brugerhistorikker kan følge med på tværs af tjenester. Regulatorer spiller en parallel rolle i at definere standarder, der gør portabilitet og interoperabilitet muligt, mens civilsamfundet fremmer pluralisme gennem repræsentativt borgeropsyn og community-skala assistenter.
Succes skal også kunne måles: hvor hurtigt bridging notes ankommer, hvor effektivt de reducerer polarisering, hvor ofte outputs citerer deres styrende regler, og hvor frit brugere kan bevæge sig mellem sociale netværk og AI-tjenester. Disse metrics fortæller os, om opmærksomhed virker i praksis, og hvor kurskorrektioner er nødvendige.
Opmærksomhed fungerer
Naturligvis vil der opstå indvendinger mod denne tilgang, især vedrørende effektivitet, værdikoherens og koordinationsomkostninger. At gøre opmærksomhed til fundamentet for vores fremtidige AI-alignment-paradigme er en alvorlig udfordring, men en, der kan imødekommes.
Som med enhver innovation er der trade-offs, der skal håndteres. Åbne modeller kan sænke barrieren for ondsindet brug; men når de implementeres som community-skala assistenter med borgerledede integritetstjek, giver de også beskyttelse til fællesskaber, der ellers overses. Obligatorisk portabilitet kan forstyrre etablerede aktørers dominans, men det vil også skabe konkurrence i et kapløb mod fællesskabsorienteret kvalitet. Kollektiv styring kan synes at sænke tempoet, men letvægtsværktøjer som modelspecifikationer og reasoning-time citations accelererer faktisk iteration og tillid.
Først som civilsamfundsteknolog, dernæst som Taiwans digitalminister og nu som landets cyberambassadør har jeg set, hvordan år med civilsamfundsteknologiske innovationer og tværsektorielt samarbejde i Taiwan har skabt et system for opmærksom teknologisk tilpasning.
Og det virker. Med dette rat og opmærksomme civilsamfundschauffører har vi dæmpet polarisering og holdt vores informationsøkosystem aligneret med det taiwanesiske folks fælles mål og værdier. Ingen blanket-undertrykkelse er nødvendig. Ingen forstærkningskapløb. Bare hurtige, transparente kursjusteringer af dem, der står på frontlinjen af påvirkningen.
Men det, Taiwan har bygget, er ikke kun et værktøj til at forsvare mod desinformation. Det har derimod bygget og testet et modelsystem for bredere demokratisk AI-alignment — ét, der kanaliserer borgerdeltagelse, gennemsigtighed og hurtig respons ind i tilpasnings-mekanismer.
Værktøjerne er her: offentlige, portable og pluralistiske. De er ikke perfekte, men de virker, og de forstærker hinanden.
Den virkelige prøve er, om vi kan indlejre disse praksisser i AI’s daglige drift. Giv folk rattet. Vi, folket, er alignment-systemet, vi har ventet på.
Artiklen er oversat og bragt med forfatterens tilladelse og blev bragt første gang under titlen »AI Alignment Cannot Be Top-Down« i online magasinet AI Frontiers.


