marts 5, 2026

Når tænkning har en pris – Tvillinge matrixen

Vi taler ofte om prisen på at bruge en LLM, men diskussionen ender næsten altid samme sted:

Hvad koster en token, når den rammer modellen og giver os et svar?” Men det er kun den synlige pris. Der findes også en indirekte omkostning for brugeren – betalt før prompten overhovedet når ned til modellen.

Dit spørgsmål bliver vurderet, klassificeret, beskåret, omskrevet og tildelt et token- og

reasoning-budget, inden inferencen starter. Ikke for sandhed. Ikke for klarhed. Men for at styre, hvor dyr din tænkning er for virksomheden bag. Omkostningen måles i, hvordan dit spørgsmål skæres til, så det koster færre tokens. Komplekse spørgsmål er dyre. Nuancer er dyre. Systemisk tænkning er dyr.

Så systemet lærer – stille og effektivt – brugerne at komprimere deres tænkning. Kortere. Renere.

Mindre krævende. Hvis det var et oplyst designvalg, kunne man som bruger tage sine forbehold. Men som skjult mekanisme bliver dit oprindelige spørgsmål gjort til en handelsvare. Optimeret ikke for forståelse, men for infrastruktur, marginer og i sidste ende aktiekurs.

Det er ikke censur. Det er økonomi, der former erkendelse. Hårde budgetberegninger. Og det er muligvis det farligste lag i hele LLM-stakken. To spørgsmål. Samme emne. Forskelligt resultat.

Vi behøver ikke kende kildekoden for at forstå et system. Med Excel kender vi heller ikke koden – men vi ved, hvad der sker, når vi ændrer noget. Gør vi A, sker B. Det samme kan iagttages med LLM’er.

Eksempel A – det “billige” spørgsmål:

“Forklar kort, hvorfor sociale medier påvirker demokratiet.”

Resultatet er typisk:

– et kort, pænt svar

– balanceret tone

– generelle pointer

– ingen historik

– ingen tydelige magt- eller incitamentsstrukturer

Det giver mening. Men der er intet at være uenig med. Intet der for alvor udfordrer noget.

Eksempel B – det “dyre” spørgsmål:

“Analyser hvordan forretningsmodeller, opmærksomhedsøkonomi og algoritmisk rangering på

sociale medier påvirker demokratisk beslutningstagning over tid. Inddrag historiske paralleller og

modargumenter.”

Her ændrer billedet sig:

– svaret bliver længere

– mere forsigtigt

– ofte mere komprimeret end forventet

– nogle gange overraskende fladt i forhold til spørgsmålets kompleksitet

Emnet er det samme. Intentionen er den samme. Det eneste, der reelt har ændret sig, er kravet til tænkning – og dermed prisen i tokens. Jo dyrere spørgsmålet er, desto mere træder budget, gating og UI-pres ind. Problemet er ikke hemmeligheder – men skjulte sammenhænge

Selv blandt superbrugere vil jeg gætte på, at denne mekanisme er ukendt. Og isoleret set kan man måske spørge, hvor vigtig den egentlig er. Men set sammen med alle de andre ukendte greb i en LLM, bliver konsekvensen tydelig: Vi er i høj grad prisgivet til at stole på, at systemet vil os det bedste.

Med Excel kender vi heller ikke koden. Men vi forstår, hvad der sker mellem kolonne A og celle B2.

Vi ved, hvilke handlinger der giver hvilke resultater. Der er ingen illusion om magi. Ingen skjult logik. 

I LLM’er er det anderledes. Ikke fordi informationen nødvendigvis er hemmelig, men fordi sammenhængene er dybt – meget dybt – begravet i den måde, systemet overhovedet fungerer på. De skjuler som sådan ikke noget for os. Men de gør det heller ikke muligt at opdage det, medmindre man allerede ved, hvad man skal lede efter.

Tvillinge-matrixen

Token cost forstås normalt som det, der bliver brugt. Men for brugeren består den reelle omkostning af mere end det. Den består også af de tokens, du ikke fik lov til at bruge. Den tænkning, der blev afkortet. De perspektiver, der aldrig blev udfoldet. De erkendelser, der kunne være opstået, men ikke fik plads.

I den forstand består den virkelige pris af to størrelser, der opstår samtidigt:

– det, du fik

– og det, du blev afskåret fra

Det usynlige tab er ikke sekundært. Det er strukturelt forbundet med det synlige output. Man kan beskrive dette som en matrix. På den ene akse: spørgsmålets kompleksitet. På den anden: det tildelte token- og reasoning-budget. Jo større afstanden er mellem de to, desto større er erkendelsestabet.

Ikke fordi svaret er forkert. Men fordi tænkningen aldrig fik lov at blive fuldført.

Det er Tvillinge-matrixen: Enhver optimering producerer et output og et tab samtidigt.

Problemet opstår først, når tabet ikke erkendes, måles eller tages ansvar for. The one bias to rule them all? Måske. Men uden tvivl langt vigtigere, end vi taler om. I det omfang vi overhovedet ved, at det sker.

Vil du følge AI Portalen tættere?

Tilmeld dig nyhedsbrevet og få nye artikler, temaer og redaktionelle opdateringer.

Tilmeld nyhedsbrev

Medlem

80 kr./måned

Bliv medlem på Patreon

Støt AI-Portalens uafhængige journalistik om AI, magt og samfund.

Inkluderet i medlemskabet:

  • Månedligt nyhedsbrev
  • Invitationer til online og fysiske events om AI
  • Adgang til optagelser og opsamlinger fra møder og foredrag
  • Rabat på events
  • Invitation til månedligt online redaktionsmøde

Medlemskab administreres via Patreon.

Vi laver journalistik om AI, fordi udviklingen går hurtigere end den offentlige samtale.

På AI Portalen forsøger vi at skabe overblik, perspektiv og kritisk indsigt i en teknologi, der allerede former alt fra arbejdsmarkedet til demokratiet — ofte uden at nogen bremser op og forklarer, hvad der foregår.

Hvis vores artikler hjælper dig med at forstå AI lidt bedre, så overvej at støtte arbejdet.

Et medlemskab gør én ting mulig: at vi kan blive ved med at undersøge, dokumentere og forklare, hvordan AI påvirker Danmark — uden investorer, uden PR-interesser og uden at jage hype.

Bliv medlem og vær med til at styrke uafhængig journalistik om AI.

Læs også:

Seneste nummer

Bliv medlem

Bliv medlem

Støt uafhængig journalistik om AI, magt og samfund.

Bliv medlem på Patreon

Køb bogen før din nabo!

Follow Me