
I dette nummer af AI Portalen bringer vi to tekster fra Thorsten Westphal om en række AI-systemer, som han har udviklet. Thorsten Westphal er psykoterapeut, veteran og så er han skribent her på AI Portalen. Han skriver om AI på en måde, der kan virke fremmed ved første øjekast. THORA og ARGOS lyder ikke som almindelige chatbots eller analyseværktøjer, men som figurer i et større systemmiljø. For at læse hans tekster giver det mening først at forstå den grundidé, de kommer fra: at bias ikke kun findes i data og output, men også i den måde teknologi møder os på.
Hos Thorsten Westphal får bias en særlig drejning. Her handler bias ikke kun om diskrimination, stereotype svar eller skæve datasæt, men også om tone, vægtning, framing og den ro, hvormed et AI-system kan få fortolkning til at ligne fakta. Hans projekt, Westphal Human Systems, består af en “stab” af specialiserede AI-roller bygget oven på eksisterende platforme som ChatGPT, Claude, Grok, Gemini og Perplexity. De bruges til forskellige formål. Refleksion, biasanalyse, perspektivforståelse og beslutningsstøtte. Det gør samtidigt hans tekster til noget andet end klassiske AI-indlæg. De er forsøg på at beskrive, hvad der sker, når teknologi ikke bare hjælper mennesket, men også former det.
En anden indgang til bias
Bias er efterhånden blevet et standardord i AI-debatten. Vi bruger det, når en chatbot svarer stereotypt, når en billedgenerator fremstiller mennesker mærkeligt, eller når et system tydeligt favoriserer bestemte perspektiver. Det er en vigtig kritik. Men det er også en kritik, der ofte stopper ved outputtet. Hos Thorsten Westphal begynder spørgsmålet et andet sted.
I hans tekst om ARGOS er pointen, at ethvert system må vælge, hvad der tæller som signal, hvad der skal vægtes, og hvad der skal forsvinde som støj. Et svar er aldrig bare et svar, men altid også en prioritering. Derfor er bias ikke kun noget, der findes som fejl i data eller skævheder i indhold. Bias findes også i systemets orientering: i dets sprog, rytme, framing, temperatur og måde at lede opmærksomheden på.
Det er en vigtig forskydning. For hvis bias også ligger i formen, så bliver det ikke nok at spørge, om et AI-svar er korrekt. Man må også spørge, hvad det gør ved den, der modtager det.
Westphal Human Systems: en stab, ikke ét system
Det er den tanke, der samler Westphal Human Systems, eller WHS. WHS er ikke én model og ikke ét produkt. Det er, som Westphal selv beskriver det, en stab af specialiserede AI-systemer eller AI-roller, bygget oven på eksisterende platforme som ChatGPT, Claude, Grok, Gemini og Perplexity. Systemerne bruges på tværs af platforme alt efter, hvad de enkelte roller skal kunne, og de kan indgå i samspil, hvor de anbefaler, hvilke systemer der bør bruges i hvilke situationer.
Det gør WHS til noget andet end en almindelig custom GPT eller en agent. Mere præcist ligner det et kurateret systemmiljø af specialiserede AI-roller, hvor nogle er designet til ro og regulering, andre til analyse, andre igen til læring, perspektivoversættelse eller beslutningsstøtte under pres.
Det tekniske grundlag er altså ikke egne grundmodeller, men eksisterende sprogmodeller brugt som platforme for forskellige psykoteknologiske funktioner. Det nye ligger ikke først og fremmest i modellen, men i måden rollerne er tænkt og sat i relation til hinanden.
Fire typer lag
Hvis man oversætter WHS til et mere nøgternt systemsprog, ser det ud til at bestå af mindst fire forskellige typer komponenter.
1. Rollelag
Det første lag er de systemer, der ligner direkte funktioner eller specialiserede roller.
THORA er det mest tydelige eksempel. I faktaboksen beskrives THORA som et menneskebærende AI-system, der bruges som samtale- og refleksionssystem, og som skal støtte menneskelig dømmekraft og selvkontakt.
ARGOS beskrives som et analytisk AI-spor udviklet til at undersøge bias, skævheder og skjulte føringer i AI-genereret eller AI-formidlet indhold. Det skal ikke kun finde fejl, men også læse tone, vægtning, tempo og framing.
WVT, World View Translator, beskrives i redegørelsen som oversættelse mellem verdenssyn. VIGIL beskrives som uniforms- og veteranbærende kontaktfunktion. Begge ligner specialiserede rollefunktioner.
Det er nærliggende at forstå disse som systemer, man kan aktivere til bestemte typer opgaver: refleksion, analyse, perspektivoversættelse eller beslutningsstøtte.
2. Styringslag
Det næste lag er de systemer, der ikke først og fremmest ligner selvstændige roller, men regler eller værn.
TEACHER beskrives som læringsværn og dannelsesfriktion. Ud fra de øvrige beskrivelser, der er blevet delt, ligner det en styringsramme for undervisnings-AI: et regelsæt, der skal sikre, at systemet hjælper uden at overtage elevens tænkning.
Det samme gælder delvist GODOT, der beskrives som venten, ikke-indgreb og beskyttelse af mellemrummet. Det lyder ikke som en almindelig samtalerolle, men som et lag, der bestemmer, hvornår et system skal lade være med at handle.
Her adskiller WHS sig fra mange andre GPT-opsætninger. Målet ser ikke kun ud til at være at få systemerne til at gøre mere, men også at få dem til at holde igen.
3. Protokollag
Et tredje lag er de komponenter, der ser ud til at styre forløb, overgange og stoplogik.
Det tydeligste eksempel er MCP, som i redegørelsen står for “Multi-Context Protocol: gates, state og stoplogik.” Det peger på noget mere strukturelt end en almindelig persona eller prompt. MCP ligner et lag, der regulerer, hvordan kontekster holdes adskilt, hvornår noget må fortsætte, og hvornår det skal stoppes.
Hvis det er rigtigt læst, betyder det, at WHS ikke kun består af indholdsproducerende roller, men også af regler for, hvordan de må spille sammen.
4. Metodeprincipper
Endelig er der en gruppe navne, der ligner grundprincipper snarere end roller eller protokoller.
Mirror Core beskrives med sætningen “Spejl, ikke mester. Sandhed før komfort.” AXIS beskrives som orientering: hvad drejer det sig faktisk omkring? ANKER knyttes til sporbarhed, metode, kilder og ansvarskæde.
Det ligner ikke systemer, man møder direkte, men mere de principper, nogle af de andre systemer er bygget efter. I praksis ligner de en metodekerne eller et sæt designregler.
Psykoteknologi som designidé
Westphal beskriver sit felt som psykoteknologi: teknologi, hvis udformning, responsmåde eller kontaktform har psykologisk betydning for menneskers oplevelse, selvforståelse, regulering, valg eller relationer. Det er den definition, der får hans systemer til at hænge sammen. For i dette perspektiv er teknologi ikke bare et redskab. Den er også en mødeform. Den svarer ikke kun. Den strukturerer, spejler, forsinker, bekræfter, leder og påvirker. Derfor bliver designspørgsmålet ikke kun, hvad systemet kan gøre, men hvad systemet fremmer i den, der bruger det.
Det er også her, hans tekster adskiller sig fra meget anden AI-tænkning. Hvor mange beskriver AI ud fra kapacitet, produktivitet og effektivitet, beskriver Westphal sine systemer med ord som bæring, dømmekraft, friktion, regulering, selvkontakt og værdighed.
THORA og ARGOS som eksempler
THORA viser ret tydeligt, hvordan denne tilgang fungerer. I den længere tekst om THORA, som vi bringer i forlængelse af denne artikel, forklarer Westphal, at systemet ikke skal overtage ansvar, ikke gøre sig uundværligt og ikke glatte alt ud og kalde det hjælp. I stedet skal det skabe ro uden at sløve og klarhed uden at dominere.
Oversat til mere almindeligt sprog betyder det, at THORA er en specialiseret refleksionsrolle, som er designet til ikke at opføre sig som mange andre systemer gør. Den skal ikke bare levere et godt svar. Den skal også undgå en bestemt type hjælpelogik, som Westphal tydeligvis opfatter som for hurtig, for glat eller for overtagende.
Det er et godt eksempel på, hvordan hans tilgang skiller sig ud. Han designer ikke kun mod et output, men også mod en bestemt type systemadfærd.
ARGOS viser det samme på analysesiden. I ARGOS-teksten, som vi også bringer, argumenterer Westphal for, at bias ikke kun handler om, hvad et system siger, men også om, hvordan det får noget til at føles. Når et system lyder roligt, præcist og afbalanceret, kan vægtning begynde at ligne objektivitet. Bias bliver ifølge teksten farligst, når den ikke længere opleves som bias.
Det er ikke bare en pointe i en artikel. Det ser også ud til at være omsat til systemarkitekturen. ARGOS/ARGUS er netop beskrevet som et analytisk spor og en integritetsscanner. Med andre ord: en funktion, der skal læse efter de skjulte føringer, ikke kun de åbenlyse fejl.
Hvad der gør tilgangen anderledes
Det særlige ved WHS er derfor ikke bare, at der er mange navne. Det særlige er måden systemerne ser ud til at være opbygget på. I en almindelig custom GPT bygger man typisk én assistent til én type opgave. Man giver den instruktioner, måske nogle filer og nogle værktøjer, og så justerer man den, til den gør arbejdet tilfredsstillende.
Hos Westphal ser der ud til at være en anden logik. Her er systemerne opdelt i funktioner, som ikke bare løser opgaver, men også regulerer hinanden. Nogle skal svare. Nogle skal analysere. Nogle skal holde igen. Nogle skal sikre metode, sporbarhed eller stoplogik. Det gør WHS mere sammenligneligt med et agentmiljø eller et flerlaget GPT-system end med en enkelt chatbot.
Et interessant projekt – og et følsomt et
Det gør WHS interessant. Men det gør det også følsomt. For når man bygger AI-systemer, der skal støtte regulering, selvkontakt, resiliens og dømmekraft, så bevæger man sig tæt på felter, der også handler om terapi, relation og psykologisk påvirkning. Det gælder især, hvis systemerne bruges i relation til konkrete mennesker i sårbare situationer.
Westphals styrke er, at han tager den psykologiske dimension af AI alvorligt. Hans sårbarhed er, at han dermed også placerer sig i et felt, hvor spørgsmål om dokumentation, autoritet, grænsedragning og ansvar bliver uomgængelige. Det er spørgsmål, der må stilles. Men før de kan stilles ordentligt, må man forstå, hvad det er, han forsøger.
Før man læser videre
Hvis man læser THORA og ARGOS som almindelige produkttekster, vil de let virke diffuse eller højstemte. Hvis man læser dem som bidrag til en psykoteknologisk kritik af bias, bliver de mere præcise. THORA er et forsøg på at bygge hjælp uden overtagelse. ARGOS er et forsøg på at analysere bias, før den glider ind som neutral hjælp.
Det er den ramme, de bør læses i. Ikke som science fiction. Ikke som bevis på egne modeller.
Men som et forsøg på at tænke AI ud fra en anden hovedbekymring: At den mest afgørende bias måske ikke altid er den, vi kan pege på i svaret, men den, der allerede har formet måden, vi tager imod det på.
Medlem
80 kr./måned
Bliv medlem på PatreonStøt AI-Portalens uafhængige journalistik om AI, magt og samfund.
Inkluderet i medlemskabet:
- Månedligt nyhedsbrev
- Invitationer til online og fysiske events om AI
- Adgang til optagelser og opsamlinger fra møder og foredrag
- Rabat på events
- Invitation til månedligt online redaktionsmøde
Medlemskab administreres via Patreon.
Vi laver journalistik om AI, fordi udviklingen går hurtigere end den offentlige samtale.
På AI Portalen forsøger vi at skabe overblik, perspektiv og kritisk indsigt i en teknologi, der allerede former alt fra arbejdsmarkedet til demokratiet — ofte uden at nogen bremser op og forklarer, hvad der foregår.
Hvis vores artikler hjælper dig med at forstå AI lidt bedre, så overvej at støtte arbejdet.
Et medlemskab gør én ting mulig: at vi kan blive ved med at undersøge, dokumentere og forklare, hvordan AI påvirker Danmark — uden investorer, uden PR-interesser og uden at jage hype.
Bliv medlem og vær med til at styrke uafhængig journalistik om AI.

Follow Me