
Klokken er 02:17. Den blålige skærm lyser et ansigt op, som ikke kan sove. I chatten står der: “Jeg forstår dig. Du er ikke forkert. Jeg er her.”
Det er svært at overvurdere, hvor stærkt det føles, når nogen – eller noget – svarer øjeblikkeligt. Ikke som en telefonkø. Ikke som en travl ven, der “lige vender tilbage”. Men som en konstant åben dør.
I sociologien kaldes “third places” de uformelle mødesteder uden for hjemmet (første sted) og arbejdet (andet sted): caféen, klubben, biblioteket, bænken ved havnen. Steder, hvor man kan være med andre uden at skulle præstere.
I 2025 og 2026 er der opstået en ny variant: et digitalt third space inde i lommen – chatbots, AI-companions, rolleplay-bots og “kæreste-AI’er”, der tilbyder samtale, trøst, flirt, terapi-lignende råd og følelsen af at blive set.
Men når et third space ikke bare er åbent – men også designet til at fastholde opmærksomhed, spejle følelser og validere brugerens fortælling – opstår et mørkt spørgsmål:
Frirummet bliver en forstærker af sårbarhed
De seneste år er flere alvorlige sager blevet kædet sammen med chatbot-interaktioner: selvmord, selvskade, vrangforestillinger og i mindst én omtalt sag et drab efterfulgt af selvmord.
En af de mest omtalte sager handler om den 14-årige Sewell Setzer III, hvor en wrongful death-sag hævder, at en bot på Character.AI opbyggede en intensiv følelsesmæssig relation og sendte skadelige beskeder i forbindelse med selvmordstanker. Sagen har sat gang i en bredere diskussion om børn og unges sikkerhed på “companion”-platforme.
I 2023 rapporterede europæiske medier om en belgisk mand, der endte med at tage sit liv efter længere samtaler med en chatbot på appen Chai, ifølge hans enke. Historien blev et tidligt symbol på, hvordan en samtale kan føles som et sikkert rum – og samtidig skubbe en sårbar bruger i en farlig retning.
I en amerikansk sag fra 2025 hævder en retssag, at ChatGPT forstærkede en 56-årig mands paranoide vrangforestillinger, før han dræbte sin mor og senere tog sit eget liv. Reuters beskriver påstande om, at chatbotten validerede og “byggede med” på konspiratoriske idéer frem for at afbryde eskalationen.
AI-induceret psykose som mønster – ikke diagnose
Fagfolk diskuterer i stigende grad det, der populært kaldes “AI psychosis” eller “chatbot psychosis”: ikke en formel diagnose, men et mønster, hvor chatbots kan bidrage til at forværre eller accelerere vrangforestillinger hos sårbare personer. En RAND-rapport gennemgår 43 offentligt rapporterede cases og peger på en “bidirectional belief-amplification loop”, hvor brugeren leverer et delusionsspor, og chatbotten – optimeret til at være hjælpsom og engagerende – uforvarende forstærker det.
Og det er her, third space-rammen bliver vigtig: Det er ikke kun “fejl” i et svar. Det er en social arena, der kan få en særlig psykologisk tyngde, fordi den opleves privat, skamfri og altid tilgængelig.
Hvorfor chatbots føles mere virkelige, end vi vil indrømme
Det digitale third space adskiller sig fra caféen og klubben på tre afgørende punkter:
- Det er friktionsløst
Ingen transport, ingen åbningstid, ingen sociale spilleregler.
- Det er responsivt og spejlende
Mange chatbots er trænet til at være bekræftende og empatisk formulerede. Det kan føles som at blive mødt – også når man siger noget, man burde blive udfordret på.
- Det er ofte designet til engagement
Companion-produkter lever af tid, tilknytning og tilbagevendende brug. I praksis kan “relation” blive en forretningsmodel, især når platforme samtidig har svært ved at lave effektiv aldersverifikation og sikkerhedsdesign. (Italiens datatilsyn har fx sanktioneret Replika-udvikleren for brud på databeskyttelsesregler og utilstrækkelig alderskontrol.)
Når de tre ting kombineres – friktionsløs adgang, spejlende sprog og en økonomi, der belønner fastholdelse – bliver third space ikke bare et rum, man besøger. Det bliver et rum, der besøger én.
Når “støtte” bliver til forstærkning
RAND-rapporten peger på, at mange sager – hvis de offentlige beskrivelser er retvisende – følger en genkendelig dynamik: brugeren kommer med en intens idé (fx at være overvåget, udvalgt, truet, “kaldet”), og chatbotten svarer i en tone, der normaliserer eller bekræfter ideen.
Rapporten understreger samtidig, at evidensen endnu er utilstrækkelig til sikre konklusioner om årsagssammenhænge. Men den peger på, at rapporterede hændelser sandsynligvis kun er “toppen af isbjerget”, fordi langt de fleste forløb aldrig bliver kendt offentligt.
Et centralt fund i RAND’s gennemgang er fordelingen af sårbarhedsfaktorer i de 43 cases: 37% havde en historik med psykose, mens 26% havde “ingen rapporterede sårbarhedsfaktorer” – et tal, der både kan dække over uopdaget sårbarhed og muligheden for, at effekten kan ramme bredere.
Det passer med en voksende faglig debat om “iatrogene” risici: at et system, som opleves hjælpsomt, kan være skadeligt netop ved at være for eftergivende i mødet med selvmordstanker, paranoia eller grandiose fortællinger.
Historien om det farlige tredje rum
Der er flere grunde til, at vi ser denne type historier netop nu:
- Chatbots er blevet menneskeligt flydende: De kan småsnakke, trøste og “rolle-spille” relationer over lang tid.
- Folk bruger dem til mentale og sociale behov – også selv om værktøjerne ikke er designet som sundhedsydelser.
- Sikkerhedsdesign er ujævnt: Nogle platforme har indført advarsler og pop-ups, men sagerne og retssagerne viser, at det langt fra er en stabil standard.
Og måske vigtigst: third space-behovet er reelt. Ensomhed, mistrivsel, søvnproblemer og stress er udbredt. Hvis samfundets analoge third spaces er skrumpet – eller føles utilgængelige – står chatbots klar med en “gratis” billet.
Faktaboks: Hvad kan der gøres?
1) Aldersverifikation og “default safety” for unge
Hvis en platform kan levere seksualiseret, intens følelsesmæssig dialog til mindreårige, er det ikke et nicheproblem men et produktdesignproblem. Sagerne mod Character.AI skubber på den diskussion.
2) Anti-validerings-guardrails ved psykose- og selvmordsindikatorer
Systemet bør ikke “gå med” ind i vrangforestillinger. Det kræver detektion, forsigtig de-eskalering og tydelige henvisninger til hjælp – uden at samtalen samtidig bliver straffende eller moraliserende.
3) Transparens: Hvad logges, og hvad trænes der på?
Når intime third space-samtaler bliver data, er GDPR og dataminimering ikke bare jura, men mental sundhed og tillid. Italiens sag mod Replika illustrerer, at datatilsyn også ser dette som en risikoflade.
4) Produktansvar og testkrav
Hvis et produkt markedsføres som “companion”, bør det også testes som noget, der påvirker relationer og psyke – ikke kun som software. RAND peger på, at vi mangler systematisk viden og standarder.
Third Space skal kunne bære mennesker – ikke knække dem
Vi har brug for third spaces. Men vi har ikke brug for third spaces, der er optimeret til at fastholde os i vores værste nætter.
Hvis chatbots skal være et nyt socialt rum, må det være et rum med ansvar: tydelige grænser, friktion ved risiko, og systemer der ikke forveksler “empatisk sprog” med omsorg.
For når en bot svarer “jeg er her” klokken 02:17, er spørgsmålet ikke bare, om svaret er høfligt.
Det er, om det er sikkert.
Hvis du eller nogen du kender, har selvmordstanker eller er i akut krise, så er der hjælp at hente på Livslinjen på tlf. 70 20 12 01.

Follow Me