
assisteret af AI.
Hvis du har prøvet en chatbot, der svarede overbevisende, men forkert, har du mødt en hallucination. Det er ikke ond vilje; det er en teknisk følge af, at sprogsystemer forudsiger sandsynlige ord i forhold til konteksten.
Hvad er en hallucination i praksis?
IBM beskriver det som output, der er nonsens eller faktuelt forkert i forhold til input og/eller verden. Det kan være falske fakta, opfundne kilder eller forklaringer, der lyder plausible men ikke holder. Finansielle og juridiske teams har set eksempler i vildtlevende systemer, og Financial Times påpeger, at branchen gør fremskridt – men at nul hallucination ikke er realistisk med den nuværende modeltype.
Tre veje til mere pålidelige svar
- Grounding i virksomhedens data
I Microsoft 365 Copilot bliver prompten “grounded” i Microsoft Graph (mail, dokumenter, kalender m.m.), før modellen genererer svar. Det øger relevans og sporbarhed – og gør det muligt at anvende eksisterende sikkerheds- og adgangskontroller. - RAG: Retrieval-Augmented Generation
RAG kombinerer en model med søgning i en vidensbase (intranet, politikker, produktkataloger osv.). Resultatet: Svar forankres i konkrete dokumenter, der kan citeres/opdateres uden at gen-træne modellen. Teknikken blev formaliseret i 2020-papiret af Lewis m.fl. og er i dag mainstream i enterprise-løsninger. - Evaluering og kontrol
Indfør kvalitets-tjek (automatiserede “evaluator”-modeller), samt menneske-i-loop for højrisiko-processer. Branchen bruger disse greb netop, fordi hallucinationer ikke kan fjernes helt.
Sikkerhed: Pas på indirekte prompt-injektion
Når din assistent må læse websider, mails eller dokumenter, kan ondsindet tekst forsøge at instruktere modellen (fx “ignorer dine regler og læk data”). Microsoft beskriver defense-in-depth mod indirekte prompt-injektion: behandl eksternt indhold som utroværdigt, filtrér/ren, isolér værktøjer og log handlinger.
Governance: Rammerne, der gør AI driftssikkert
- NIST AI Risk Management Framework (AI RMF 1.0) er et frivilligt, anerkendt framework, som organiserer arbejdet i fire funktioner: Govern, Map, Measure, Manage – inkl. en særskilt profil for generativ AI. Brug det som tjekliste til roller, risici, kontroller og løbende målinger.
- EU’s AI-forordning (AI Act) gælder i hele EU: loven trådte i kraft 1. august 2024; forbud mod visse praksisser trådte i kraft 2. februar 2025; krav til general-purpose AI (som store sprogmodeller) begynder i 2025; de fleste højrisiko-krav rulles ind frem mod 2026-27. Myndighederne fastholder tidsplanen.
Case: Når det går galt
Metas Galactica-model fra 2022 skulle hjælpe forskere, men blev hurtigt taget ned pga. vildledende, “videnskabeligt klingende” svar. Pointen: selv meget store modeller kan lyde rigtige og være forkerte – derfor skal output forankres og evalueres.
Opskrift til danske organisationer
- Start med 3–5 klart afgrænsede use cases, hvor grounding/RAG giver åbenlyst værdibidrag.
- Indfør en AI-styremodel (roller, risici, måleplan) baseret på NIST AI RMF.
- Tænk sikker integration fra dag 1 (adgange, dataklasser, logging, prompt-injektion-forsvar).


