november 27, 2025

AI-Basics del 2: Hallucinationer, “grounding” og sikker brug i organisationer

Illustration: Google Gemini på Unsplash

assisteret af AI.

Hvis du har prøvet en chatbot, der svarede overbevisende, men forkert, har du mødt en hallucination. Det er ikke ond vilje; det er en teknisk følge af, at sprogsystemer forudsiger sandsynlige ord i forhold til konteksten.

Hvad er en hallucination i praksis?

IBM beskriver det som output, der er nonsens eller faktuelt forkert i forhold til input og/eller verden. Det kan være falske fakta, opfundne kilder eller forklaringer, der lyder plausible men ikke holder. Finansielle og juridiske teams har set eksempler i vildtlevende systemer, og Financial Times påpeger, at branchen gør fremskridt – men at nul hallucination ikke er realistisk med den nuværende modeltype.

Tre veje til mere pålidelige svar

  1. Grounding i virksomhedens data
    I Microsoft 365 Copilot bliver prompten “grounded” i Microsoft Graph (mail, dokumenter, kalender m.m.), før modellen genererer svar. Det øger relevans og sporbarhed – og gør det muligt at anvende eksisterende sikkerheds- og adgangskontroller.
  2. RAG: Retrieval-Augmented Generation
    RAG kombinerer en model med søgning i en vidensbase (intranet, politikker, produktkataloger osv.). Resultatet: Svar forankres i konkrete dokumenter, der kan citeres/opdateres uden at gen-træne modellen. Teknikken blev formaliseret i 2020-papiret af Lewis m.fl. og er i dag mainstream i enterprise-løsninger.
  3. Evaluering og kontrol
    Indfør kvalitets-tjek (automatiserede “evaluator”-modeller), samt menneske-i-loop for højrisiko-processer. Branchen bruger disse greb netop, fordi hallucinationer ikke kan fjernes helt.

Sikkerhed: Pas på indirekte prompt-injektion

Når din assistent må læse websider, mails eller dokumenter, kan ondsindet tekst forsøge at instruktere modellen (fx “ignorer dine regler og læk data”). Microsoft beskriver defense-in-depth mod indirekte prompt-injektion: behandl eksternt indhold som utroværdigt, filtrér/ren, isolér værktøjer og log handlinger.

Governance: Rammerne, der gør AI driftssikkert

  • NIST AI Risk Management Framework (AI RMF 1.0) er et frivilligt, anerkendt framework, som organiserer arbejdet i fire funktioner: Govern, Map, Measure, Manage – inkl. en særskilt profil for generativ AI. Brug det som tjekliste til roller, risici, kontroller og løbende målinger.
  • EU’s AI-forordning (AI Act) gælder i hele EU: loven trådte i kraft 1. august 2024; forbud mod visse praksisser trådte i kraft 2. februar 2025; krav til general-purpose AI (som store sprogmodeller) begynder i 2025; de fleste højrisiko-krav rulles ind frem mod 2026-27. Myndighederne fastholder tidsplanen.

Case: Når det går galt

Metas Galactica-model fra 2022 skulle hjælpe forskere, men blev hurtigt taget ned pga. vildledende, “videnskabeligt klingende” svar. Pointen: selv meget store modeller kan lyde rigtige og være forkerte – derfor skal output forankres og evalueres.

Opskrift til danske organisationer

  1. Start med 3–5 klart afgrænsede use cases, hvor grounding/RAG giver åbenlyst værdibidrag.
  2. Indfør en AI-styremodel (roller, risici, måleplan) baseret på NIST AI RMF.
  3. Tænk sikker integration fra dag 1 (adgange, dataklasser, logging, prompt-injektion-forsvar).

Skriv et svar

Your email address will not be published.

Seneste nummer

Køb bogen før din nabo!

Bliv medlem

Vi er i gang med at bygge Danmarks første medlemsdrevne medie om AI. Det handler ikke om at få mere indhold. Det handler om at få bedre viden.

Vil du være med? Klik her – og vælg selv, hvordan du vil støtte:

Meld dig til her.

Follow Me