januar 31, 2026

AI-Basics, del 4

AI-tjenester i praksis: 12 kategorier, der giver mening for virksomheder

Foto: Googledeepmind på Unsplash

AI-tjenester i praksis: 12 kategorier, der giver mening for virksomheder

De fleste organisationer starter med “en stor model” (typisk ChatGPT eller Microsoft Copilot) og opdager hurtigt, at den rigtige gevinst ofte ligger i specialiserede tjenester: værktøjer, der passer til en konkret arbejdsgang, kan dokumentere deres output, og kan sættes i drift uden at sprænge compliance-rammen. Samtidig vokser værktøjsjunglen eksplosivt, og derfor er et kurateret overblik mere værd end endnu en “top-100-liste”. [1] (AIxploria)

Nedenfor er 12 kategorier, der typisk giver mening i virksomheder – med fokus på hvornår de giver mening:

  1. Skriv & redigering (bl.a. mails, politikker, udbud, intranet)
  2. Kode & udvikling (fra “hjælp i IDE’en” til egentlige kode-agenter)
  3. Salg/CRM (bl.a. opkaldsnoter, pipeline-tekster, tilbud)
  4. Kundeservice (bl.a. chat/voice, svarforslag, kvalitetstjek)
  5. Analyse (bl.a. ad hoc-indsigter, dataforklaring, “forklar rapporten”)
  6. Præsentation (bl.a. slides, opsummeringer, struktur og talepunkter)
  7. Video (bl.a. videogenerering, klip, undertekster, repurposing)
  8. Billeder & design (bl.a. kampagner, mockups, variationer)
  9. Viden-QA (RAG) – “spørg vores dokumenter” med kilder og sporbarhed [2] (arXiv)
  10. Møder (bl.a. referater, beslutninger, opgaver)
  11. Sikkerhed/guardrails (bl.a. politik, filtrering, datatab, logging)
  12. Evaluering (bl.a. tests af kvalitet, bias, sikkerhed og driftssikkerhed)

Kode-kategorien – og hvorfor “vibe-coding” er på alles læber

I 2025–26 er kodeværktøjer gået fra “autocomplete” til agentiske workflows, hvor du beskriver en opgave i naturligt sprog, og værktøjet planlægger, ændrer flere filer, kører tests og foreslår et diff. Det er dét, mange omtaler som “vibe-coding”: hurtig prototyping ved at “styre med intention” frem for at skrive alt selv. [3] (The Guardian)

Konkrete, moderne eksempler:

  • GitHub Copilot Workspace: task → plan → kode → test, med tydelige trin og mulighed for review undervejs. [4] (The GitHub Blog)
  • Cursor: “Composer” + “Agent Mode” til multi-file ændringer og orkestrering i editoren. [5] (learn-cursor.com)
  • Windsurf: “Cascade” som agent med code/chat-modes, tool-calling og checkpoints. [6] (docs.windsurf.com)
  • Claude Code: terminalbaseret agentic coding, hvor best practices handler om struktur, kontekst og styring af agentens frihedsgrader. [7] (Anthropic)

Men: “vibe” skal kobles til “verify”. I en stor survey blandt enterprise-udviklere siger 72% af dem, der har prøvet AI, at de bruger det dagligt – samtidig siger 96%, at de ikke stoler fuldt på output, og kun 48% verificerer altid før commit. [8] (sonarsource.com)
Og forskningen er nu mere nuanceret end de tidlige hype-tal: Et MIT-baseret felt-eksperiment finder ca. 26% flere løste opgaver pr. uge ved brug af Copilot i nogle organisationssettings, [9] mens METR i et RCT på erfarne open-source maintainere finder, at AI-værktøjer i deres setting gjorde udviklere 19% langsommere. [10] (metr.org) Pointen til ledere: mål effekten i jeres kontekst – og design review, test og sikkerhed som en del af flowet.

Kriterier, når du vælger værktøj

Spørg især efter: compliance & datavejekildehenvisninger/traceabilitydataejerskab og træningexport/API, og om værktøjet kan fungere i jeres identitets- og logningssetup.

Tre mini-cases (meget kort)

  • Privat: Udviklingsteam bruger Copilot/agentisk IDE til scaffolding + testgenerering, men kræver obligatorisk code review, SAST og dependency-scanning før merge.
  • Offentlig: Fagsystem-nær “viden-QA” (RAG) på interne vejledninger, hvor svar altid leveres med kilder og tydelig markering af usikkerhed.
  • SMV: Marketing + salg kombinerer skriveværktøj, billedværktøj og CRM-assistent – men kun efter at have afklaret, hvor data lagres, og hvordan output kan eksporteres.

Tjekliste: “prøv-før-du-køber”

  1. Vælg én proces og én succeskriterie (tid, kvalitet eller risiko).
  2. Test med rigtige data – men i en sikker ramme (anonymisering, adgang, logs).
  3. Kræv sporbarhed: hvad bygger svaret på, og kan det auditeres?
  4. Mål før/efter: cycle time, fejlrate, omkostning pr. opgave.
  5. Beslut “go/no-go” og standarder: hvornår må AI skrive, og hvornår må den kun foreslå?

Kilder
[1] AIxploria – “Ultimate list / directory of AI tools” (opdateres løbende). (AIxploria)
[2] “A Comprehensive Survey of Retrieval-Augmented Generation (RAG)” (arXiv, 2024). (arXiv)
[3] The Guardian: om “vibe coding” og behovet for ekspertise (16. marts 2025). (The Guardian)
[4] GitHub: “Copilot Workspace” (29. april 2024). (The GitHub Blog)
[5] Cursor docs: Composer + Agent modes (Cursor dokumentation). (learn-cursor.com)
[6] Windsurf docs: Cascade/agent-funktioner (Windsurf dokumentation). (docs.windsurf.com)
[7] Anthropic: “Claude Code – Best practices for agentic coding” (18. april 2025). (Anthropic)
[8] Sonar: “State of Code Developer Survey” (2025) – adoption vs. verificering. (sonarsource.com)
[9] MIT Economics (draft): Copilot-felteksperimenter og produktivitetsmål (PDF).
[10] METR: RCT på erfarne open-source maintainere (10. juli 2025). (metr.org)

Seneste nummer

Køb bogen før din nabo!

Bliv medlem

Vi er i gang med at bygge Danmarks første medlemsdrevne medie om AI. Det handler ikke om at få mere indhold. Det handler om at få bedre viden.

Vil du være med? Klik her – og vælg selv, hvordan du vil støtte:

Meld dig til her.

Follow Me