AI-tjenester i praksis: 12 kategorier, der giver mening for virksomheder

AI-tjenester i praksis: 12 kategorier, der giver mening for virksomheder
De fleste organisationer starter med “en stor model” (typisk ChatGPT eller Microsoft Copilot) og opdager hurtigt, at den rigtige gevinst ofte ligger i specialiserede tjenester: værktøjer, der passer til en konkret arbejdsgang, kan dokumentere deres output, og kan sættes i drift uden at sprænge compliance-rammen. Samtidig vokser værktøjsjunglen eksplosivt, og derfor er et kurateret overblik mere værd end endnu en “top-100-liste”. [1] (AIxploria)
Nedenfor er 12 kategorier, der typisk giver mening i virksomheder – med fokus på hvornår de giver mening:
- Skriv & redigering (bl.a. mails, politikker, udbud, intranet)
- Kode & udvikling (fra “hjælp i IDE’en” til egentlige kode-agenter)
- Salg/CRM (bl.a. opkaldsnoter, pipeline-tekster, tilbud)
- Kundeservice (bl.a. chat/voice, svarforslag, kvalitetstjek)
- Analyse (bl.a. ad hoc-indsigter, dataforklaring, “forklar rapporten”)
- Præsentation (bl.a. slides, opsummeringer, struktur og talepunkter)
- Video (bl.a. videogenerering, klip, undertekster, repurposing)
- Billeder & design (bl.a. kampagner, mockups, variationer)
- Viden-QA (RAG) – “spørg vores dokumenter” med kilder og sporbarhed [2] (arXiv)
- Møder (bl.a. referater, beslutninger, opgaver)
- Sikkerhed/guardrails (bl.a. politik, filtrering, datatab, logging)
- Evaluering (bl.a. tests af kvalitet, bias, sikkerhed og driftssikkerhed)
Kode-kategorien – og hvorfor “vibe-coding” er på alles læber
I 2025–26 er kodeværktøjer gået fra “autocomplete” til agentiske workflows, hvor du beskriver en opgave i naturligt sprog, og værktøjet planlægger, ændrer flere filer, kører tests og foreslår et diff. Det er dét, mange omtaler som “vibe-coding”: hurtig prototyping ved at “styre med intention” frem for at skrive alt selv. [3] (The Guardian)
Konkrete, moderne eksempler:
- GitHub Copilot Workspace: task → plan → kode → test, med tydelige trin og mulighed for review undervejs. [4] (The GitHub Blog)
- Cursor: “Composer” + “Agent Mode” til multi-file ændringer og orkestrering i editoren. [5] (learn-cursor.com)
- Windsurf: “Cascade” som agent med code/chat-modes, tool-calling og checkpoints. [6] (docs.windsurf.com)
- Claude Code: terminalbaseret agentic coding, hvor best practices handler om struktur, kontekst og styring af agentens frihedsgrader. [7] (Anthropic)
Men: “vibe” skal kobles til “verify”. I en stor survey blandt enterprise-udviklere siger 72% af dem, der har prøvet AI, at de bruger det dagligt – samtidig siger 96%, at de ikke stoler fuldt på output, og kun 48% verificerer altid før commit. [8] (sonarsource.com)
Og forskningen er nu mere nuanceret end de tidlige hype-tal: Et MIT-baseret felt-eksperiment finder ca. 26% flere løste opgaver pr. uge ved brug af Copilot i nogle organisationssettings, [9] mens METR i et RCT på erfarne open-source maintainere finder, at AI-værktøjer i deres setting gjorde udviklere 19% langsommere. [10] (metr.org) Pointen til ledere: mål effekten i jeres kontekst – og design review, test og sikkerhed som en del af flowet.
Kriterier, når du vælger værktøj
Spørg især efter: compliance & dataveje, kildehenvisninger/traceability, dataejerskab og træning, export/API, og om værktøjet kan fungere i jeres identitets- og logningssetup.
Tre mini-cases (meget kort)
- Privat: Udviklingsteam bruger Copilot/agentisk IDE til scaffolding + testgenerering, men kræver obligatorisk code review, SAST og dependency-scanning før merge.
- Offentlig: Fagsystem-nær “viden-QA” (RAG) på interne vejledninger, hvor svar altid leveres med kilder og tydelig markering af usikkerhed.
- SMV: Marketing + salg kombinerer skriveværktøj, billedværktøj og CRM-assistent – men kun efter at have afklaret, hvor data lagres, og hvordan output kan eksporteres.
Tjekliste: “prøv-før-du-køber”
- Vælg én proces og én succeskriterie (tid, kvalitet eller risiko).
- Test med rigtige data – men i en sikker ramme (anonymisering, adgang, logs).
- Kræv sporbarhed: hvad bygger svaret på, og kan det auditeres?
- Mål før/efter: cycle time, fejlrate, omkostning pr. opgave.
- Beslut “go/no-go” og standarder: hvornår må AI skrive, og hvornår må den kun foreslå?
Kilder
[1] AIxploria – “Ultimate list / directory of AI tools” (opdateres løbende). (AIxploria)
[2] “A Comprehensive Survey of Retrieval-Augmented Generation (RAG)” (arXiv, 2024). (arXiv)
[3] The Guardian: om “vibe coding” og behovet for ekspertise (16. marts 2025). (The Guardian)
[4] GitHub: “Copilot Workspace” (29. april 2024). (The GitHub Blog)
[5] Cursor docs: Composer + Agent modes (Cursor dokumentation). (learn-cursor.com)
[6] Windsurf docs: Cascade/agent-funktioner (Windsurf dokumentation). (docs.windsurf.com)
[7] Anthropic: “Claude Code – Best practices for agentic coding” (18. april 2025). (Anthropic)
[8] Sonar: “State of Code Developer Survey” (2025) – adoption vs. verificering. (sonarsource.com)
[9] MIT Economics (draft): Copilot-felteksperimenter og produktivitetsmål (PDF).
[10] METR: RCT på erfarne open-source maintainere (10. juli 2025). (metr.org)



Follow Me