november 1, 2025

AI-Basics, del 1

Hvad er “moderne AI”? Transformere, klassikere og hvorfor det hele eksploderede

Skrevet af Kåre Bjørn Jensen assisteret af AI

Når folk taler om “AI” i dag, mener de som regel generativ AI: systemer, der kan skrive, kode, opsummere, analysere, planlægge og endda lave billeder, lyd og video. Under motorhjelmen ligger oftest transformer-arkitekturen – en opfindelse fra 2017, der har ændret spillet. Men for at forstå hvorfor, er det nyttigt at se AI i et kort historisk fugleperspektiv.

 

Fra skakcomputere til sprogmodeller

I 1997 slog IBMs Deep Blue verdensmesteren Garry Kasparov. Præstationen var imponerende, men den byggede på massiv regnekraft og håndkodede heuristikker: klassisk, symbolsk AI. I 2011 vandt IBMs Watson quizzen Jeopardy! – et tidligt gennembrud for statistisk sprogforståelse og informationssøgning. I 2016 vandt DeepMind’s AlphaGo 4-1 mod Lee Sedol; et ikonisk gennembrud for dyb læring kombineret med søgning og ”reinforced learning”.

 

AlexNet og GPU’er: da kurven knækkede

Det moderne dybe lærings-boom tog fart i 2012, da AlexNet vandt ImageNet med et konvolutionsnet trænet på NVIDIA-GPU’er – væsentligt hurtigere end CPU’er. Kort efter viste NVIDIA, at 12 GPU’er kunne matche ca. 2.000 CPU’er i dyb læring – en vigtig årsag til, at AI pludselig blev praktisk i stor skala. Siden har NVIDIA domineret acceleratormarkedet og lanceret komplette AI-systemer som DGX-serien og senest Blackwell-generationen.

 

Hvorfor transformeren vandt

I 2017 kom papiret “Attention Is All You Need”. Pointen: skrot de tidskrævende ”recurrent networks” og lad opmærksomhed (“attention”) forbinde alle tokens med alle andre i parallel. Resultat: bedre kvalitet og meget hurtigere træning. Det er derfor transformere nu driver alt fra maskinoversættelse til store sprogmodeller.

 

Fra forskningsidé til hverdagsværktøj

  • ChatGPT gjorde generativ AI udbredt globalt; allerede i januar 2023 anslog UBS/Similarweb ~100 mio. månedlige brugere – historiens hurtigst voksende forbrugerapp. I 2024 oplyste OpenAI, at ChatGPT havde 200 mio. ugentlige brugere.
  • Microsoft Copilot bringer modellerne direkte ind i Office-arbejdet og “grounder” svarene i din virksomheds data via Microsoft Graph – så output bliver mere relevant og kontrollerbart.
  • GitHub Copilot er undersøgt i kontrollerede forsøg; udviklere løste en opgave 55,8% hurtigere med Copilot end uden.

 

Transformer vs. andre AI-tilgange

  • Symbolsk AI (regler/logik) er forklarlig og stærk til tydeligt formulerede regler – men svag til åben, uklar viden. Deep Blue-æraen.
  • Klassisk ML (beslutningstræer, SVM osv.) er datadrevet men kræver ofte feature-engineering; stærk til tabulære problemer.
  • Dyb læring før transformere (CNN/RNN) var super til billeder og tale, men tung til tekst over lange sekvenser.
  • Transformere er generalister: ét arkitekturprincip, mange modaliteter (tekst, billede, lyd). Skalerer godt med data, modelstørrelse og især acceleratorer.

 

Hvor står vi nu?

“Moderne AI” er en kombination af:

  1. store transformer-modeller
  2. enorme datamængder
  3. accelereret regnekraft (GPU’er/AI-chips), og 
  4. software-økosystemer, der gør det nemt at integrere modeller i arbejde og produkter (fx Copilot).

 

Hvad bør erhvervsfolk fokusere på?

  • Tænk i use cases, ikke bare i modelnavne.
  • Forretningsværdi kommer, når modeller forankres i jeres egne data og processer. (Mere i del 2).

Skriv et svar

Your email address will not be published.

Seneste nummer

Køb bogen før din nabo!

Bliv medlem

Vi er i gang med at bygge Danmarks første medlemsdrevne medie om AI. Det handler ikke om at få mere indhold. Det handler om at få bedre viden.

Vil du være med? Klik her – og vælg selv, hvordan du vil støtte:

Meld dig til her.

Follow Me

Don't Miss

Månedens Singularitet

Forestil dig, hvis du kan, et politisk parti drevet og