Hvad er “moderne AI”? Transformere, klassikere og hvorfor det hele eksploderede

Skrevet af Kåre Bjørn Jensen assisteret af AI
Når folk taler om “AI” i dag, mener de som regel generativ AI: systemer, der kan skrive, kode, opsummere, analysere, planlægge og endda lave billeder, lyd og video. Under motorhjelmen ligger oftest transformer-arkitekturen – en opfindelse fra 2017, der har ændret spillet. Men for at forstå hvorfor, er det nyttigt at se AI i et kort historisk fugleperspektiv.
Fra skakcomputere til sprogmodeller
I 1997 slog IBMs Deep Blue verdensmesteren Garry Kasparov. Præstationen var imponerende, men den byggede på massiv regnekraft og håndkodede heuristikker: klassisk, symbolsk AI. I 2011 vandt IBMs Watson quizzen Jeopardy! – et tidligt gennembrud for statistisk sprogforståelse og informationssøgning. I 2016 vandt DeepMind’s AlphaGo 4-1 mod Lee Sedol; et ikonisk gennembrud for dyb læring kombineret med søgning og ”reinforced learning”.
AlexNet og GPU’er: da kurven knækkede
Det moderne dybe lærings-boom tog fart i 2012, da AlexNet vandt ImageNet med et konvolutionsnet trænet på NVIDIA-GPU’er – væsentligt hurtigere end CPU’er. Kort efter viste NVIDIA, at 12 GPU’er kunne matche ca. 2.000 CPU’er i dyb læring – en vigtig årsag til, at AI pludselig blev praktisk i stor skala. Siden har NVIDIA domineret acceleratormarkedet og lanceret komplette AI-systemer som DGX-serien og senest Blackwell-generationen.
Hvorfor transformeren vandt
I 2017 kom papiret “Attention Is All You Need”. Pointen: skrot de tidskrævende ”recurrent networks” og lad opmærksomhed (“attention”) forbinde alle tokens med alle andre i parallel. Resultat: bedre kvalitet og meget hurtigere træning. Det er derfor transformere nu driver alt fra maskinoversættelse til store sprogmodeller.
Fra forskningsidé til hverdagsværktøj
- ChatGPT gjorde generativ AI udbredt globalt; allerede i januar 2023 anslog UBS/Similarweb ~100 mio. månedlige brugere – historiens hurtigst voksende forbrugerapp. I 2024 oplyste OpenAI, at ChatGPT havde 200 mio. ugentlige brugere.
- Microsoft Copilot bringer modellerne direkte ind i Office-arbejdet og “grounder” svarene i din virksomheds data via Microsoft Graph – så output bliver mere relevant og kontrollerbart.
- GitHub Copilot er undersøgt i kontrollerede forsøg; udviklere løste en opgave 55,8% hurtigere med Copilot end uden.
Transformer vs. andre AI-tilgange
- Symbolsk AI (regler/logik) er forklarlig og stærk til tydeligt formulerede regler – men svag til åben, uklar viden. Deep Blue-æraen.
- Klassisk ML (beslutningstræer, SVM osv.) er datadrevet men kræver ofte feature-engineering; stærk til tabulære problemer.
- Dyb læring før transformere (CNN/RNN) var super til billeder og tale, men tung til tekst over lange sekvenser.
- Transformere er generalister: ét arkitekturprincip, mange modaliteter (tekst, billede, lyd). Skalerer godt med data, modelstørrelse og især acceleratorer.
Hvor står vi nu?
“Moderne AI” er en kombination af:
- store transformer-modeller
- enorme datamængder
- accelereret regnekraft (GPU’er/AI-chips), og
- software-økosystemer, der gør det nemt at integrere modeller i arbejde og produkter (fx Copilot).
Hvad bør erhvervsfolk fokusere på?
- Tænk i use cases, ikke bare i modelnavne.
- Forretningsværdi kommer, når modeller forankres i jeres egne data og processer. (Mere i del 2).
