“Det er ikke robotterne, der er problemet – det er tempoet”

Militær AI bliver ofte diskuteret som en fremtidsfare. Men ifølge Jeppe Teglskov Jacobsen er det allerede i gang – og den største risiko ligger ikke i autonome våben, men i den måde beslutninger bliver hurtigere, smallere og sværere at forklare.

Der findes en forestilling om, at militær kunstig intelligens først bliver farlig den dag, maskiner selv begynder at trykke på aftrækkeren. Men hvis man spørger Jeppe Teglskov Jacobsen, forfatter til rapporten “Militær AI – amerikanske erfaringer, danske muligheder”, er det en bekvem, men misvisende fortælling. Til dagligt er han informationschef (Chief of Information) og strategisk rådgiver i Nationalt Forsvarsteknologisk Center (NFC).  Han er ph.d. og har blandt andet arbejdet med sikkerheds- og forsvarspolitiske spørgsmål, herunder militær teknologi og kunstig intelligens. 

Våbensystemerne er ligesom kransekagen,” siger han. “Det er den sidste del. Det, der er svært – og kontroversielt – ligger ofte før.

Det er i den midterste del af kæden, han mener, vi skal kigge: beslutningsstøtten. De systemer, der sorterer enorme datamængder, prioriterer mål, og reducerer komplekse situationer til overskuelige anbefalinger. Ikke fordi de “beslutter” noget i juridisk forstand, men fordi de former, hvad mennesker overhovedet ser – og hvor hurtigt de skal reagere.

Tre typer AI – og én stor gråzone

I rapporten deler Jacobsen militær AI op i tre kategorier. Først de relativt ukontroversielle systemer: administrative og logistiske værktøjer, der optimerer drift, vedligeholdelse og planlægning. Dernæst beslutningsstøtte, der hjælper mennesker med at analysere, sortere og prioritere information. Og til sidst våbensystemer, hvor graden af autonomi kan være høj.

Problemet,” siger han, “ligger i den midterste kategori. Den er lidt stor. Den kan gå fra at være ret ukontroversiel til at være sindssygt kontroversiel.

For netop her begynder AI at bevæge sig tæt på kamppladsen. Ikke som et våben, men som et filter. Et system, der peger på, hvilke hændelser der er vigtigst, hvilke objekter der er mest relevante, og hvilke beslutninger der haster mest.

Når det også bliver målidentifikation,” siger han, “og kommer tættere på kamppladsen, så tages beslutningerne bare en lille smule hurtigere.

Det er den hastighed, der bekymrer ham mest.

20 sekunder til at vurdere liv og død

I interviewet vender Jacobsen flere gange tilbage til tempo som den afgørende faktor. Ikke tempo som abstrakt militær nødvendighed, men som konkret vilkår for menneskelig dømmekraft.

Jeg hørte fra Israel,” fortæller han, “at du har 20 sekunder til at vurdere omfanget af sårede. Du har givet en officer 20 sekunder til at verificere noget, som er fuldstændig umuligt at verificere på 20 sekunder. Det er der, den er gal.

Pointen er ikke, om tallet er præcist. Pointen er mekanismen: Når systemer leverer anbefalinger i højt tempo, bliver menneskelig kontrol let reduceret til et godkendelsesritual. Ikke fordi operatøren er uansvarlig, men fordi proceduren er designet sådan.

Human-in-the-loop kan give mening i nogle sammenhænge,” siger Jacobsen og giver et eksempel med overvågningsdroner og billedgenkendelse. “Hvis systemet siger, ‘her er noget, du bør kigge på’, og jeg har tid og information til at vurdere det – så giver det mening.

Men når AI-output bliver en forudsætning for at følge med tempoet, ændrer rollen sig. Så er spørgsmålet ikke længere, om der er et menneske i loopet, men om mennesket har reelle betingelser for at udøve dømmekraft.

Ansvar, der glider baglæns

Når noget går galt i et AI-understøttet beslutningsforløb, bliver ansvaret sjældent placeret ét sted. Ifølge Jacobsen bliver det i stedet “rykket lidt længere tilbage”.

Ansvaret bliver mere distribueret,” siger han. “Det bliver sværere at se, hvem der egentlig står på mål.

Operatøren kan sige, at systemet anbefalede noget. Kommandokæden kan sige, at proceduren blev fulgt. Leverandøren kan sige, at modellen fungerede inden for sine specifikationer. Og dataholdet kan sige, at modellen var testet på det grundlag, man havde.

Jeg kan ikke se, hvem der kommer i kachotten, når de her fejler,” siger Jacobsen tørt.

Det er ikke nødvendigvis et udtryk for ansvarsfralæggelse. Det er et strukturelt problem. Når beslutninger formes af komplekse systemkæder, bliver det sværere at pege på ét menneske og sige: Her blev beslutningen truffet.

Vi kan så godt lide, at der er én mand, vi kan sige var skurken,” siger han. “Men vi bliver nødt til at komme væk fra den tænkning.

Black box og 95 procent

Et af de steder, hvor ansvaret bliver særlig vanskeligt, er i forholdet mellem sandsynligheder og beslutninger. Mange AI-systemer arbejder med scoringslogikker: 85 procent sandsynlighed, 95 procent sandsynlighed.

Det er bare svært på AI,” siger Jacobsen, “fordi hvor er det de der 95 procent egentlig er blevet kalkuleret?

Tidligere kunne en jurist eller såkaldt “red card holder” sidde ved siden af beslutningstageren og vurdere argumenter og beviser. Nu bliver det ofte erstattet af et tal – og en tærskel.

Der står 95 procent,” siger Jacobsen. “Og så har du lavet et eller andet interval, hvor du siger: hvis det er over 85 procent, så trykker du.

Det er ikke nødvendigvis forkert. Men det ændrer karakteren af kontrollen. For selv hvis der formelt er et menneske, der godkender, bliver det sværere at forklare, hvorfor beslutningen blev truffet.

Man vil gerne have noget explainability,” siger han. “Det er utroligt svært – især på neural networks.

Danmark som “third mover”

I rapporten sammenligner Jacobsen amerikanske erfaringer med danske muligheder. Og her er han relativt nøgtern.

Danmark kommer fra en third mover,” siger han. “Vi skal købe commercial off the shelf. Vi har ingen erfaring med at udvikle noget som helst.

Det betyder, at Danmark i høj grad køber færdige løsninger – ofte fra store internationale leverandører – og integrerer dem i eksisterende systemer. Problemet er, at AI ikke er et statisk produkt.

Man ved jo ikke, hvad man køber,” siger Jacobsen. “Hver gang man bruger det og tester det på noget nyt data, så bliver det et andet produkt.

Alligevel bliver AI ofte solgt, som om det var plug-and-play.

Der kommer en eller anden frisk sælger med et flot slips og siger: køb den her dims, den er bare plug and play,” siger han. “Sådan fungerer de her systemer bare ikke.

Hvis Danmark vil undgå at gentage amerikanske fejl, peger Jacobsen på én ting frem for alt: processer.

Kontrol er et verificeringsregime

Hvis du vil have mere kamppraft,” siger han, “så skal du have et ordentligt verificeringsregime på tværs af udviklingen.

Det handler ikke kun om etik eller principerklæringer, men om test, evaluering, verificering og validering – før, under og efter systemer tages i brug.

Når du laver et ordentligt test-, evaluerings-, verificerings- og valideringsregime,” siger han, “så kan man gøre det med lidt mere ro i maven.

Her ser han en klar politisk opgave.

Det politiske ansvar ligger i, at man tager en beslutning om, at det er det her, man vil – og at man vil gøre det ordentligt,” siger han. Og tilføjer uden omsvøb: “Jeg kræver af politikerne, at de tager ansvar her.

For alternativet er ikke at lade være.

Man kan have den indgangsvinkel, at hvis vi ikke kan finde ud af det, så må vi bare lade være,” siger han. “Men det er bare ikke en praktisk løsning. It’s for real. It’s here.

Ikke robotter – men rammer

For Jacobsen er militær AI ikke primært et spørgsmål om onde maskiner eller løbske algoritmer. Det er et spørgsmål om rammer, tempo og efterprøvning.

Problemet opstår ikke, når en maskine tager over. Problemet opstår, når mennesker presses til at handle hurtigere, smallere og med ringere mulighed for at forklare deres beslutninger bagefter.

Det er dér, siger han, at demokratisk kontrol risikerer at blive et slogan. Og det er dér, den virkelige kamp om militær AI allerede er i gang.

Seneste nummer

Køb bogen før din nabo!

Bliv medlem

Vi er i gang med at bygge Danmarks første medlemsdrevne medie om AI. Det handler ikke om at få mere indhold. Det handler om at få bedre viden.

Vil du være med? Klik her – og vælg selv, hvordan du vil støtte:

Meld dig til her.

Follow Me