Når beslutninger flytter sig – uden at ansvaret følger med

Foto: Iben Yde

Militær brug af kunstig intelligens bliver ofte diskuteret som et fremtidsscenarie: autonome våben, der en dag handler uden menneskelig indgriben. Men ifølge Iben Yde er det en afsporing. De største juridiske og etiske problemer opstår allerede i dag – ikke fordi mennesker er væk fra beslutningskæden, men fordi deres rolle er ved at ændre karakter.

Iben Yde er i dag ansat i rådgivningsvirksomheden Rethink Advisory, hvor hun rådgiver både Forsvaret og forsvarsindustrien om militære og geopolitiske problemstillinger. Hendes særlige fokus er ansvarlig brug af kunstig intelligens i militære systemer, hvor hun hjælper industrien med at sikre, at nye systemer lever op til folkerettens krav og udvikles på måder, der gør dem efterprøvelige og tillidsvækkende.

Hun har en baggrund fra både den akademiske verden og Forsvaret, har skrevet ph.d.-afhandling om autonome våbensystemer og har tidligere arbejdet som militærjuridisk rådgiver for Forsvaret. Senest har hun været chef for Center for Operativ Folkeret ved Forsvarsakademiet, hvor hun havde ansvar for uddannelse i folkeret og samtidig forskede i autonome våbensystemer og AI-baseret beslutningstagning.

Hun peger igen og igen på det samme grundproblem: forbindelsen mellem menneskelig dømmekraft og militær handling er blevet længere, mere teknisk og sværere at fastholde.

“Problemerne opstår, fordi der ikke i samme grad er et direkte link mellem en menneskelig operatør og den endelige handling, når man bruger AI som beslutningsstøtte.”

Det betyder ikke, at beslutninger træffes uden mennesker. Men det betyder, at beslutningen i praksis ofte er formet, før den formelt træffes.

“Det er det link, der bliver sværere, og det er det, der gør ansvarsplacering juridisk problematisk.”

Og netop derfor er det utilstrækkeligt blot at konstatere, at “der er et menneske i loopet”.

“Man kan godt have et menneske involveret, men hvis mennesket først kommer ind meget sent i processen, så er det i praksis systemet, der har formet beslutningen.”

Reglerne er ikke nye – men praksis er

Set fra et folkeretligt perspektiv er udgangspunktet ellers klart. Militær AI opererer ikke i et juridisk tomrum.

“De humanitære folkeretlige regler om angreb er teknologineutrale. De gælder, uanset hvilken teknologi man anvender.”

Det gælder de grundlæggende krav om distinktion, proportionalitet og forholdsregler. De gælder, uanset om beslutningsgrundlaget er indsamlet manuelt eller filtreret gennem algoritmer.

“Der er ikke et juridisk tomrum, bare fordi vi taler om AI. Reglerne er der allerede.”

Men netop fordi reglerne forudsætter menneskelig vurdering, opstår der et spændingsfelt.

“Det er ikke reglerne, der er nye. Det er måden, man forsøger at efterleve dem på, der bliver udfordret.”

Når tempoet stiger, og beslutninger forberedes gennem systemer, der sorterer og prioriterer information på forhånd, bliver der mindre plads til den vurdering, som reglerne forudsætter.

Våbenscreening som juridisk holdepunkt

I fraværet af specifikke internationale forbud mod autonome våbensystemer og AI-baserede beslutningssystemer er ét redskab derfor blevet centralt: våbenscreening efter Tillægsprotokol I, artikel 36.

“Fordi der ikke findes specifikke regler for autonome våbensystemer eller AI-baserede beslutningssystemer, bliver våbenscreening ekstremt vigtig som et safeguard mod ulovlige våben.”

Våbenscreeningen fungerer som statens egen kontrolmekanisme.

“Våbenscreening er i virkeligheden statens egen kontrolmekanisme, når der ikke findes internationale forbud.”

Men effektiviteten afhænger af, hvornår og hvordan vurderingen foretages.

“Ideelt set bør den folkeretlige vurdering ske, inden man overhovedet producerer systemet, for ellers risikerer man, at ulovlige systemer allerede er på markedet.”

Jo senere vurderingen foretages, jo mindre handlerum er der.

“Jo senere i processen man laver vurderingen, jo sværere bliver det også at ændre noget.”

Dermed bliver våbenscreening ikke kun et juridisk spørgsmål, men også et organisatorisk og politisk.

Designformål – ikke hypotetiske mareridt

Debatten om militær AI har en tendens til at kollapse i worst-case-scenarier. Men juridisk set er det ikke sådan, vurderinger foretages.

“Man skal vurdere systemet ud fra det designformål, det er udviklet til, og ikke ud fra alle tænkelige måder, det kan misbruges på.”

Ellers bliver arbejdet umuligt.

“Hvis man begynder at vurdere alle hypotetiske anvendelser, så kan man aldrig blive færdig.”

Og der vil næsten altid kunne konstrueres et ulovligt scenarie.

“Du vil næsten altid kunne finde en ulovlig anvendelse af et ellers lovligt system.”

Det afgørende spørgsmål er derfor, om systemets design og tilsigtede anvendelse gør det muligt at overholde folkerettens krav i praksis.

Når test bliver et åbent spørgsmål

Her bliver forskellen mellem klassiske våben og AI tydelig. Hvor et projektil kan testes fysisk, er AI-systemer langt sværere at evaluere på forhånd.

“Her har vi ikke en fysisk genstand, man kan måle og veje. Det er en måde at træffe beslutninger på, og hvordan måler man det?”

Yde bruger et billede, der tydeliggør forskellen:

“Det er meget nemmere at teste et projektil i en gelatineblok end at afgøre, om en algoritme er god nok til at genkende mål på en dynamisk kampplads.”

Test kan give indikationer, men ikke sikkerhed.

“Test kan give nogle indikationer, men de kan ikke give sikkerhed for, hvordan systemet vil opføre sig i alle situationer.”

Det betyder, at kontrol ikke kan være en engangsøvelse, men må være løbende.

Kontrol eller dømmekraft?

I internationale fora bruges begrebet meaningful human control som et samlende svar. Men Yde er skeptisk over for, om “kontrol” er det rigtige ord.

“Jeg er måske mere til begrebet dømmekraft end til kontrol.”

For kontrol kan let blive formel.

“Det afgørende er ikke, om der sidder et menneske i loopet, men om der har været menneskelig dømmekraft over de vurderinger, der er svære.”

Og formel kontrol kan eksistere uden reel vurdering.

“Man kan godt have kontrol på papiret, uden at der i praksis er nogen, der har haft mulighed for at vurdere situationen ordentligt.”

Designkrav og mulighed for intervention

Hvordan sikrer man så dømmekraft i praksis? Her peger Yde på konkrete designvalg.

“For mig er missionsspecifik programmering den vigtigste måde at sikre, at det teknisk er muligt at udøve menneskelig kontrol.”

Det betyder, at rammerne fastlægges, før systemet aktiveres.

“Hvis man kan indstille systemet meget præcist inden missionen, kan det i nogle tilfælde være acceptabelt, at man ikke kan gribe ind undervejs.”

Men tidsdimensionen er afgørende.

“Jo længere tid der går fra aktivering til effekt, jo større bliver behovet for mulighed for at intervenere.”

Procedurerne omkring systemerne

Selv det bedste system kan anvendes problematisk, hvis organisationen omkring det presser tempoet eller reducerer vurderinger til formaliteter.

“Det handler ikke kun om, hvad systemet teknisk kan, men om hvilke procedurer den militære organisation sætter op omkring brugen.”

Her står stater over for et valg.

“Man kan vælge en smal tilgang og kun gøre det juridisk nødvendige, eller man kan vælge en bredere tilgang, hvor man også sikrer, at systemet faktisk bruges korrekt.”

Valget er i praksis politisk, også selv om det ofte præsenteres som teknisk.

Den stille risiko: beslutningsstøtte

Mens autonome våben fylder mest i den offentlige debat, er det ikke her, Yde ser den største risiko.

“Jeg er mere bekymret for beslutningsstøttesystemer end for våbensystemer, fordi de er langt sværere at teste.”

Særligt når systemerne købes færdige.

“Når man køber komplekse AI-systemer off the shelf, uden at have været involveret i udviklingen, bliver det meget svært at sikre ansvarlig brug.”

Og udfordringen stopper ikke, når systemet tages i brug.

“Systemerne stopper ikke med at udvikle sig, når de tages i brug.”

“Derfor er kontinuerlig test og evaluering helt afgørende.”

Et åbent spørgsmål

Situationen lægger ikke op til en enkel løsning. Men det peger på et grundlæggende valg: enten accepterer man, at tempo og kompleksitet gradvist udhuler menneskelig dømmekraft – eller også gør man ansvar, procedurer og kontrol til politiske prioriteter.

“Hvordan gør vi, at den meningsfulde kontrol bliver meningsfuld? Det er nok det største, sværeste og vigtigste spørgsmål af alle.”

Seneste nummer

Køb bogen før din nabo!

Bliv medlem

Vi er i gang med at bygge Danmarks første medlemsdrevne medie om AI. Det handler ikke om at få mere indhold. Det handler om at få bedre viden.

Vil du være med? Klik her – og vælg selv, hvordan du vil støtte:

Meld dig til her.

Follow Me