Lovgivning om AI

Multilateral regulering af AI – Del 1: National regulering i global kontekst, FN og OECD


Det­te er ottende del af se­ri­en “Lov­giv­ning på AI-om­rå­det” om hvor­dan lov­giv­ning på in­ter­na­tio­nalt, na­tio­nalt og re­gio­nalt ni­veau spil­ler sam­men. Du kan syvende del her. 

Det kan virke uoverskueligt at kaste sig ud i at se på den multilaterale regulering af AI-området. Ikke mindst fordi regulering på dette niveau bliver en blanding mere bløde tiltag end det vi ser på det nationale og regionale plan. For det første spiller den lokale og regionale lovgivning også ind på det globale niveau. Og lovgivning på AI-området er i høj grad et felt i udvikling. USA, Kina og EU er de mest omfattende lovgivninger, men formodentligt de fleste lande arbejder på at opsætte en lovgivning på området. 

I denne første del af artiklen tager jeg et hurtigt overblik over den nationale lovgivning, som en del af en international kontekst og jeg undersøger nogle af de multilaterale aktørers arbejde med området. I anden del ser jeg på de principper for AI, som en række organisationer både på regeringsniveau og ikke-regeringsniveau har forsøgt at opstille og hvorfor de er opstillet.

Overblik over national lovgivning i en global kontekst

Global Kontekst: Lande verden over udvikler AI-lovgivning, herunder omfattende lovgivning, specifikke anvendelsesområder og frivillige retningslinjer og standarder. Multilaterale bestræbelser på at koordinere tilgange er i gang, med organisationer som OECD, UNESCO, International Organization for Standardization, Den Afrikanske Union og Europarådet, der arbejder på rammer for AI-styring. Det britiske regering organiserer det første AI-sikkerhedstopmøde for at evaluere og overvåge betydelige risici fra AI.

Kina: Kina har taget væsentlige skridt i AI-regulering. I 2017 blev “Næste generations kunstig intelligens-udviklingsplan” etableret, efterfulgt af etiske retningslinjer i 2021. I januar 2022 blev der offentliggjort to love, der adresserer algoritmiske anbefalinger og “dyb syntese” teknologier. Kina kræver også en “sikkerhedsvurdering” for nye AI-produkter og har regional lovgivning som Shenzhen og Shanghai AI-regler.

Japan: Japans AI-strategi er en del af deres “Society 5.0” projekt, der sigter mod at bruge innovation til at adressere sociale problemer. Selvom Japan har etableret sociale principper og retningslinjer for AI-udvikling og -brug, er disse ikke juridisk bindende, men afspejler den politiske konsensus om AI’s muligheder og risici.

Canada: I juni 2022 introducerede Canada Digital Charter Implementation Act 2022, som omfatter Artificial Intelligence and Data Act (AIDA). AIDA er designet til at regulere AI-systemer i forhold til risikoen for skade og forudindtagne resultater, og den er i øjeblikket i den lovgivningsmæssige proces.

Indien: Indien har endnu ikke et specifikt lovgivningsmæssigt rammeværk for AI. Arbejdspapirer fra den indiske kommission NITI Aayog indikerer dog en bevægelse mod AI-regulering, herunder etableringen af en tilsynsmyndighed for ansvarlig AI.

USA: USA’s tilgang omfatter ikke-bindende rammer som Blueprint for Development, Use and Deployment of Automated Systems, og AI Risk Management Framework fra NIST, der giver frivillige retningslinjer for håndtering af AI-relaterede risici.

Den Europæiske Union (EU): EU forventes at implementere verdens første omfattende AI-lov, AI-loven, som en del af sin digitale strategi. Loven kategoriserer AI-systemer baseret på den risiko, de udgør, og pålægger varierende niveauer af regulering. Den sigter mod at sikre, at AI-systemer, der anvendes i EU, er sikre, gennemsigtige og ikke-diskriminerende, med specifikke regler for uacceptabel, høj, begrænset og generativ AI-risiko.

FN’s arbejde med AI

På et multilateralt niveau er en række organisationer taget hul på den mere bløde del af reguleringen i form af retningslinjer, principper, standarder og samarbejder på forskellige niveauer. FN’s arbejde i forhold til kunstig intelligens  spænder bredt og reflekterer den transformative natur af AI-teknologi på global skala. 

FN beskriver selv, at man arbejder på at udnytte AI til menneskehedens bedste, hvor AI har potentiale til at påvirke alle områder af vores liv, herunder de tre søjler i FN: fred og sikkerhed, menneskerettigheder og udvikling. FN udforsker, hvordan AI kan hjælpe med at afbøde klimaforandringer, transformere uddannelse, bekæmpe sult, eliminere fattigdom og så videre.

Som en del af Generalsekretærens vejledning for digitalt samarbejde lagde man i 2020 op til en multistakeholder højniveau rådgivende organ om kunstig intelligens. Dette organ er nu under oprettelse for at rådgive om AI-relaterede spørgsmål. I august 2023 annoncerede FN’s generalsekretær oprettelsen af en Multistakeholder High-Level Advisory Body on Artificial Intelligence, der er planlagt til at samles i det sidste kvartal af året. Principperne for etisk brug af kunstig intelligens i FN-systemet blev godkendt i juli 2022, hvilket understreger FN’s engagement i at sikre, at AI bruges på en måde, der respekterer menneskerettigheder og fremmer bæredygtig udvikling. 

AI bliver brugt i forbindelse med fred og sikkerhed, herunder af FN. Det bliver i stigende grad brugt til at identificere mønstre af vold, overvåge våbenhviler og mere, hvilket understreger, hvordan AI kan bidrage til FN’s kerneopgaver inden for global sikkerhed.

UNESCO’s anbefalinger

UNESCOs anbefalinger vedrørende etik inden for kunstig intelligens lægger vægt på beskyttelsen af menneskerettigheder og værdighed. Disse anbefalinger er bygget på grundlæggende principper som gennemsigtighed og retfærdighed, og understreger vigtigheden af menneskelig tilsyn med AI-systemer. En særlig bemærkelsesværdig del af disse anbefalinger er de omfattende Politik Handling Områder, der giver politikere mulighed for at omsætte kernes værdier og principper til handling. Dette omfatter områder som datastyring, miljø og økosystemer, køn, uddannelse og forskning, samt sundhed og socialt velbefindende. 

Disse anbefalinger fra UNESCO er en del af en større global bestræbelse på at integrere etiske og menneskeretlige overvejelser i udviklingen og anvendelsen af AI-teknologier. De tjener som en vejledning for lande og organisationer verden over, der ønsker at udvikle ansvarlig og menneskecentreret AI.

G7 initiativer

G7-landenes arbejde med AI fokuserer på at fremme en fælles forståelse af værdier, principper og risici, samt at opnå interoperabilitet i AI-styringsrammer. G7 understreger vigtigheden af, at AI-udvikling og implementering er i overensstemmelse med fundamentale værdier som frihed, demokrati og menneskerettigheder, samt principper som retfærdighed, ansvarlighed og sikkerhed. G7 påpeger potentielle risici ved AI, såsom online chikane og trusler mod børns sikkerhed og privatliv, samt misbrug af AI til at underminere demokratiske værdier. G7 understreger behovet for at udvikle værktøjer til pålidelig AI gennem samarbejde med internationale organisationer som OECD og UNESCO, samt multi-stakeholder initiativer som Global Partnership in AI (GPAI). G7 fremhæver vigtigheden af internationale tekniske standarder for at sikre interoperable AI-styringsrammer, som gør det muligt at vurdere og evaluere AI-systemer på tværs af lande med forskellige regler.

Hiroshima-processen om AI refererer til et initiativ lanceret af G7-landene for at diskutere og håndtere spørgsmål omkring generativ AI. Processen blev aftalt under et G7-møde i Hiroshima, Japan, i 2023. Formålet er at tage fat på udfordringer som ophavsret og misinformation relateret til generativ AI. Denne proces involverer oprettelsen af et ministerielt forum, som skal afholdes inden udgangen af året, og vil være inklusiv og foregå i samarbejde med organisationer som OECD og Global Partnership in AI (GPAI).

G20 initiativer

G20-landene har arbejdet med AI gennem en årrække. Ved et ministermøde i Tsukuba, Ibaraki Præfektur, blev G20-landene enige om retningslinjer for brug af AI. Disse retningslinjer opfordrer AI-brugere og -udviklere til at være retfærdige og ansvarlige, med gennemsigtige beslutningsprocesser, og til at respektere loven samt værdier, herunder privatliv, lighed, mangfoldighed og internationalt anerkendte arbejdsrettigheder.

Det 18. G20-topmøde for stats- og regeringschefer finder sted i New Delhi i september 2023. Topmødet vil være kulminationen på alle G20-processer og møder, der afholdes i løbet af året, og en G20-ledererklæring vil blive vedtaget ved afslutningen af topmødet.

Disse initiativer viser G20-landenes engagement i at forme en global dagsorden for ansvarlig og retfærdig brug af AI-teknologi, idet de fremmer samarbejde og fastsætter fælles standarder og principper.

ISO

ISO (International Organization for Standardization) arbejder aktivt med at skabe standarder på AI-området gennem deres tekniske komité ISO/IEC JTC 1, SC 42, som fokuserer på kunstig intelligens. De behandler en række nøgleområder inden for AI:

  1. Grundlæggende Standarder: Udvikling af fælles ordforråd, taksonomier og definitioner for AI.
  • Beregningsteknikker og Metoder: Vurdering af AI-systemers beregningstilgange og karakteristika.
  • Pålidelighed: Fokus på sikkerhed, privatliv, robusthed, gennemsigtighed og bias i AI-systemer.
  • Anvendelsesområder og Brugstilfælde: Identificering af anvendelsesområder for AI og indsamling af repræsentative brugstilfælde.

Disse bestræbelser fra ISO er afgørende for at fremme en fælles forståelse og tilgang til AI på globalt plan, hvilket sikrer interoperabilitet og tillid til AI-systemer.

Global Partnership in AI (GPAI)

Global Partnership on Artificial Intelligence (GPAI) er en international organisation, der arbejder for at fremme ansvarlig brug og udvikling af AI. GPAI understøtter deling af tværfaglig forskning og hjælper med at identificere nøglespørgsmål blandt AI-udøvere. Dette fremmer internationalt samarbejde og understøtter adoptionen af pålidelig AI. Organisationen samler førende eksperter fra hele verden for at bygge videre på eksisterende arbejde, både nationalt og internationalt. GPAI vurderer videnskabelige, tekniske og socioøkonomiske oplysninger, der er relevante for at forstå AI’s indvirkninger, med henblik på at fremme dens ansvarlige udvikling og mindske potentielle udfordringer.

AI for Good af ITU

AI for Good-programmet under ITU (International Telecommunications Union) er en førende handlingsorienteret platform under FN, der fremmer brugen af kunstig intelligens til at fremme sundhed, klima, kønsaspekter, inklusiv velstand, bæredygtig infrastruktur og andre globale udviklingsprioriteter. Programmets mål er at identificere praktiske anvendelser af AI, skalere løsninger for global indflydelse og fremskynde fremskridtene mod FN’s bæredygtige udviklingsmål. AI for Good organiseres af ITU i samarbejde med 40 FN-agenturer og er medafholdt af den schweiziske regering. 

Programmet understreger vigtigheden af at bruge AI til at løse nogle af de mest presserende globale udfordringer og arbejder på at bringe sammen en bred vifte af interessenter, herunder regeringer, industrien, akademiske institutioner og civilsamfundet, for at fremme denne dagsorden.

World Economic Forum

World Economic Forum (WEF) har været en aktiv deltager i diskussionen om AI og dens indvirkning på samfundet. WEF har udviklet en række initiativer og projekter, der sigter mod at fremme ansvarlig udvikling og brug af AI.

Et af WEF’s initiativer er AI Governance Alliance, som er en sammenslutning af virksomheder, regeringer, akademiske institutioner og civilsamfundsorganisationer, der arbejder sammen om at fremme ansvarlig global design og frigivelse af gennemsigtige og inkluderende AI-systemer12.

WEF har også udviklet en række etiske principper for AI, der er baseret på menneskerettigheder og inkluderende design3. Disse principper er en del af WEF’s bredere arbejde med at fremme ansvarlig udvikling og brug af AI.

OECD

OECD’s (The Organisation for Economic Co-operation and Development) arbejde med kunstig intelligens fokuserer på fremme af AI, der er innovativt og tillidsvækkende, og som respekterer menneskerettigheder og demokratiske værdier. OECD’s principper for AI fremmer brugen af AI, der er innovativt og tillidsvækkende. Disse principper blev vedtaget i maj 2019 og sætter standarder for AI, som er praktiske og fleksible nok til at stå tidens prøve. De fokuserer på, hvordan regeringer og andre aktører kan forme en menneskecentreret tilgang til tillidsvækkende AI. Som et OECD-juridisk instrument repræsenterer principperne en fælles aspiration for de lande, der tilslutter sig dem.

OECD har etableret AI Policy Observatory, som tilbyder politikker, data og analyser for tillidsvækkende kunstig intelligens. Dette omfatter en række prioritetsprojekter som ‘Generative AI’, ‘Programme: AI in Work, Innovation, Productivity and Skills’, ‘AI Compute Capacity’, ‘Tools for Trustworthy AI’, og ‘Classification of AI Systems’.

OECD har gennemført empirisk og politisk arbejde på AI for at støtte politikdebatten. Dette inkluderer et Technology Foresight Forum om AI i 2016 og en international konference om AI: Intelligent Machines, Smart Policies i 2017. Organisationen har også gennemført analytisk og målingsarbejde, der giver et overblik over det tekniske AI-landskab, kortlægger økonomiske og sociale påvirkninger af AI-teknologier og deres anvendelser, identificerer større politiske overvejelser og beskriver AI-initiativer fra regeringer og andre interessenter på både nationalt og internationalt niveau.

OECD’s ‘AI and the Future of Skills’ (AIFS) projekt udvikler en omfattende ramme for regelmæssigt at måle AI-kapaciteter og sammenligne dem med menneskelige færdigheder. Dette skal hjælpe politikere med at forudsige AI’s indvirkning.

Gennem sit forskningsprogram om AI i Arbejde, Innovation, Produktivitet og Færdigheder arbejder OECD sammen med regeringer, virksomheder og arbejdstagere over hele verden for at måle og analysere indvirkningen af AI på uddannelsesbehov og arbejdsmarkeder og for at hjælpe med at forme en menneskecentreret tilgang til tillidsvækkende AI.

OECD’s Komité for Digital Økonomisk Politik har en Arbejdsgruppe om Kunstig Intelligens Governance (AIGO), som overvåger arbejdet med AI-politik.

0 notes
71 views

Write a comment...

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *