Lovgivning om AI

Multilateral regulering af AI – Del 2: Multilaterale principper


   Læsetid 11 minutter
Array

Det­te er niende del af se­ri­en “Lov­giv­ning på AI-om­rå­det” om hvor­dan lov­giv­ning på in­ter­na­tio­nalt, na­tio­nalt og re­gio­nalt ni­veau spil­ler sam­men. Du kan ottende del her. 

Flere organisationer, både på regerings- og ikke-regeringsniveau, har udviklet multilaterale principper for kunstig intelligens af flere vigtige årsager. Der er en bred anerkendelse af, at AI skal udvikles og anvendes på en etisk og ansvarlig måde. Organisationer søger at etablere principper, der sikrer, at AI-teknologi respekterer menneskerettigheder, fremmer retfærdighed og er fri for skadelige bias. Principperne fokuserer ofte på behovet for gennemsigtighed i AI-systemers beslutningsprocesser, så brugere og de påvirkede forstår, hvordan og hvorfor afgørelser bliver truffet, og hvem der er ansvarlig. 

Med stigende bekymringer om datasikkerhed og privatlivsbeskyttelse lægger mange principper vægt på at beskytte individets data og sikre, at AI-systemer er sikre mod misbrug og cyberangreb. Organisationer anerkender, at AI har potentiale til at bidrage til bæredygtige udviklingsmål, f.eks. ved at forbedre sundhedsvæsenet, uddannelse og miljøbeskyttelse, og søger at guide AI’s udvikling i en retning, der understøtter disse mål. I en globaliseret verden med grænseoverskridende teknologisk udvikling er der et stigende behov for internationale standarder og principper, der kan guide lande og virksomheder i at udvikle og implementere AI på en harmoniseret måde. Disse principper søger også at fremme innovation og økonomisk vækst ved at skabe et stabilt og forudsigeligt miljø for virksomheder, der arbejder med AI.

Eksempler på organisationer, der har udviklet sådanne principper, inkluderer FN, OECD, EU og forskellige nationale regeringer. Disse principper varierer i deres specifikke fokus og tilgang, men de deler en fælles vision om at sikre, at AI udvikles og anvendes på en måde, der er til gavn for samfundet som helhed og i overensstemmelse med menneskelige værdier og etik.

OECD’s principper for AI

OECD’s principper for AI fremmer brugen af AI, der er innovativt og tillidsvækkende. Disse principper blev vedtaget i maj 2019 og sætter standarder for AI, som er praktiske og fleksible nok til at stå tidens prøve. De fokuserer på, hvordan regeringer og andre aktører kan forme en menneskecentreret tilgang til tillidsvækkende AI. Som et OECD-juridisk instrument repræsenterer principperne en fælles aspiration for de lande, der tilslutter sig dem.

ASILOMAR-principperne

Asilomar-principperne for kunstig intelligens er en række retningslinjer, der sigter mod at sikre, at udviklingen af AI sker til fordel for alle og under hensyntagen til etiske overvejelser. De blev udviklet og vedtaget i 2017 under Asilomar-konferencen, som samlede en bred gruppe af eksperter inden for AI, herunder forskere, politikere, juridiske eksperter og etikere.

Disse principper blev formuleret som et svar på den voksende anerkendelse af AI’s potentiale samt de udfordringer og risici, der følger med dens udvikling og implementering. Målet var at skabe en fælles forståelse og et sæt af retningslinjer, der kunne lede forskere og udviklere i retningen af en ansvarlig og etisk anvendelse af AI.

De 23 Asilomar-principper er opdelt i tre kategorier: Forskningsspørgsmål, Etik og Værdier, og Længerevarende Spørgsmål. Her er nogle eksempler fra hver kategori:

Forskningsspørgsmål

– Forskningens Robusthed og Sikkerhed: Forskning inden for AI skal fremme robuste og sikre systemer.

– Forskningens Finansiering: Investeringer i AI bør ledsages af finansiering til forskning, der sikrer dens fordelagtige anvendelse.

Etik og Værdier

– Personlig Privatliv: AI-systemer bør respektere og beskytte folks privatliv.

– Ikke-diskrimination: AI-systemer bør undgå uretfærdig diskrimination.

Længerevarende Spørgsmål

– Værdibevarelse: AI-systemer bør respektere og vedligeholde menneskelige værdier.

– Risikobehandling: Beslutninger vedrørende AI-systemer bør ledsages af effektive risikobehandlingsmetoder.

Disse principper tjener ikke kun som etiske retningslinjer, men også som en platform for diskussion om AI’s fremtid. De understreger behovet for fortsat forskning, samarbejde på tværs af felter, og opmærksomhed på potentielle langsigtede konsekvenser af AI-udviklingen. Principperne afspejler en bred konsensus blandt fagfolk om, at mens AI har potentiale til at bringe betydelige fordele, skal den udvikles og anvendes på en måde, der er i tråd med menneskelige værdier og etiske standarder.

IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems

The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems fokuserer på at sikre ansvarlig innovation inden for kunstig intelligens , autonome intelligente systemer (AIS), maskinlæring, autonome køretøjer og robotteknologi. Dette initiativ fra IEEE Standards Association (IEEE SA) har til formål at uddanne, træne og styrke alle interessenter involveret i design og udvikling af autonome og intelligente systemer, så de prioriterer etiske overvejelser. Dette skal sikre, at disse teknologier udvikles til gavn for menneskeheden.

IEEE SA har udviklet ressourcer og standarder, der er globalt anerkendte inden for anvendt etik og systemteknik, og fortsætter med at udvikle tilgængelige og bæredygtige tilgange og løsninger for pragmatisk anvendelse af AIS-principper og -rammer. Organisationen tilbyder standarder, uddannelse og uddannelsesprogrammer, certificeringsprogrammer og mere for at styrke interessenter, der designer, udvikler og bruger autonome intelligente systemer. Der opfordres til global deltagelse for at tilbyde de bredeste regionale og kulturelle perspektiver, som er nødvendige for at kontekstualisere, hvordan AIS-systemer kan undgå risiko og tilbyde den største fordel i drift.

Dette initiativ bidrager væsentligt til den igangværende dialog og indsats for at forme en mere etisk og ansvarlig fremtid for teknologi, især i lyset af de hurtige fremskridt inden for AI og autonom teknologi.

The Montreal Declaration for Responsible AI

Montreal-deklarationen for et ansvarligt udvikling af kunstig intelligens  er en etisk ramme, der er etableret for at vejlede udviklingen og implementeringen af AI. Denne deklaration blev initieret af Université de Montréal og Fonds de recherche du Québec og blev annonceret den 3. november 2017 ved afslutningen af Forummet for Socialt Ansvarlig Udvikling af AI, der blev afholdt på Palais des congrès de Montréal.

Deklarationens primære mål er at opnå en inklusiv, retfærdig og økologisk bæredygtig udvikling af AI. Den omfatter tre hovedmål:

  1. Udvikling af Etiske rammer: At skabe retningslinjer for den etiske udvikling og implementering af AI.
  2. Vejledning af den Digitale Overgang: Sikre, at alle drager fordel af den teknologiske revolution, som AI bringer med sig.
  3. Facilitering af Nationale og Internationale Diskussioner: Åbne fora for nationale og internationale diskussioner, der kollektivt stræber efter retfærdig, inklusiv og økologisk bæredygtig udvikling af AI.

Montreal-deklarationen er bygget omkring syv kerneværdier: velvære, autonomi, retfærdighed, privatliv, viden, demokrati og ansvar. Disse værdier udgør rygraden i deklarationen og er beregnet til at guide forskellige interessenter inden for AI mod ansvarlige og etiske praksisser.

Quebec, hvor deklarationen blev formuleret, anerkendes som udgangspunktet for dette initiativ. Montreal-deklarationen betragtes som et af de mest omfattende rammer for etik globalt, udviklet fra en national dialog, der involverede over 500 borgere, eksperter og interessenter. Denne brede konsultationsproces indikerer den inklusive tilgang, der er taget i udarbejdelsen af deklarationens principper.

I 2018 fremmede Mila (Montreal Institute for Learning Algorithms) yderligere bevægelsen for ansvarlig AI ved at bidrage til skabelsen af Montreal-deklarationen i partnerskab med Université de Montréal. Denne inddragelse fremhæver initiativets samarbejdende natur, som bringer akademiske institutioner og AI-forskningsorganisationer sammen i dets formulering.

Samlet set repræsenterer Montreal-deklarationen for ansvarlig AI en betydelig indsats i etableringen af et sæt etiske retningslinjer og principper for at styre udviklingen og anvendelsen af AI i en retning, der er gavnlig og respektfuld over for menneskelige værdier og samfundsmæssige behov.

AI Security Summit

AI Security Summit, der fandt sted i Storbritannien i 2023, havde som hovedformål at undersøge de risici, som hurtigt voksende AI-teknologi indebærer, og at sætte gang i en international dialog om regulering af teknologien. Dette første globale AI-sikkerhedstopmøde blev afholdt i Bletchley Park i det sydlige England den 1.-2. november.

Konferencens mål var at diskutere risici og muligheder, som AI præsenterer, samt at fungere som en platform for den britiske premierminister Rishi Sunaks ambitioner om at matche AI-kompetencerne i USA og Kina. Topmødet fokuserede på to typer risici: tab af kontrolrisici, hvor AI kunne vende sig imod mennesker, og misbrugsrisici, hvor AI kunne hjælpe en ondsindet aktør med at udføre cyberangreb eller udvikle farlige teknologier.

Der var fem nøglemål for topmødet, herunder at opbygge en “fælles forståelse af risiciene” ved grænseløs AI, en proces for internationalt samarbejde om AI-sikkerhed, at foreslå sikkerhedsforanstaltninger for individuelle organisationer, at identificere områder for AI-samarbejde og at vise, hvordan sikker udvikling af AI vil gøre det muligt at bruge AI til gavn globalt. Fokus var især på grænseløs AI, de avancerede grundlæggende modeller, der driver systemer som OpenAI’s GPT-3 og GPT-4.

Resultaterne og initiativerne fra AI Security Summit i Storbritannien i 2023 omfattede følgende højdepunkter:

De primære resultater fra AI Safety Summit inkluderede underskrivelsen af en erklæring af 28 lande om at fortsætte med at mødes og diskutere AI-risici i fremtiden, lanceringen af AI Safety Institute, og en generel enighed om, at der er brug for mere forskning for at gøre AI sikrere. Disse resultater blev dog set som et skridt i den forkerte retning i forhold til forskning i AI-etik, regulering og sikkerhed.

Topmødet etablerede ikke en konsensus om vejen frem for at fastlægge internationale standarder og tilsyn med avanceret AI. Udfordringen med at opbygge enighed om, hvilke områder af standarderne der bør internationaliseres, og gennem hvilke institutionelle mekanismer, forbliver uløst. Det er stadig uklart, hvilke aktører der vil og bør tage udfordringen op med at skabe denne konsensus.

Resultaterne fra AI Safety Summit eller manglen på samme illustrerer de komplekse udfordringer og debatter, der omgiver udviklingen og reguleringen af AI, især i lyset af det hastige teknologiske fremskridt og den globale kontekst.

0 notes
59 views

Write a comment...

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *