TEMA

USA’s lovgivning på AI-området


   Læsetid 14 minutter
Array

Det­te er sjette del af se­ri­en “Lov­giv­ning på AI-om­rå­det” om hvor­dan lov­giv­ning på in­ter­na­tio­nalt, na­tio­nalt og re­gio­nalt ni­veau spil­ler sam­men. Du kan femte del her. 

Lovgivningen om kunstig intelligens (AI) i USA omfatter en række foranstaltninger og regler på både føderalt og statsniveau, der søger at regulere og fremme ansvarlig brug og udvikling af AI-teknologier.

På føderalt niveau har næsten hver føderal agentur spillet en aktiv rolle i at fremme AI-governance strategi inden for den føderale regering og i mindre grad omkring kommercielle aktiviteter. For eksempel udgav NIST(National Institute of Standards and Technology) i august 2019 en plan for føderal engagement i udviklingen af tekniske standarder og relaterede værktøjer til AI, som identificerede fokusområder for AI-standarder og fremlagde en række anbefalinger til fremme af national AI-standards udvikling i USA. I midten af 2020 udsendte Federal Trade Commission (FTC) vejledning og informationer om deres tilgang til AI-governance, regulering og håndhævelse. Dette inkluderede fokus på virksomheders brug af generative AI-værktøjer og hvordan de kan påvirke beslutninger inden for områder som finansiering, sundhed, uddannelse, boliger og beskæftigelse. 

EEOC har også udgivet en bulletin om sin fortolkning af eksisterende antidiskriminationsregler i ansættelse, specifikt Titel VII af Civil Rights Act fra 1964, som de gælder for brugen af AI-drevne systemer.

På statsniveau har forskellige stater i USA foreslået lovforslag, der adresserer AI. For eksempel har Vermont foreslået at oprette en rådgivende komité for at adressere bias i softwareprogrammer brugt af staten og skabe anti-bias standarder for enhver software brugt af staten. En anden regning foreslår at skabe en Kunstig Intelligens Kommission for at støtte den etiske brug og udvikling af AI i staten, og en tredje regning fokuserer på statens udvikling, brug og indkøb af automatiserede beslutningssystemer, hvilket kræver at diskrimination af et automatiseret beslutningssystem anses for en uretfærdig praksis. Virginia har foreslået et lovforslag for at etablere et professionelt udviklings- og træningsprogram for statslige undervisnings- og informationsteknologipersonale til at opnå industriel certificering inden for cloud computing og datatjenesteteknologi, AI og maskinlæring. Staten Washington har introduceret Washington People’s Privacy Act (WPPA), som adresserer AI-drevet profilering ved offentlig brug, samt hvordan denne profilering må ikke anvendes til at træffe beslutninger, der har juridiske effekter eller lignende betydelige effekter på individer.

Disse love og forslag er en del af en bredere indsats for at sikre, at AI-udviklingen forbliver ansvarlig og retfærdig og at teknologien ikke bruges til at forværre eksisterende uligheder eller skabe nye former for diskrimination. Lovgivere på alle niveauer i USA arbejder fortsat på at tilpasse lovgivningen til de nye udfordringer og muligheder, som AI-teknologierne repræsenterer.

Lovgivning på føderalt niveau

På det føderale niveau i USA har Biden-Harris-administrationen taget flere vigtige skridt til at fremme sikker, sikker og pålidelig brug af AI. Præsident Biden har underskrevet en bekendtgørelse for at fremme myndighedernes indsats på tværs af den føderale regering. Dette bygger på tidligere handlinger for at udnytte fordelene ved og mindske risiciene ved AI. Initiativer inkluderer:

  • En “Blueprint for an AI Bill of Rights“, som er et sæt af fem principper og tilhørende praksisser til at vejlede design, brug og udrulning af automatiserede systemer for at beskytte rettighederne for den amerikanske offentlighed i AI-alderen.
  • NIST AI Risk Management Framework, som er et framework til bedre at håndtere risici forbundet med AI for individer, organisationer og samfundet.
  • National AI R&D Strategic Plan, som beskriver nøgleprioriteter og mål for føderale investeringer i AI-forskning og -udvikling.
  • National AI Research Resource Roadmap, en vejledning for etablering af en national forskningsinfrastruktur, der vil udvide adgangen til ressourcer, der er afgørende for AI-forskning og -udvikling.
  • Desuden har administrationen sikret frivillige forpligtelser fra flere førende virksomheder inden for AI til at arbejde mod sikker, sikker og pålidelig udvikling af AI-teknologi.

Disse initiativer og planer viser en klar forpligtelse fra den amerikanske regerings side til at lede i sikker, sikker og pålidelig AI-innovation, og at udnytte mulighederne ved AI, mens man afbøder dets risici.

AI Bill of Rights

Blueprint for an AI Bill of Rights, som er en del af Biden-administrationens indsats, har til formål at adressere udfordringerne og risiciene forbundet med AI-teknologi, samtidig med at man sikrer, at fremskridt ikke sker på bekostning af borgerrettigheder eller demokratiske værdier. De identificerede principper omfatter:

1. Safe and Effective Systems: Systemer skal udvikles med sikkerhed og effektivitet som kerneprincipper, herunder konsultation med forskellige samfund, risikoidentifikation og -afhjælpning, og løbende overvågning【38†source】.

2. Algorithmic Discrimination Protections: Beskyttelse mod diskrimination forårsaget af algoritmer, herunder proaktive foranstaltninger for at sikre retfærdighed og mangfoldighed i systemdesign og anvendelse【39†source】.

3. Data Privacy: Beskyttelse mod misbrug af data og sikring af individets kontrol over egne data, med fokus på privatlivets fred og sikkerhed i systemdesign【40†source】.

4. Transparency and Explanation: Der skal være transparens i, hvordan og hvorfor et automatiseret system træffer en beslutning, og brugere skal have adgang til forklaringer på disse beslutninger. Dette princip understreger betydningen af, at offentligheden forstår, hvordan AI-systemer fungerer og træffer beslutninger, hvilket er afgørende for tillid og ansvarlighed.

5. Human Alternatives, Consideration, and Fallback: Brugere skal have mulighed for at vælge, interagere med, eller vælge ikke at bruge automatiserede systemer. Der skal være alternativer til disse systemer, især i vigtige beslutningssammenhænge, så mennesker har mulighed for at interagere med et menneske i stedet for et system, hvis de ønsker det.

Disse fem principper samlet sigter mod at beskytte offentligheden mod potentielle skader forårsaget af AI og sikre, at AI-teknologien anvendes på en måde, der respekterer og fremmer borgerrettigheder og demokratiske værdier. Målet er at skabe en ramme, der sikrer, at AI-teknologier udnyttes på en måde, der respekterer og fremmer borgerrettigheder og demokratiske idealer.

Executive order

Præsident Bidens bekendtgørelse om kunstig intelligens (Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence) er et centralt element i hans administrationens tilgang til teknologien. Denne bekendtgørelse sigter mod at fremme og koordinere indsatsen på tværs af den føderale regering for at udnytte fordelene og samtidig håndtere risiciene forbundet med AI. Bekendtgørelsen indeholder otte vejlende principper og prioriteter for administrationens tilgang til AI: 

  • Fremme af AI-Innovation: Bekendtgørelsen lægger vægt på vigtigheden af at understøtte innovation inden for AI for at sikre amerikansk lederskab i denne teknologi.
  • Risikostyring: Den understreger behovet for at identificere og mindske risici forbundet med AI, herunder spørgsmål omkring sikkerhed, privatliv og etik.
  • Tværsektorielt Samarbejde: Bekendtgørelsen opfordrer til samarbejde mellem forskellige føderale agenturer for at sikre en koordineret tilgang til AI-politik og -regulering.
  • Globalt Engagement: Der lægges også vægt på vigtigheden af internationalt samarbejde om AI, både for at fremme standarder og for at sikre konkurrencedygtighed.
  • Fokus på Etik og Borgerrettigheder: Bekendtgørelsen anerkender betydningen af at beskytte borgerrettigheder og fremme etiske anvendelser af AI, hvilket afspejles i initiativer som Blueprint for an AI Bill of Rights.
  • Beskyttelse af Amerikanernes Privatliv og Borgerlige Frihedsrettigheder: Med AI’s avancerede evner til at behandle og analysere data, skal der være skærpet opmærksomhed på at beskytte privatliv og borgerlige frihedsrettigheder. Dette omfatter sikring af, at dataindsamling, -brug og -opbevaring er lovlig, sikker og reducerer risici for privatliv og fortrolighed.
  • Håndtering af Risici fra Den Føderale Regerings Brug af AI: Bekendtgørelsen understreger behovet for at styre risici forbundet med den føderale regerings egen brug af AI. Det omfatter tiltag for at tiltrække, fastholde og udvikle offentlige tjenesteydelser orienterede AI-fagfolk og sikre, at den føderale regerings arbejdsstyrke modtager tilstrækkelig uddannelse i AI’s fordele, risici og begrænsninger.
  • Globalt Lederskab i AI: USA skal lede vejen til globalt samfundsmæssigt, økonomisk og teknologisk fremskridt inden for AI. Dette lederskab indebærer ikke kun teknologiske fremskridt, men også at udvikle og fremme systemer og sikkerhedsforanstaltninger for ansvarlig teknologibrug og at bygge og fremme disse sikkerhedsforanstaltninger internationalt.

Denne bekendtgørelse repræsenterer et omfattende forsøg fra Biden-administrationens side på at integrere AI i den føderale regerings arbejde på en måde, der fremmer innovation, samtidig med at det sikrer, at udviklingen og anvendelsen af AI-teknologi sker på en ansvarlig og bæredygtig måde.

Lovgivning på statsniveau

Connecticut: Staten har pålagt sit Department of Administrative Services at lave en fortegnelse over alle AI-systemer, som bruges af statslige agenturer, og at vurdere dem for at forhindre ulovlig diskrimination eller forskelsbehandling. Der skal også etableres politikker og procedurer for udvikling og brug af AI i statslige agenturer.

Louisiana: En resolution blev vedtaget for at bede Joint Committee on Technology and Cybersecurity om at undersøge virkningen af AI i statslige operationer, indkøb og politik.

Maryland: Staten har startet Industry 4.0 Technology Grant Programmet for at støtte små og mellemstore fremstillingsvirksomheder i at adoptere nye teknologier, herunder AI.

North Dakota og Texas: Begge stater har dannet AI-rådgivningsråd for at overvåge AI-systemer, der anvendes af statslige agenturer, med lignende råd også etableret i Puerto Rico og West Virginia.

Statslovgivere overvejer aktivt både fordelene og udfordringerne ved AI, med et stigende antal foranstaltninger introduceret for at studere AI’s indvirkning og den rolle, politikere bør spille.

Forskelle i tilgange og prioriteringer

Lovgivningen om AI i USA og EU afspejler forskellige tilgange og prioriteter. Disse forskelle kan delvist tilskrives de forskellige retssystemer og kulturelle holdninger til teknologi, privatliv og regulering.

Reguleringsfilosofi:

   – USA: I USA er tilgangen til AI-regulering generelt mere decentraliseret og sektorbaseret. Reguleringen er ofte drevet af specifikke agenturer med ansvar for forskellige områder, som FTC for forbrugerbeskyttelse og FCC for kommunikation. USA har tendens til at fokusere på at fremme innovation og undgå overregulering, hvilket kan ses i deres mere reaktive og case-by-case tilgang til regulering af AI.

   – EU: EU har en mere proaktiv og omfattende tilgang til AI-regulering. Med det foreslåede AI-regulativ har EU udviklet et rammeværk, der klassificerer AI-systemer baseret på deres risikoniveau og indfører strenge krav til højrisiko AI-systemer. Denne tilgang er mere præskriptiv og søger at sætte standarder for etisk og sikker brug af AI på tværs af medlemslandene.

Privatliv og Databeskyttelse:

   – USA: Mens der er føderale love, der beskytter visse former for data (f.eks. sundhedsoplysninger og finansielle data), har USA ikke en omfattende føderal lovgivning, der ligner EU’s Generelle Databeskyttelsesforordning (GDPR). I stedet er lovgivningen mere fragmenteret med både føderale og statslige love, som Californiens Consumer Privacy Act (CCPA).

   – EU: GDPR er en omfattende lovgivning, der regulerer behandlingen af personoplysninger. Den giver borgere omfattende rettigheder over deres data og kræver, at virksomheder opfylder strenge standarder for datalagring, -behandling og -beskyttelse. GDPR’s indflydelse på AI er betydelig, da den begrænser, hvordan AI-systemer kan bruge persondata.

Ansvarlighed og Gennemsigtighed:

   – USA: Selvom der er voksende interesse for at forbedre gennemsigtighed og ansvarlighed i AI-systemer, er der endnu ikke omfattende føderal lovgivning på dette område. Initiativer som Blueprint for an AI Bill of Rights viser en anerkendelse af disse problemstillinger, men det er endnu ikke omsat til omfattende lovkrav.

   – EU: EU’s AI-regulativ lægger stor vægt på gennemsigtighed, sporbarhed og ansvarlighed af AI-systemer, især for højrisiko applikationer. Dette inkluderer krav om menneskelig tilsyn, robustheds- og nøjagtighedstestning og dokumentation for at sikre ansvarlighed.

Fokus på Etiske Overvejelser:

   – USA: Der er en stigende anerkendelse af behovet for at tage hensyn til etiske overvejelser i AI-udvikling og -anvendelse, men disse overvejelser er i høj grad overladt til individuelle organisationer og agenturer.

   – EU: EU har lagt betydelig vægt på etik i AI gennem sit Etiske Retningslinjer for Troværdig AI, som fremmer AI, der er lovlig, etisk og robust.

Disse forskelle afspejler de bredere kulturelle og politiske kontekster, hvorunder lovgivningen er udviklet. Mens USA’s tilgang er mere fragmenteret og innovation-fokuseret, tilstræber EU en mere uniform og omfattende regulering, der prioriterer privatliv, sikkerhed og etiske overvejelser.

0 notes
115 views

Write a comment...

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *