
På rekordtid er kunstig intelligens (AI) blevet noget virksomhederne ikke kan leve uden. Det betyder også, at hvor de fleste virksomheder siger, at de bruger AI, så er andelen af virksomheder, der rent faktisk bruger AI formodentligt noget mindre. På produktsiden er der AI i alle produkter og i realiteten er AI-komponenten i de fleste produkter minimal, men det sælger. Allligevel fornemmer man nogle steder en hvis tilbageholdenhed. Er det noget for os? Er det ikke meget dyrt?
Men tilbageholdenhed er ikke altid en dårlig ide, for AI kommer med en række risici ikke mindst for den enkelte virksomhed. Diskrimination, overvågning og krænkelse af privatlivet er de mest almindelige oplevede overtrædelser, som AI gør sig skyldig i og som kan have store konsekvenser for både kunder og virksomheder.
På den anden side kommer AI med en række fordele, som de fleste virksomheder ikke kan være blinde for, hvis de skal bevare en eller anden form for markedsandel. Hvad er så svaret, hvis man gerne vil AI som virksomhed, men også gerne vil sikre sig selv og kunderne? Svaret er ansvarlig AI-udvikling. Hvis man køber sine AI løsninger fra tredjepart, skal man stille krav til leverandøren og hvis man kan finde pengene til at få udviklet sine egne løsninger kan man langt hen ad vejen sikre sig. Det handler om en etisk tilgang.
En etisk tilgang til udvikling
Som en god bekendt sagde til mig på et tidspunkt, så tror de fleste, at etik handler om at gøre det rigtige eller forkerte. I virkeligheden handler etik mere om det system, som vi opstiller for vores egne valg i bestemte situationer. Det system kan være baseret på at maksimere egen lykke, det kan dreje sig om det fælles bedste eller noget helt tredje. At være etisk betyder i sin grundbetydning bare at være konsistent i sin tilgang til de valg man stilles overfor i sit liv.
Når vi taler om en etisk tilgang til udvikling og brug af AI handler det om det fælles bedste og på den baggrund vil man som regel tale om fire hovedområder, som man skal forholde sig til: retfærdighed, ansvarlighed, gennemsigtighed og respekt for privatlivet. Det er problemstillinger, som de fleste virksomheder står overfor i hverdagen under alle omstændigheder, men som der kan kompenseres for, når det er mennesker, der udfører opgaven.
Diskrimination og overvågning
Et interessant eksempel er Amazons rekrutteringssystem, som i 2018 blev afsløret i at favorisere mandlige kandidater, fordi modellen lærte fra virksomhedens tidligere ansættelser, hvor mænd var overrepræsenteret. Det resulterede i, at systemet ubevidst fravalgte kvindelige kandidater til tekniske roller, hvilket begrænsede diversiteten og potentielt var diskriminerende.
I det danske sundhedsvæsen køres der forsøg med at lade algoritmer stå for overvågning af patienternes hjertefrekvens, blodtryk og iltmætning og det sparer tid for sygeplejersker, der i stedet kan bruge tiden til patientpleje. Men det rejser også spørgsmål om privatliv og kontrol, når der på den måde indsamles omfattende personlige data. Det Etiske Råd mener i den forbindelse, at det stiller store krav til virksomhederne og sundhedsvæsenet om at sikre ansvarlighed og etik i udviklingen af systemerne.
Kerneprincipper for etisk AI
Men hvordan sikrer man sig, som virksomhed, at de systemer man bruger eller måske ligefrem selv får udviklet er udviklet etisk og ansvarligt? Det gør man ved at insistere på, at systemerne udvikles med et fokus de menneskelige værdier, som jeg var inde på ovenfor: retfærdighed, ansvarlighed, gennemsigtighed og respekt for privatlivet.
Først og fremmest handler det om, at systemerne er gennemsigtige og det vil sige, at der skal være åbenhed om hvad det er for træningssæt, som AI-modellen er trænet på og hvad det er for beslutningsprocesser, som systemet går igennem for at komme med sit svar. På den måde kan man se, hvornår det er systemet fejler og korrigere for fejlen.
Bias – altså skævheder i data – der kan føre til diskrimination, ligger som regel i dataene, da de fleste data vi træner AI-modeller på i dag, er præget af mangler og skævheder. Det betyder, at man allerede i træningen skal arbejde med at kompensere på mangler i data i retning af fx køn, race, alder osv. Det er ikke sikkert, at alt kan ryddes ud i træningsprocessen og derfor kommer vi tilbage til gennemsigtigheden i systemet.
Hvem der har ansvaret, er et tredje nøgleområde. Når en AI-model resulterer i skader, det kan være i form af læk af personoplysninger, økonomiske tab på grund af fejlagtig rådgivning eller på en eller måde ligefrem forvolder fysisk skade. Er det udvikleren, er det virksomheden, der bruger AI-modellen eller er det brugeren/kunden, der har ansvaret.
Når vi snakker data, så er datasikkerheden helt central og endnu mere, når det drejer sig om personoplysninger. Så udover at sikre virksomhedens egne data om produkter eller metoder, så skal virksomheder også have fokus på hvordan de sikrer kundernes data. Det kan have store konsekvenser for kunderne, at deres data lækkes og for virksomhederne, hvis de ikke kan sikre data. Bødestraffen kan bære betragtelig.
Standarder for etisk udvikling af AI
Organisationer som fx OECD og flere lande har udviklet standarder for udvikling og brug af AI. Men det kan være en stor fordel som virksomhed også selv at arbejde aktivt med udvikling af egne standarder på området. På den måde kan man få standarderne ind under huden ved at gøre dem til en ens egne. Det kan gøre det lettere at overholde lovgivning og regulering på området og dermed undgå at blive straffet for overtrædelser af fx GDPR-lovgivningen.
For at sikre, at de interne og dermed de eksterne retningslinjer og standarder overholdes er en anden strategi at indføre en såkaldt governance-model. Særligt i forbindelse med indførelse og implementering af AI i virksomheden kan det være gavnligt med en governance-model, men også løbende, skal det sikres at retningslinjer, lovgivning og standarder overholdes. Det betyder løbende test og evaluering af modellerne for at sikre compliance, men også i forhold til fejl og bias.
Jeg var før inde på, at sikre mod bias kan gøres ved sikring af datagrundlaget og i træningen af modellen, men for at have det ekstra sikringslag, der hedder menneskelig overvågning, så er det mest effektivt, hvis man også sørger for at dem, der arbejder med modellerne i virksomheden også repræsenterer en bred gruppe.
Sandboxes, datamærkning og etiske afdelinger
I Danmark har regeringen en national AI-strategi, der fokuserer på ansvarlig brug af AI for at sikre, at teknologien udvikles på en måde, der beskytter borgernes rettigheder og sikrer gennemsigtighed og databeskyttelse. Strategien omfatter 20 konkrete initiativer, som inkluderer en “Regulatory Sandbox” til at hjælpe virksomheder med at teste og implementere AI under sikre og regulerede forhold. Det skal hjælpe både med at fremme innovation og med at undgå, at AI-løsninger uforvarende skader individets rettigheder.
Samtidigt har man Industriens Fond, DI, Dansk Erhverv, SMVDanmark og Forbrugerrådet Tænk udviklet en datamærkningsordning kaldet D-Seal eller D-mærket. Dette mærke gives til virksomheder, der opfylder høje standarder for dataetik og ansvarlig brug af AI. D-Seal signalerer til forbrugere og partnere, at virksomheden behandler data med respekt for privatliv og gennemsigtighed.
Uden for Danmark har virksomheden Salesforce etableret et dedikeret kontor, Office of Ethical and Humane Use, der arbejder på at sikre, at virksomhedens AI anvendes ansvarligt i deres forretningssystemer. Kontoret har udviklet retningslinjer, der bl.a. sikrer gennemsigtighed og retfærdighed i AI-modeller, samt at virksomhedens teknologi lever op til sociale og etiske standarder.
Internaliser ansvarligt brug af AI
Det kan være svært for særligt mindre virksomheder at overskue at skulle overskue både udvikling eller indkøb og samtidigt skulle leve op til store mængder standarder og lovgivning. Derfor kan det som nævnt være en fordel at internalisere processen, så det bliver en naturlig del af måden at drive forretning på. Jeg har været inde på forskellige dele af denne tilgang ovenfor, men her kommer en mere systematisk gennemgang.
- Etabler etiske retningslinjer: Udarbejd jeres egne retningslinjer for udvikling og anvendelse af AI-modeller i virksomheden. Der skal naturligvis være fokus på de tre hovedområder: gennemsigtighed, retfærdighed og ansvarlighed. Men hvis retningslinjerne skal have en værdi som internt styringsværktøj, så skal retningslinjerne udformes på basis af virksomhedens kultur, vision og mission. Hvor kommer I fra og hvor skal I hen?
- Data-gennemsigtighed og privatliv: Sørg for datatransparens, især ved at give kunderne kontrol over egne data og sikre overholdelse af databeskyttelseslove som GDPR. Brug anonymiseringsteknikker og giv kunderne mulighed for at trække deres data tilbage.
- Regelmæssige AI-audits: Politikker, standarder og retningslinjer er ikke statiske størrelser og særligt ikke på et område som AI. Derfor er det vigtigt, at løbende arbejde med dem. Både for at sørge for at de lever op til jeres og omverdenens etiske standarder og ikke udvikler bias, men også for at sørge for en forsat internalisering af standarder og retningslinjer i virksomheden. I kan sagtens indkalde ekstern hjælp til den type audits, men husk at involvere virksomheden.
- Implementer en AI-governance model: Opsæt klare roller og ansvarsområder for jeres udvikling og brug af AI. I kan fx oprette et etisk råd eller en arbejdsgruppe til at overvåge AI-aktiviteter og sikre ansvarlig implementering.
Generelt kan det anbefales at involvere sig aktivt i arbejdet med udvikling af lovgivning og standarder. Arbejd sammen med nationale AI-råd og deltag aktivt i høringer. Det kan også betale sig, at bidrage til udviklingen af branchestandarder gennem brancheorganisationer og eksempelvis ISO-certificering. Invester i at uddanne medarbejderne i AI-etik og ansvarlighed for at sikre en kultur, hvor I som virksomhed prioriterer ansvarlig brug af teknoligi. Og endeligt kan I tilslutte jer D-mærket eller lignende certificeringer, der bekræfter at I har forpligtet jer til databeskyttelse og en ansvarlig, etisk tilgang til udvikling og brug af AI.
Ethicswashing
Men alle de fine ord og gode intentioner kan hurtigt udvikle sig til tom snak, hvis ikke virksomheder for alvor forpligter sig til etisk og ansvarlig udvikling og brug af AI. Ligesom der en tendens til at nogle virksomheder markedsfører sig som bæredygtige uden substantielt at forpligte sig til miljøhensyn, kan det man kunne kalde ”ethicswashing” alt for let opstå og branchestandarder og interne etiske komiteer kan hurtigt blive kosmetiske tiltag.
Alle de frivillige interne tiltag skal være bakket op af lovgivning og medføre konsekvenser, hvis de ikke overholdes. Datamærkningsordninger som D-mærket og lignende initiativer er gode skrid, men det skal følges op af gennemsigtighed og relle konsekvenser, hvis virksomheder ikke lever op til deres etiske forpligtelser. Ovenfor opfordrede jeg til at indføre interne etiske råd i virksomheder, men for at de har en reel effekt, skal de have autonomi og kunne rapportere i offentligheden. Ellers er de tandløse. Hvis etisk rådgivning ikke har konsekvenser for virksomhedens adfærd, kan det være med til at skabe et image af ansvarlighed uden reelle ændringer.
Et virkeligt engagement i branchestandarder og lovgivning kan være med til at internalisere etisk og ansvarlig adfærd i virksomheden. Nogle virksomheder bruger etisk AI som en del af deres brand, men investerer ikke i arbejdet med at udvikle og implementere fælles lovgivning eller standarder. På den måde undgår de reelt at blive målt på deres etiske forpligtelser og fremstår som ansvarlige, men uden at deres teknologi lever op til de basale sikkerheds- eller databeskyttelseskrav.udvikling og brug af AI.