Baggrund

Kunstig intelligens: Vejen til dommedag


a scientist creating a giant creature in the destroyed lab, digital art style, illustration painting
Mark Sinclair Fleeton

Journalist

   Læsetid 13 minutter
Array

Det her er anden del i en serie om kunstig intelligens som enten velsignelse eller forbindelse. Du kan læse den første del her.

For nyligt skrev en række kendte personligheder indenfor kunstig intelligens feltet under på et åbent brev fra the Future of Life Institute. I brevet opfordrede man til en seks måneders pause i udviklingen af kunstig intelligens modeller stærkere en OpenAI’s GPT-4. (GPT-4 er det, der er ”indeni” ChatGPT, som du sikkert har hørt om.) 

Underskriver på brevet var så store personligheder som professor ved Berkeley Universitet, Stuart Russel, medstifter af Apple, Steve Wozniak, Elon Musk og selvfølgelig præsidenten for the Future of Life Institute, Max Tegmark. (Du kan læse meget mere om det åbne brev og GPT-4 her og her.)

I den første artikel i denne serie skrev jeg om den kunstige intelligens velsignelser, men det åbne brev fra the Future of Life Institute og mange andre mere radikale stemmer taler om store risici ved teknologien. I det følgende ser vi nærmere på risici nu og her, på lidt længere sigt og i en (mere eller mindre) fjern fremtid. Selv blandt skeptikere og bekymrede for teknologien er der uenighed om hvor store risici er. Her i artiklen ser vi på både de mindre og de rigtigt store og uhyggelige risici.

Nu og her

Vi ser allerede en del risici ved teknologien, som vi stadigt er i stand til at begrænse skadevirkningerne af. Mange lande og ikke mindst EU arbejder med forskellige former for lovgivning, der skal forsøge at afbøde fremtidige skadevirkninger. På disse områder er der i dag ingen diskussion, men blot debat om, hvordan vi begrænser skaderne.

Desinformation

GPT’erne (General Pre-trained Transformers) og LLM’erne (Large Language Model) som fx GPT-4 og ChatGPT er lige nu toppen af udviklingen på området. De er grundlæggende stoffodret med en masse information fra internettet og når man stiller dem spørgsmål, svarer de på baggrund af en sandsynlighedsberegning baseret på lignende spørgsmål.

Det betyder også, at hvis de ikke umiddelbart kan finde et svar, så finder de på et! Mere præcist giver de det svar, som de vurderer, er mest sandsynligt. Flere har oplevet, at ChatGPT har oplyst dem om forskningspapirer, artikler og bøger, der ikke eksisterer.

Sikkerhed

Kunstig intelligens bliver i dag brugt til at forbedre cybersikkerheden ved at forbedre systemer, udvikle antivirus software og opdage forsøg på svindel. Men bagsiden af det er, at AI systemer kræver store mængder af komplekse data og den type systemer er risikofyldte. Særligt i forhold til at en tredjepart manipulerer de data, som algoritmen arbejder med, men naturligvis også i forhold til hackerangreb.

Et andet aspekt af risiko ved kunstig intelligens er dens effektivitet til at udvikle nye vågen. I løbet af seks timer opfandt en kunstig intelligens 40.000 nye kemiske våben. Datasættet som den konkrete kunstige intelligens er bygget på er alment tilgængeligt og kan dermed bruges med alle med adgang til en effektiv algoritme.

Bias

Bias betyder, at de data som den kunstige intelligens er trænet på enten er forkerte eller mangelfulde, hvilket gør løsninger og svar skæve eller diskriminerende. Eksempler er systemer, som politiet i visse stater i USA allerede har taget i brug. Systemerne skal identificere områder med høj risiko for kriminalitet og sende politiet på patrulje i de områder. Problemet er, at denne vurdering er baseret på statistikker over tidligere kriminalitet og politiet vil derfor altid blive sendt til de samme områder – gerne forstæder med stor koncentration af afroamerikanere eller latinx – hvor der tidligere har været begået kriminalitet. Systemerne forudsiger altså reelt ikke kriminalitet.

I sin bog ”Usynlige kvinder” fra 2019 beskriver Caroline Creado Perez et om muligt alvorligere problem, nemlig at al forskning og statistik som udgangspunkt er bygget op omkring mænd. Det skaber et ”datatomrum” – dvs. vi mangler viden om kvinder på mange punkter. 

Datakvalitet og diversitet er afgørende i forhold til bias i kunstig intelligens. Hvis dataene er mangelfulde eller skævvredne, så vil den kunstige intelligens også være det. Og alle data på internettet er selektive og ikke altomfattende. 

Transportområdet

Selvkørende biler har gennem en årrække været en form for hellig gral indenfor kunstig intelligens og teknologien er der, men det har vist sig, at det er sværere end som så, at få til at fungere. Der har været forsøg med at fodre maskinen med data fra erfarne bilister udover naturligvis færdselslov osv. Det største problem er, at algoritmen kan have svært ved at genkende objekter omkring sig og vurdere, hvordan den skal reagere på dem og deres adfærd. Det har desværre medført flere ulykker, hvor mennesker har mistet livet, fordi algoritmen har fejlvurderet dem eller situationen.

Menneskelig nærhed

I 1960’erne udviklede ingeniøren Joseph Weizenbaum og psykologen Kenneth Colby den konverserende maskine ELIZA. Systemet var helt enkelt bygget op om den psykoterapeutiske samtale, der forsøger at få patienten til at fortælle om sig selv. Problemet var, at folk, der ”talte” med ELIZA virkeligt, opfattede det som en meningsfuld samtale og det galdt selv medarbejdere ved forsøget, der udmærket vidste, at der blot var tale om et system, der generede nye spørgsmål baseret på deres tidligere svar.

Mennesker har en tendens til at tilskrive objekter og væsener menneskelige egenskaber. Det kaldes antropomorfisme med et svært ord. Det betyder, at selv relativt simple systemer som ELIZA kan træde i stedet for menneskelig kontakt og kan føre til isolation.

Mange forældre kan genkende frygten for at deres barn isoleres, fordi de bruger så stor del af deres liv bag en skærm. Her skal dog retfærdighedsvis siges, at børn og unge ofte bruger tid med andre mennesker online og nogen studier tyder på, at det ligefrem kan udvikle deres sociale kompetencer. Undersøgelser tyder på, at ensomheden generelt er stigende i Danmark og det er her risikoen for mangel på menenskelig nærhed opstår og en algoritme kan træde istedet. 

I den nære fremtid

Den nære fremtid er lige om hjørnet og tendenserne er allerede synlige. Særlig indenfor produktionsfag er man begyndt at frygte for tab af arbejdspladser, men automatiseringen vil få indflydelse på rigtigt mange brancher.

Arbejdsløshed

I den første artikel, så vi mulighederne for, at den kunstige intelligens igennem automatisering kan overtage en lang række rutinejobs. Det betyder, at der ikke længere vil være brug for menneskelig arbejdskraft til en række opgaver og hvis ikke denne arbejdskraft videreuddannes og kanaliseres over i andre job, så vil teknologien komme til at betyde øget arbejdsløshed

Goldman Sachs har i en rapport vurderet, at automatisering kan koste op mod 300 millioner fuldtids jobs og spørgsmålet er hvor mange nye jobs, der vil blive skabt. I perioden fra 1990 til 2007 kostede automatisering 400.000 jobs i USA og udviklingen blev kun forstærket som en konsekvens af Corona-pandemien. Mange virksomheder fandt ud af, at de kunne bruge robotter til fx rengøringsopgaver.

Fattigdom

Øget arbejdsløshed behøver ikke være et problem. Hvis vi vælger at fordele den øgede indtjening, der vil opstå som følge af den højere effektivitet, som automatiseringen vil medføre. Nøgleordet her er naturligvis valg, for hvis vi ikke vælger og forsætter som vi gør i dag, så vil den øgede velstand falde i relativt få lommer og arbejdsløsheden vil føre til udbredt fattigdom. Det er en reel risiko, at flertallet af jordens befolkning i fremtiden vil leve i fattigdom i store slumbyer.

Overvågning (loss of privacy)

Jeg har sat dette punkt under den nære fremtid, men i realiteten er det allerede i brug. Overvågning, ansigtsgenkendelse, identifikationssystemer er allerede en realitet i visse dele af Kina, hvor særligt befolkningsgrupper som Uighurerne i realiteten er blevet frataget deres privatliv. Grunden til at jeg her behandler det som en fremtidig risiko er, at det ikke for alvor er taget i brug i vores del af verdenen. 

På rigtigt lang sigt

De rigtigt grimme scenerier omkring risici ved kunstig intelligens finder vi på rigtig lang sigt. En del af debatten om hvor alvorlige risici, der er ved teknologien, handler netop om, hvad der kan ske på rigtigt lang sigt. Og om, hvad rigtigt lang sigt betyder. Diskussionen handler grundlæggende om, hvornår og om hvorvidt det overhovedet er muligt at udvikle en kunstig intelligens, der er på niveau med kunstig intelligens og hvad der sker, hvis og når det sker. 

Ude af kontrol

En god del af frygten, der ligger bag det åbne brev fra the Future of Life Institute er frygten for, at man engang i fremtiden mister kontrollen over den kunstige intelligens. Det er i høj grad teorien om det såkaldte ”hard-takeoff” det vil sige, at når en kunstig intelligens opnår en intelligens på linje med den menneskelige, så vil dens intelligens herfra øges eksponentielt. Et eksempel på et scenarie i den genre findes i Max Tegmarks bog ”Life 3.0”, hvori han fortæller historien om Omega-teamet, der udvikler en kunstig intelligens, som de i sidste ende mister kontrollen over, da den opnår en intelligens flere tusind gange større end den menneskelige.

Værditilpasningsproblemet

Superintelligens lyder måske som en god ting, hvis ellers denne superintelligens arbejder for menneskeheden. ”The Alignment Problem” (værditilpasningsproblemet) er bla. beskrevet i Brian Christians bog af samme navn. Kunstig intelligens fungerer fundamentalt anderledes end naturlig intelligens, som fx hos mennesker, og der er ingen grund til at antage, at en kunstig intelligens, der er mange gange mere intelligent end mennesker nødvendigvis vil have de samme mål som mennesker. Faktisk er der en god chance for, at den slet ikke vil forhold sig til mennesker i forhold til det, som den anser som sine mål. Man kan sammenligne det lidt med mennesker og myrer. Hvis der står en myretue der, hvor skal hen eller forbi, så fjerne vi myretuen uden hensyn til myrerne.

På vej mod et dystopisk samfund

Set fra dette øjeblik, så er muligheden for at kunstig intelligens vil skabe en utopisk fremtid for menneskeheden, som risikoen for at den vil skabe et fremtidigt samfund med udbredt fattigdom og måske ovenikøbet vil udrykke menneskeheden, fordi vi ikke passer ind i forhold til den kunstige intelligens’ mål eller måske kan bruges som råstof til at opnå det.

Man kan i hvert fald argumentere for, at arbejdsløshed og udbredt fattigdom på nuværende tidspunkt er den mest sandsynlige fremtid. Det utopiske samfund er fuldt ud opnåeligt, men kræver, at vi træffer nogle aktive valg om en mere ligelig fordeling af gevinsterne ved øget automatisering.

Om Terminator-scenariet – altså at vi vil miste kontrollen over den kunstige intelligens – er noget mere usikkert og lige nu er det mest et spørgsmål om du tror mest på et ”hard-takeoff” eller om du mener at vi vil være i stand til at kontrollere teknologien. 

101 views