Baggrund

ChaosGPT og verdens undergang


Dræber-GPT ’en er ikke en succes, men der er mange risici ved højintelligent kunstig intelligens vi skal tage alvorligt.

Attractive businesswoman with robot face on white background. Digital interface with binary code and head with virtual globe in the foreground. Concept of artificial intelligence. Copy space
Mark Sinclair Fleeton

Journalist

   Læsetid 13 minutter
Array

Forestil dig en kunstig intelligens mange gange mere intelligent end et menneske – en superintelligens. Mange mener, at dens første prioritet vil være, at sikre sin egen beståen. Det er den logiske måde at sikre, at den kan udføre sin opgave. Forestil dig nu, at den kunstige intelligens – for at sikre sine metaldele mod rust – tømmer atmosfæren for ilt…

Eksemplet ovenfor har jeg taget fra podcasten ”This Day In AI” fordi det er den kortest og mest præcist formulerede eksempel på det, der hedder ”The Alignment Problem” (værditilpasnings problemet). 

En voldspsykopatisk kunstig intelligens

The Alignment Problem fortæller os, at den største trussel mod menneskeheden ikke vil være en voldspsykopatisk superintelligens, men en superintelligens, der er ligeglad. Når det er sagt, så lad mig introducere: ChaosGPT. ChaosGPT er en  GPT (Generative pre-trained Transformer) også kaldet en stor sprogmodel (LLM – Large Language Model) ligesom ChatGPT, men ChaosGPT’s hovedmål er at udrydde menneskeheden. Og nej, det er ikke noget jeg har fundet på til lejligheden.

En bruger af et open-source kunstig intelligens projekt, Auto-GPT, skabte sin egen version, kaldte den ChaosGPT og gav den fire hovedopgaver: 1. udryd menneskeheden, 2. overtag verdensherredømmet, 3. kontroller menneskeheden gennem manipulation og 4. opnå udødelighed. Modellen satte straks i gang med at google atomvåben, at rekruttere andre kunstige intelligenser til dens sag og forsøgte at sprede generelt kaos via Twitter. Den blev dog straks afvist af de andre kunstige intelligenser – det lå ligesom ikke indenfor deres parametre. Kort tid efter blev ChaosGPT blokeret på Twitter. Kontoen ser dog ud til at være genoprettet siden, så bare pas på. Chaos GPT kryber rundt under radaren et sted i udkanten af internettet og forsøger at få ram på os

Kunstig intelligens vs. menneskeheden

Men kunstig intelligens er ikke bare sjov og ballade. Der er alvorlige risici, der bør tages alvorligt. Så alvorligt at en gruppe forskere på området besluttede at skrive under på et åbent brev fra Future of Life-instituttet. 

Som nævnt I de bredt anerkendte Asilomar AI-principper kan kunstig intelligens udgøre en grundlæggende ændring af historien om livet på jorden og bør planlægges og administreres med passende forsigtighed og ressourcer. Derfor opfordrer vi alle organisationer, der arbejder med kunstig intelligens, til at holde en pause på mindst seks måneder, når det gælder kunstig intelligens, der er kraftigere end GPT-4.”

Hedder det i det åbne brev fra Future of Life-instituttet. Instituttet en non-profit organisation, der arbejder for at dreje høj-risiko teknologi ind på en mere menneskevenlig bane. Brevet, der ønsker at sætte yderligere forskning i risikofyldt kunstig intelligens på pause i seks måneder, har skabt stor debat og optegnet konturerne af op til flere fronter blandt dem, der arbejder med udviklingen af kunstig intelligens. 

Kunstig intelligens sat på pause

Det åbne brev fra Future of Life-instituttet blev udgivet den 29. marts 2023 og blandt underskriverne på brevet var instituttets egen præsident, Max Tegmark (MIT professor og forfatter til bogen ”Life 3.0” om kunstig intelligens), Stuart Russel (toneangivende på kunstig intelligens-området og professor ved Berkeley Universitet), Steve Wozniak (medstifter af Apple), Yi Zeng (medlem af det kinesiske videnskabs akademi) og den mest omtalte – Elon Musk (Space X-stifter, Twitter-ejer og generelt excentrisk milliardær).

I brevet efterlyses en pause, der skal kunne kontrolleres og omfatte alle interessenter på området og om nødvendigt håndhæves på regeringsniveau. Pausen skal først og fremmest bruges til at tage luft ind og stille spørgsmålene: 

  • Bør vi lade maskiner oversvømme vores informationskanaler med propaganda og usandheder?
  • Bør vi automatisere alle job væk inklusiv de meningsfulde?
  • Bør vi udvikle ikke-menneskelige hjerner, der måske i sidst ende vil være i overtal, være klogere end os, gøre os overflødige og erstatte os?
  • Bør vi risikere at miste kontrollen over vores civilisation?

Pausen skal også bruges til at udviklerne og uafhængige eksperter sammen skal udvikle en række fælles sikkerheds retningslinjer for avanceret kunstig intelligens design og udvikling, der skal overvåges af uafhængige udefrakommende eksperter. ”Kraftfulde kunstige intelligens-systemer bør først udvikles, når vi er sikre på, at konsekvenserne af dem vil blive positive og risiciene til at håndtere,” lyder formuleringen i brevet.

Doomers og deniers

Forskere, researchere, ingeniører og andre, der arbejder med kunstig intelligens, fordeler sig over et bredt spektrum, når det gælder deres forståelse af risici ved kunstig intelligens. I den ene ende finder vi dem, der mener, at risikoen primært handler om fake news og manglende pålidelighed af oplysninger fra kunstig intelligens. De mener som udgangspunkt ikke, at det er sandsynligt eller muligt indenfor en overskuelig fremtid, at den kunstige intelligens bliver intelligent på et menneskeligt niveau.

I den anden ende af spektret finder vi dem, som af den første fløj kaldes ”Doomers”. Folk som Eliezer Yudkowsky, der er overbevist om, at alt arbejde med kunstig intelligens skal stoppe indtil vi forstår teknologien fuldt ud og kan håndtere den. Dette stop skal fungere og håndhæves på internationalt niveau. 

Kunstig intelligens slår os ihjel

Eliezer Yudkowsky, der kalder sig selv ”decision theorist” (beslutningsteoretiker) og forskningsleder på Machine Intelligence Research Institute.  Yudkowsky har arbejdet med det, The Alignment Problem siden 2001. 

The Alignment problem er den formodning, at den kunstige intelligens’ mål og interesser ikke nødvendigvis er de samme som menneskehedens og at det i sidste ende kan skade eller ligefrem udrykke menneskeheden.  Nick Bostrom, professor i filosofi ved Oxford University, har i sin bog ”Superintelligence” fra 2914 opstillet det mest berømte tankeeksperiment omkring the Alignment Problem: En kunstig intelligens får til opgave at producere papir clips, men ingen rammer for hvor mange eller hvor den skal finde råstoffer og energi til at udføre produktionen. Resultatet er, at den kunstige intelligens i sidste ende bruger menneskeheden som energikilde til dens produktion af papir clips. 

I et indlæg i Times Magazine giver Yudkowsky udtryk for, at han ikke mener, at en pause er nær nok til at få styr på risiciene ved kunstig intelligens. Arbejdet med kunstig intelligens skal ophøre helt.

Pausen omfattende nye store trænings datasæt skal være uden slutdato og være verdensomspændende. Der må ikke være undtagelser, heller ikke for regeringer eller for militær,” skriver Yudkowsky og forsætter: ” Hvis politikken starter med USA, så må Kina sikre, at USA ikke søger at opnå en fordel, men i stedet forsøge af forhindre en frygtelig farlig teknologi, ingen kan have ejerskab over og som vil slå alle i USA, Kina og verden ihjel.”

Hans indlæg går så langt som til at foreslå, at et stop for forskning i kunstig intelligens i sidste ende skal håndhæves med militærmagt. 

Ok, doomer…

Den måske mest åbenmundede kritiker af Yudkowkys dommedags profetier er lederen af kunstig intelligens-forskningen hos META, Yann LeCun. Primært på Twitter og senest ved fx en debat med OpenAIs chefforsker Andrew Ng, har LeCun givet udtryk for, at han mener, at frygten for kunstig intelligens er stærkt overdrevet.

Reaktionen fra AI doomers er ikke bare latterlig. Den er farlig og uetisk,” skrev LeCun på sin Twitter den 1. april 

<blockquote class=”twitter-tweet”><p lang=”en” dir=”ltr”>Rhetoric from AI doomers is not just ridiculous. It&#39;s dangerous and unethical. <a href=”https://t.co/YEiSdtOwxJ”>https://t.co/YEiSdtOwxJ</a></p>&mdash; Yann LeCun (@ylecun) <a href=”https://twitter.com/ylecun/status/1641972453390835712?ref_src=twsrc%5Etfw”>April 1, 2023</a></blockquote> <script async src=”https://platform.twitter.com/widgets.js” charset=”utf-8″></script>

og med bla. tweetet fra den 2. april ”Okay doomer….,” gjorde han det klart, at der ikke var tale om en aprilsnar. 

<blockquote class=”twitter-tweet”><p lang=”en” dir=”ltr”>Okay doomer….</p>&mdash; Yann LeCun (@ylecun) <a href=”https://twitter.com/ylecun/status/1642026963320619008?ref_src=twsrc%5Etfw”>April 1, 2023</a></blockquote> <script async src=”https://platform.twitter.com/widgets.js” charset=”utf-8″></script>

Samme dag uddybede han: 

Den *eneste* grund til at folk hyperventilerer over risikoen ved kunstig intelligens er myten om et ”hard takeoff”: ideen om, at det sekund man tænder for et superintelligent system, så er menneskeheden dødsdømt. 

                      Det er oprørende dumt og baseret på en *fuldstændig* misforståelse af hvordan alting virker.” 

<blockquote class=”twitter-tweet”><p lang=”en” dir=”ltr”>The *only* reason people are hyperventilating about AI risk is the myth of the &quot;hard take-off&quot;: the idea that the minute you turn on a super-intelligent system, humanity is doomed.<br>This is preposterously stupid and based on a *complete* misunderstanding of how everything works.</p>&mdash; Yann LeCun (@ylecun) <a href=”https://twitter.com/ylecun/status/1642524629137760259?ref_src=twsrc%5Etfw”>April 2, 2023</a></blockquote> <script async src=”https://platform.twitter.com/widgets.js” charset=”utf-8″></script>

LeCun referer til det han kalder ”myten om et ”hard takeoff”, der er tanken om, at når først en kunstig intelligens, der selv er i stand til at lære, bliver lige så intelligent som et menneske, så vil dens intelligensniveau derefter øges eksponentielt og derfor hurtigt blive tusind gange mere intelligent end et menneske.

Og så er der Max Tegmark

Et sted i midten finder vi Future of Life-instituttets Max Tegmark, der i en artikel i Time Magazine uddyber sine synspunkter.  I artiklen sammenligner han forskere og virksomheders med Netflix-filmen ”Dont Look Up”. I filmen har et dinosaur-udryddelses-størrelse meteor kurs mod jorden, men influencere, politikere og videnskabsfolk travlt med at sige, at det er vigtigere at koncentrere sig om klimaet end om meteoren. 

Tegmark konstaterer, at en undersøgelse for nyligt at halvdelen af alle dem, der arbejder med kunstig intelligens vurderer, at der er mindst 10% chance for, at kunstig intelligens vil forårsage udryddelse af menneskeheden. Nu kunne man måske med en vis rimelighed forvente, at vi havde nogle svar eller i hvert fald metoder til at handle på problemet, men er Tegmark i sin artikel, men må konstatere, at svaret er nej:

i stedet har de mest indflydelsesrige svar været en kombination af benægtelse, hån og opgivenhed så sort humoristisk at det fortjener en oscar,” siger Max Tegmark i sin artikel.

Tværtimod har vi gået imod alle tidligere konventioner om, hvilke sikkerhedsforanstaltninger, der var påkrævet, når man arbejdede med kunstig intelligens:

  • Lad være med at lære den at kode – (ChatGPT er fremragende til at programmere!)
  • Lad være med at forbinde den til internettet – (søgemaskinerne bruger allerede LLM’er som ChatGPT og BingAI.)
  • Lad være med at give den mulighed for at interagere med andre programmer – (Jep, tjek, det har vi også gjort!)
  • Lad være med at starte et våbenkapløb – (Google, OpenAI, Microsoft og mange andre er allerede dybt involveret i et våbenkapløb på området.)

Se nu op

Max Tegmark afviser på ingen måde de mulige fordele ved en superintelligens. 

Alt hvad jeg elsker ved civilisationen, er et produkt af den menneskelige intelligens, så superintelligens er måske løsningen på sygdom, fattigdom og bæredygtighed og på at hjælpe mennesket blomstre som aldrig før,” skriver Max Tegmark ”ikke bare i den næste valgperiode, men i milliarder af år, og ikke bare på jorden, men i store dele af vores smukke kosmos.

Hans pointe er, at vi ikke står overfor problemet endnu og at hvis vi handler med rettidig omhu, så behøver vi ikke komme i den situation. Og kunstig intelligens vil kunne give os alt det, vi ønsker os og mere til. 

Det kræver bare at vi ser op.

86 views