Baggrund

AI går efter din stemme


Billede: iStock

[post-rt]

TL;DR: Fire hovedpointer:

  • Kunstig intelligens og deepfakes bruges i stigende grad til at skabe og sprede falsk indhold for at påvirke politiske valg og vælgernes opfattelser, hvilket udgør en trussel mod demokratiet.
  • Lande som Rusland, Kina, og muligvis USA, udnytter disse teknologier til at fremme deres egne politiske dagsordener og påvirke valg i andre lande, hvilket øger risikoen for misinformation og desinformation på globalt plan.
  • Der er en mangel på effektiv regulering og værktøjer til at identificere og bekæmpe AI-genereret falsk indhold, hvilket gør det svært at kontrollere spredningen af misinformation og beskytte demokratiske processer.
  • Store techvirksomheder som Google og Meta er begyndt at indgå aftaler og udvikle teknologier for at bekæmpe misinformation og valgpåvirkning, hvilket understreger vigtigheden af branchens ansvar og samarbejde i kampen mod falsk indhold.

Republikanerne har forsøgt at presse ikke-partitilknyttede og Demokratiske vælgere til at deltage i deres primærafstemning. Sikke en gang sludder. Vi kender værdien af at stemme Demokratisk, når vores stemme gør en forskel. Det er vigtigt, at du gemmer din stemme til valget i november. Vi får brug for din hjælp til at få valgt Demokrater på hele stemmesedlen. At stemme denne tirsdag styrker bare Republikanerne i deres mål om at få Donald Trump genvalgt.

Sådan lød det, da en række demokratiske vælgere tilsyneladende fik et opkald fra selveste Præsident Biden. Det var bare ikke Biden, men et såkaldt robocall. Det er ikke noget, der er udbredt i Danmark, men i USA er disse forudindspillede beskeder, der distribueres via en computerstyret autopkaldsfunktion. Ifølge statsadvokaten i New Hampshire er kaldene AI-genererede, sandsynligvis via AI-værktøjet ElevenLabs og udsendt gennem en Texas-baseret teleudbyder, Lingo Telecom. Lingo var hyret af virksomheden Life Corporation ejet af  71-årige Walter Monk, der har ejet en perlerække af virksomheder med speciale i politiske robocalls. 

2024 er året, hvor et rekordantal valg skal afvikles over hele kloden. Mere end 2 mia. vælgere i 50 lande skal til valgurnerne i løbet af 2024. Det inkluderer valget til Europa Parlamentet, der i Danmark afvikles den 9. juni og det amerikanske præsidentvalg til november. Men hvad med sikkerheden omkring valgene? Sociale medier, deep fakes og særligt generativ AI har vist sig, at have uanet potentiale til at påvirke vælgerne. CBS News vurderer, at både Kina, Rusland og Iran vil forsøge at påvirke det amerikanske præsidentvalg. 

En demokratisk trussel

I al demokratiforståelse er dialog en grundlæggende komponent og en forudsætning for et demokratisk system. Selvom vi ikke deltager i den dialog direkte, så er vi alligevel en del af den både løbende via nyheder og måske særligt i forbindelse med valgkampe. Derfor er fake news og deep fakes et alvorligt demokratisk problem. Der er ikke noget nyt i, at forskellige aktører forsøger at få indflydelse på demokratiske valg. Forskellen opstår, når man føjer en faktor som kunstig intelligens (AI) til ligningen. Med særligt generativ AI – i form af sprogmodeller og billed- og videogenererende systemer kan alle begrænse deep fakes og falske nyhedsartikler i næsten ubegrænsede mængder. 

Bo Bergstedt er teknologistrateg hos TV2 og han ser det egentligt ikke som et nyt fænomen. Det er mere det, at det er let at lave i store mængder for alle og enhver.

”Jeg ser det sådan, at det er mængden. Det er det massive tryk af AI-skabt og redigeret indhold. Det er så nemt at lave, at alle kan gøre det og du kan få alle til at sige og gøre alt i en video,” siger Bo Bergstedt.

Han er mere bekymret for, hvad konsekvenserne af det store tryk af falsk indhold bliver.

”Det, der bekymrer mig, som en der arbejder i et firma der laver nyheder, er hvad forbrugerens reaktion vil være. Hvad gør danskerne? Hvad gør alle andre i denne situation?,” siger Bo Bergstedt. ”Jeg tror vi vil se mange mennesker bare vender sig væk fra de sociale medier. De stopper med at bruge Facebook, Twitter/X, Instagram og hvad de ellers har gjort.” 

Så kan man diskutere, hvor alvorligt det er, hvis danskerne vender sig væk fra de sociale medier. Men meget tyder på, at flere og flere får deres nyheder fra de sociale medier og det vil sige, at hvis man ikke længere bruger sociale medier og man heller ikke bruger traditionelle nyhedsmedier, så er det svært at få den information, som er nødvendig for at kunne deltage i den demokratiske dialog også selvom det kun foregår omkring valg.

Paven i hvid dynefrakke

I marts 2023 går billeder af en voldsom arrestation af Donald Trump viralt og kort efter dukker billeder af Pave Francis i en hvid Balenciaga dynefrakke på en række meget overbevisende billeder på nettet. Begge billedserier viser sig dog at være produceret med AI. Hvor den første billedserie måske kan siges at påvirke politisk beslutningstagen hos borgerne, så er den anden billedserie vil forholdsvis uskyldig. Eller er den? Begge billedserier er forkerte billeder af virkeligheden, som er kunstigt produceret, men i en sådan kvalitet, at man sagtens kan blive snydt. Særligt, hvis man ikke har særligt mange nyhedsinput og derfor vil vide, at Donald Trump ikke – på daværende tidspunkt – var blevet anholdt og at paven som udgangspunkt ikke går i Balenciaga eller dynefrakker for den sags skyld. 

Både billederne af Trump og Paven og de falske robocalls med Joe Biden er eksempler på, hvad der er blevet muligt og ikke mindst muligt på et meget lille budget med en meget stor volumen.

”Det er blevet tilgængeligt. Der er meget lidt regulering på plads til at styre det, eller konsekvenser når du har gjort det. Der er samtidig meget lidt software eller AI-modeller i markedet der kan opdage AI-skabt indhold,” sige Bo Bergstedt.

Derfor kan kampagner om Trump, Paven eller Biden få både en stor udbredelse og en stor indflydelse og muligvis også på et valgresultat.

Den perfekte storm

I en artikel på LinkedIn beskriver Jonas Frederiksen, EU rådgiver om finansielle forhold og digital transformations strategi og finans, hvorfor EU Parlamentsvalget 2034 er en perfekt arena for AI manipulation. EU er en union af forskellige lande og forskellige sprog uden en samlende kulturel eller sproglig forståelse, der beskæftiger sig med komplekse, tekniske emner og mængden af kandidater er fuldstændig uoverskuelig. 

Alle medlemsstater har deres egne mediesystemer og forskellige niveauer af medieforståelse og på den måde kan regionale sager antænde medie ”steppebrande” i andre landes medier bla. på grund af manglende forståelse. Samtidigt bruger borgerne i de forskellige stater forskellige sociale medier og falske eller fordrejede historier om fx migration, der vækker resonans på tværs af landene, kan skubbe til den offentlige mening. Og helt grundlæggende er tilliden til EU og EU’s institutioner generelt lav og derfor let at skubbe til.

Selvfølgelig gør Rusland og Kina det

Men hvem er det så, der står bag den AI genererede fake news og deep fakes? Bo Bergstedt mener, at det er utroligt svært at sige noget om. 

”Det er jo enormt svært at få et overblik over, fordi det foregår jo per definition i det skjulte eller i brugernes personaliserede indholdsfeed.” 

Dog mener han, at vi ud fra hvad de forskellige lande er i stand til kan sige noget om, hvem der udfører denne form for manipulation.

”Selvfølgelig gør Rusland og Kina det. Og jeg tror også, USA gør det, selvom vi ikke hører om det i vesten. Jeg tror ikke nødvendigvis, USA går ud og laver en masse deepfake-videoer, men så laver de sikkert mange andre spændende ting på nettet. Jeg tror også, vi vil se Indien, lande i Mellemøsten og andre internationale aktører i stigende grad tage disse metoder og teknologier i brug. Det er nu billigt og nemt at gøre i stor skala, så flere vil selvfølgelig gøre det.” 

Bag AI-genererede fake news og deep fakes, der søger at påvirke Europaparlamentsvalget i 2024, kan der være forskellige aktører. Analyser tyder på, at euroskeptiske bevægelser kan drage fordel af AI-teknologi til at sprede misinformation og styrke deres politiske budskaber. Euroskeptiske partier har traditionelt gennemført smædekampagner mod EU-eliter og pro-EU modstandere, og AI vil sandsynligvis lette skabelsen af sådant indhold, hvilket gør det mere overbevisende efterhånden som teknologien skrider frem.

ENISA’s (EU’s Agentur for Cybersikkerhed) årlige Threat Landscape rapport fremhæver en stigning i brugen af AI-chatbots, deepfakes og lignende teknologi, hvilket antyder, at cyberkriminelle kan udnytte disse værktøjer til at skabe forfalsket indhold, der kan påvirke valget. Disse angreb kan variere fra at skabe overbevisende phishing-e-mails, der efterligner legitime kilder, til at generere deepfakes af stemmer og bruge AI til at mine data til skadelige formål.

Selvom specifikke lande ikke direkte er nævnt i konteksten af Europaparlamentsvalget i 2024, har tidligere valg rundt om i verden vist, at udenlandske aktører, herunder statsstøttede indflydelsesoperationer, kan udnytte AI og deepfakes til at forstærke politisk polarisering, sprede fake news og udøve indflydelse på demokratiske processer. Denne form for indflydelse sigter mod at underminere tilliden til valgprocessen og kan have geopolitiske motiver.

Social Media Platforme: TikTok, ejet af ByteDance, har annonceret, at de vil intensivere kampen mod fake news og skjulte indflydelsesoperationer op til Europaparlamentsvalgene i juni, hvilket indikerer, at sociale medieplatforme også kan spille en rolle i at sprede eller bekæmpe sådant indhold. Platformen planlægger at lancere lokale sprogvalgscentre i alle 27 EU-medlemsstater for at hjælpe brugere med at adskille fakta fra fiktion.

Tidligere forsøg på indflydelse på Europaparlamentsvalgene har omfattet en række forskellige strategier, herunder hack-and-leak operationer og spredning af desinformation. For eksempel har udenlandske aktører, som det Russiske Efterretningsagentur (IRA), været involveret i at målrette valgkampagner med falske nyheder og manipulerede informationer for at påvirke valgresultaterne og undergrave tilliden til den demokratiske proces. Disse handlinger har været en del af større strategier for hybrid krigsførelse, der sigter mod at påvirke offentligheden og skabe splid.

Konsekvenser

Konsekvenserne af påvirkningen kan være alvorlige. Underminering af tilliden til demokratiske processer og institutioner og en opskruet politisk polarisering og det kan i sidste ende betyde mangel på tilslutning til demokratiet og dermed skade demokratiets funktion. 

Men er alle lande lige modtagelige for denne type påvirkning? Ikke nødvendigvis. Forskellige faktorer 

såsom politisk polarisering, tillid til medierne, og det offentliges bevidsthed om misinformation gør en stor forskel for succes med påvirkningsforsøg. Lande med høj grad af politisk polarisering og lav offentlig tillid til traditionelle medier kan være særligt sårbare over for desinformationskampagner. Desuden kan lande med mindre erfaring i at håndtere cybertrusler eller med begrænsede ressourcer til at bekæmpe misinformation også være mere modtagelige.

Undersøgelsen fra Reuters Institute for the Study of Journalism fremhæver, at der i Europa endnu ikke er stærke beviser for, at eksponering for ensidige eller modsatrettede nyheder fører til udbredt polarisering af holdninger. Der er store forskelle i, hvordan folk i Europa vælger nyhedskilder baseret på politiske præferencer, og i hvor høj grad nyhedsudbydere producerer partiske nyheder, hvilket varierer betydeligt fra land til land. Dette antyder, at nogle europæiske lande kan være mere modtagelige for polarisering og dermed muligvis også for påvirkningsforsøg baseret på politisk præference og mediernes partiskhed.

Valg i en postfaktuel verden

Bo Bergstedt mener dog, at det faktum, at vi står overfor et rekordantal valg i 2024 kan være en motivator i kampen mod deep fakes og fake news i det hele taget. I hans arbejde på TV2 har han oplevet hvordan hans kolleger reagerer kraftigt når han (med deres tilladelse) laver deep fakes af dem. Men der sker noget andet, når det er politikere, der ser sig selv som deep fake. Politikere er vant til at handle, når de ser et problem og den overraskelse og måske ovenikøbet vrede ved at se deres billede og stemme misbrugt vil føre til ændringer, hvis man spørger Bo Bergstedt.

”Men hvis du som politiker ser en deep fake af dig selv, der bliver spredt på sociale medier og den ikke bliver fjernet hurtigt nok, så tror jeg at politikere i stigende vil være klar til at sætte ind overfor det firma eller platform hvor indholdet spredes. Jeg tror de store tech-firmaer skal være opmærksomme på, at fløjlshandskerne kommer af, når det har at gøre med falsk indhold med politikere og kendte personer. Fordi de vil føle sig sårbare på en helt anden måde. Vi så det senest med Taylor Swift.” 

Deep fake pornografiske videoer af verdensstjernen Taylor Swift, der blev delt på X, fik for nyligt sat deep fake på dagsordenen globalt. Og vreden er berettiget for det her kan ske for alle og politikere og internationale stjerner i musik- eller filmbranchen er i en helt unik situation for at sætte emnet øverst på dagsordenen. For i virkeligheden handler det ikke bare om skrammer i omdømmet (eller følelsen af skrammer i omdømmet) eller værre vælgerpåvirkning. I realiteten er en deep fake en kriminel handling.

”Jeg synes, at det er underligt, at vi ikke taler om det som identitetstyveri allerede. Det kan der være ret hårde domme for.”

Techgiganterne går sammen

Men det er ikke kun Bo Bergstedt og ByteDance, der har set, at politikere, der føler sig stødt på manchetterne kan sætte skub i tingene. Techgiganterne har indset, at hvis de ikke gør noget selv, så kommer politikerne efter dem. Derfor indgik de i midten af februar i år en aftale med hinanden om at forsøge at modvirke valgpåvirkning gennem misinformation og desinformation. De tyve virksomheder bag aftalen indbefatter Microsoft, Google, Meta, Amazon, OpenAI, Anthropic og Stability AL. I aftalen erklærer de, at de vil fremme teknologi, der kan spore og modvirke mis- og desinformation genereret via AI.

0 notes
74 views

Write a comment...

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *