Generativ AI er blevet hverdag. Alligevel tøver mange med at være åbne om deres brug. ,

En skøn morgen sad jeg med min morgenkaffe og åbnede LinkedIn. Algoritmen præsenterede mig for et opslag fra et større dansk konsulentbureau, som gerne ville rådgive andre om brugen af AI. Teksten var velformuleret, rund og strategisk. Men der var tre til fire sproglige træk, som fik mig til at tænke, at teksten enten var skrevet med eller redigeret af et generativt værktøj.
For det første den klassiske kontrastkonstruktion, hvor noget ikke er X, men Y. Det er ikke et projekt, det er en transformation. Det er ikke et værktøj, det er en ny måde at arbejde på. For det andet brugen af den lange tankestreg, som ikke ligger lige for på et dansk tastatur. For det tredje den næsten perfekte ensartethed i afsnittenes længde. For det fjerde den særlige type abstrakt ledelsessprog, som taler om kultur, mod og retning i brede, men relativt ufarlige vendinger.
Jeg skrev i kommentarfeltet, at der var flere ting, der indikerede AI-brug. Ikke for at hænge nogen ud, men som en sproglig observation. Reaktionen var defensiv. Direktøren spurgte Copilot, om teksten var skrevet af et menneske eller AI, og Copilot svarede, at den sandsynligvis var menneskeskrevet. Jeg blev venligt bedt om ikke at se spøgelser.
Dialogen endte fredeligt, men spørgsmålet blev hængende hos mig: Og hvad så, hvis den var skrevet med Copilot? Hvorfor ikke bare sige det? Eller er rådgivningen til kunderne, at de skal bruge kunstig intelligens, men for guds skyld ikke fortælle, at de gør det?
Det var her, jeg begyndte at tænke på det, jeg vil kalde AI-skam. En social tilbageholdenhed. En nedtoning. En skjult praksis. Ikke fordi brugen nødvendigvis er forkert, men fordi man er usikker på reaktionen.
Har du overvejet, hvorfor det føles mere risikabelt at indrømme brugen af AI end brugen af stavekontrol eller PowerPoint?
Jeg har tidligere skrevet om studerende, der undlader at deklarere brugen af generativ AI, selv når retningslinjerne tillader det, så længe brugen er åben og reflekteret. De gør det ikke for at snyde. De gør det, fordi de oprigtigt er i tvivl om, hvordan den enkelte underviser vil reagere. Nogle undervisere ser enhver brug som snyd, selv i situationer hvor institutionens politik er mere nuanceret. Resultatet er en kultur, hvor AI bruges, men ikke tales om.
Tabuer er ikke et nyt fænomen. Sociologen Erving Goffman beskrev allerede i 1963, hvordan mennesker håndterer stigma ved at styre den information, de deler om sig selv. Når en egenskab potentielt kan udløse negativ vurdering, opstår der en strategi for at skjule eller nedtone den. Hvis du ikke ved, hvordan omgivelserne reagerer, regulerer du din åbenhed.
Så kig i spejlet og spørg dig selv: Hvor ærlig tør du være om din egen brug af AI?
Men er det egentlig irrationelt, at nogle mennesker ser al brug af AI som problematisk? Ikke nødvendigvis.
Klassiske studier om menneskers tillid til algoritmer viser, at tillid i høj grad formes af tidligere erfaringer. Har du oplevet en algoritme begå fejl, vil du typisk miste tilliden, også selv om algoritmen samlet set laver færre fejl end mennesker. Omvendt, hvis du oplever en algoritme som objektiv og kompetent, vil du ofte foretrække dens rådgivning frem for menneskelig. Vores vurdering er socialt og kontekstuelt betinget.
Det minder i nogen grad om halo-effekten. Hvis min bankrådgiver er velklædt og taler selvsikkert, kan jeg ubevidst tilskrive ham større kompetence, også på områder jeg ikke selv kan vurdere.
I nogle miljøer er AI-brug et tegn på effektivitet og fremsynethed. I andre miljøer er det et tegn på dovenskab eller manglende faglighed. Det er ikke teknologien alene, der vurderes. Det er den sociale betydning, den tillægges.
Jeg har selv den opfattelse, at AI er kommet for at blive. Det vil øge specialiseringen i samfundet. Det vil gøre det muligt at udføre opgaver hurtigere, især hvis man allerede ved, hvordan de skal udføres. Samtidig vil øget brug af AI skabe yderligere afstand mellem udførsel og læring. Du kan producere noget, der ligner kompetence, uden nødvendigvis at have opbygget den bagvedliggende forståelse.
Her er bekymringen ikke latterlig, men rationel. Hvis læring forudsætter friktion, hvad sker der så, når friktionen reduceres? Hvis skrivning er en måde at tænke på, hvad sker der så, når tænkningen delvist outsources?
Bruger du AI til at tænke hurtigere, eller til at undgå at tænke selv?
Sammenligningen med tidligere værktøjer er fristende. Diktation gjorde det muligt at tale i stedet for at taste. Skrivemaskinen gjorde det muligt at producere rene dokumenter. Word gjorde redigering fleksibel. Stavekontrol fjernede fejl. Ingen skammer sig over at bruge stavekontrol.
Men generativ AI retter ikke blot overfladen. Den kan bidrage til selve indholdet. Den kan formulere argumenter, foreslå dispositioner, generere eksempler. Den kan i princippet levere et helt essay. Og det er efterhånden en del år siden, at det var let at kende forskel på AI-genereret og menneskeskabt tekst.
Det betyder ikke, at al brug er problematisk. Det betyder, at graden af brug er afgørende. Når vi mangler et sprog for graden, opstår misforståelserne. At bruge AI til at få feedback på en disposition er ikke det samme som at få den til at skrive hele opgaven. Men hvis begge dele blot kaldes AI-brug, risikerer de at blive behandlet ens.
Selvom kunstig intelligens ikke er mennesker, kan vi sammenligne brugen af AI med at tage andre mennesker ind som sparringspartnere. Når jeg skriver bøger, får jeg udkast læst igennem. Jeg får kommentarer. Jeg får rettelser. Det opleves ikke som et stigma, men som et signal om grundighed.
Forskellen er, at menneskelig sparring er synlig og relationel. Der er et ansvarligt subjekt. AI-sparring kan opleves som ansigtsløs. Hvis teksten fremstår generisk, glat og uden kant, kan læseren føle sig snydt. Ikke nødvendigvis fordi AI er brugt, men fordi der mangler et menneskeligt aftryk.
Her nærmer vi os måske kernen. AI-skam handler ikke kun om teknologi. Den handler om autenticitet og ansvar. Hvis du bruger AI som sparringspartner, men står ved dine valg, dit budskab og din stemme, er der stadig et tydeligt afsenderansvar. Hvis du gemmer dig bag et output, som ingen rigtig ejer, opstår ubehaget.
Når jeg ser tilbage på min kommentar på LinkedIn, tænker jeg, at den ramte et ømt punkt. Ikke fordi AI-brug i sig selv er forkert, men fordi vi endnu ikke har en fælles norm for åbenhed. I nogle kredse er det blevet et spil at afsløre AI. I andre kredse er det blevet et prestigeprojekt at vise, at man bruger det klogt.
Begge dele kan være problematiske. Det første, fordi det skaber mistænkeliggørelse. Det andet, fordi det kan skabe blind begejstring.
AI-skam forsvinder næppe helt. Men den kan mindskes, hvis vi bliver mere præcise i vores sprog og mere åbne om vores praksis. Ikke ukritisk begejstrede, men heller ikke tavse.
Måske er den mest modne sætning i de kommende år ikke en forsikring om, at teksten er skrevet helt uden AI, hvad det så end betyder. Måske er det snarere en nøgtern konstatering:
Jeg har brugt AI som sparringspartner.
Jeg tager ansvar for det, der står her.

Follow Me