EU og AI

Dragos Tudorache: Der er et vist element af uundgåelighed ved den såkaldte Bruxelles-effekt


   Læsetid 32 minutter
Array

I skrivende stund er EU AI-forordningen næsten godkendt af Europa-Parlamentet, men loven er en både kompleks og kontroversiel fil, der har skabt stor debat og kritik i medlemslandene, men som også er blevet hilst velkommen af industrien i Europa. Vejen til den færdige forordning har været lang, og den sidste akt skal ikke ses som et færdigt dokument, men udgangspunktet for en fortsat proces.

AI-Portalen har talt med Dragos Tudorache (Renew Europe Gruppen) fra LIBE-udvalget (Komiteen for borgerlige frihedsrettigheder, retlige og indre anliggender), der var ordfører for AI-forordningen i Europa Parlamentet, og efter hans mening repræsenterer loven en balance mellem beskyttelse af forbrugerrettigheder og samfundsværdier og et fokus på innovation og vækst i AI-økosystemet i EU.

Dragos Tudorache er vicepræsident for Renew Group i Europa-Parlamentet og formanden for Special Committee on Artificial Intelligence in the Digital Age (AIDA). Han startede sin karriere som dommer i sit hjemland Rumænien og ledede mellem 2000 og 2005 de juridiske afdelinger i OSCE (Organisationen for Sikkerhed og Samarbejde i Europa) og FN-missionerne i Kosovo. Han har haft en række poster i Europa-Kommissionen, før han blev valgt til Europa-Parlamentet i 2019.

Efter hans mening er det ikke AI-forordningen eller nogen anden del af EU’s digitale dagsorden, der vil forhindre europæiske virksomheder i økosystemet i at få succes eller være i stand til at konkurrere på det internationale marked. Han mener også, at loven giver en helt ny ramme for at hjælpe især startups og små virksomheder i AI-økosystemet, og EU’s generelle digitale dagsorden giver helt nye forretningsmuligheder. 

Interviewet er redigeret for længde og klarhed. 

Ved du, hvor den risikobaserede tilgang i AI-forordningen opstod?

Jeg tror, det kom fra tidligere arbejde, som kommissionen havde udført, for før 2019 havde kommissionen denne ekspertgruppe på højt niveau om kunstig intelligens, og de prøvede, ligesom mange andre internationale organisationer eller multilaterale fora, fordi der var andre sammenkomster, der kiggede på AI før. OECD, UNESCO, GPAI, der var mange fora som dette, der begyndte at undersøge AI og fremsætte principper for pålidelig AI. Og kommissionen havde gjort det samme gennem denne high level ekspertgruppe. Da de indså, at principper ikke længere var nok, og at der var behov for detgå udover principper og frivilligt engagement, og frivillig overholdelse, og gå til hård lov, så stillede de spørgsmålet, hvad er den bedste måde at gribe det an? Hvordan regulerer man teknologien? Som jeg altid siger, er det et meget sofistikeret stykke teknologi, men det er stadig et værktøj. Det er stadig et værktøj, teknologi. Det er ikke nødvendigvis teknologien selv, der skal være omgivet af regler, men det er brugen af den. Hvordan udvikler du det? Hvordan implementerer du det? Det er der, du kan have risici.

Og det andet element i den oprindelige tankegang var, at vi heller ikke ville overregulere. Vi ville sikre os, at vi kun griber ind, hvis og hvor det var nødvendigt. Forståelse af, at der er en bred base af AI-udvikling derude, som ikke har nogen berøringsflade med menneskers rettigheder eller samfundsmæssige interesser, og derfor bør den være ureguleret. Det bør forblive fri for regulering, fordi du vil have kreativitet, du vil have vækst der. Så ud af al denne tænkning indså de, at den eneste måde at se på anvendelser er at se på de anvendelser, der skaber potentielle skader. Og det er den eneste måde at se på de anvendelser, der skaber potentielle skader eller risici. Det er den risikobaserede tilgang. Hvilke sammenhænge med kunstig intelligens er risikable? Så ud fra det udviklede de hele doktrinen om den risikobaserede tilgang og selve reguleringen. 

Og jeg mener stadig den dag i dag, at det er, måske ville jeg ikke gå så langt som til at sige, at det er den eneste måde, fordi der kan være andre jurisdiktioner, der ville finde på en måde at se det på. Men jeg tror, der er nogle jurisdiktioner, der er villige til at komme ud med en anden vinkel, selv om det ud fra de interaktioner, jeg har haft i løbet af de sidste fire år med bogstaveligt talt, ikke alle, men en hel del lande i verden, der overvejer nu selv hvordan man styrer AI. Efter at have analyseret spørgsmålet kommer alle frem til den samme konklusion, at den eneste måde at forsøge at indføre nogle regler er gennem risiko. fordi det er der, du vil tage fat på risiciene ved teknologien i den måde, den interagerer med samfundet på. 

Men vil du sige, at det også var den amerikanske tilgang? Fordi den måde, jeg læser den lovgivning, der er kommet frem indtil nu, er mere i betydningen principper og standarder, i virkeligheden inden for samfundet, og ikke så meget fokus på risici.

Jeg tror, der ikke er nogen forskel mellem, hvordan USA betragter risiciene ved AI, og hvordan vi betragter det. Faktisk har jeg været til stede i en hel del af debatterne i Kongressen om det. Og faktisk var jeg ret forbløffet over, at jeg kunne lukke øjnene, og jeg bogstaveligt talt følte at jeg sad midt i en debat her i Europa-Parlamentet. Jeg var der, da de afhørte Sam Altman for første gang sidste år. Jeg var der i foråret og ved et par andre lejligheder. Så i virkeligheden, med hensyn til at forstå både fordelene, men også risiciene ved AI, tror jeg ikke, at der er nogen større politisk divergens mellem os og amerikanerne. Dette var også tydeligt i den måde, vi kom overens i TTC-diskussionerne om dette.

Der hvor der er en sondring, er hvad gør du som et næste skridt. Så, okay, hvis du indrømmer, at dette er en teknologi, der kan medføre risici, og risiciene er de samme, diskrimination, bias, i mere eller mindre de samme aktivitetssektorer eller dele af samfundet. Så er spørgsmålet, okay, hvad gør du ved det? Og hvordan adresserer du det? Og det er her, vi er forskellige. Vi er forskellige, nummer et, fordi vi stadig har meget forskellige systemer. Vi har et civilretssystem, hvor du har brug for love, der er meget specifikke, som er meget præskriptive. En dommer kan ikke fungere i det europæiske land uden en lov, der siger, at dette er retten til at gøre det eller en forpligtelse til at gøre det. Der er ikke plads til retslig aktivisme af den slags, som du har i Storbritannien eller USA, som er common law-systemer .

Så det er ét element. Det andet element er også i form af mentalitet og historisk tilgang. USA har været meget mere afslappet med hensyn til at gribe ind i markedet. Hvis de ser ting opstå, hvilket faktisk sker lige nu, hvis du ser de ophavsretssager, der dukker op overalt forbundet med AI, kommer fra forfattere eller indholdsskabere, det vil betyde handling fra Kongressen. Hvis du spørger mig, hvad der bliver det første stykke AI-regulering, der kommer ud af den amerikanske kongres, tror jeg, det kommer til at handle om ophavsretsspørgsmål. Hvorfor? Fordi samfundet bevæger sig, markedet bevæger sig, og så begynder domstolene at gribe ind og supplere den manglende lovgivning gennem deres afgørelser. Og så reagerer Kongressen måske.

Så det er også en forskel i måden, vi griber det an på. Men ellers, hvis du pakker bekendtgørelsen ud, for eksempel udstedt af Biden-administrationen, og du forstår filosofien i den, og mange af de ting, de siger, er den ikke meget forskellig fra, hvad vi siger i AI-loven. Vi valgte at gå via konkrete regler. De valgte alligevel at gå via frivillige tilsagn. Vi tror på, at frivilligt engagement, hvis vi ser på historien om sociale medier og misinformation, så hvis du kun stoler på, at virksomheder gør det rigtige, kommer du til kort. 

Nogle vil sige, at den risikobaserede tilgang, eller rettere definitionerne af de forskellige risikoniveauer, kunne ses som for løs og derfor ikke omfattende nok til, hvad den sigter mod. Hvad er din mening?

Der er mange andre, der siger, at de er for stramme. Som altid er skønhed i beskuerens øje, og der vil være meninger i alle retninger, hvilket jeg tror også er det, der gør vores arbejde så vanskeligt nogle gange, så komplekst, fordi man skal finde mellemvejen mellem så divergerende synspunkter. Jeg tror faktisk , at vi fandt den rigtige balance i at identificere risikokategorierne, for en ting, som vi har prøvet lige fra begyndelsen med denne lov, er at balancere mellem interesserne for at beskytte, rettighederne og værdierne i samfundet, som vi ønsker at beskytte, fra forbindelsen og samspillet med teknologi, og samtidig ikke kvæle innovation. Men omvendt, sæt de rigtige rammer på plads med de rigtige muligheder til faktisk stadig at tilskynde til innovation i Europa, fordi du ikke ønsker, som følge af regulering, at have den effekt, at alle vil migrere og innovere et andet sted. Set med de briller, hvis du ser på det endelige produkt, tror jeg, at balancen i, hvordan vi definerer risikoen, er beregnet til at opnå præcis det. I hvilke sammenhænge AI er en potentiel risiko risiko? Jeg betegner ikke unødigt alle som højrisiko. Der er en test, der skal bestås for derefter at blive betragtet som en høj risiko og derefter gennemgå compliance. Vi har gjort det gennem selvevaluering, igen, for at sænke omkostningerne ved compliance. Det har konstant været en tango, en jonglering med at forsøge at give den rigtige beskyttelse, men også give plads til innovation. Og igen tror jeg, at den balance er der.

Og sidst men ikke mindst , alle de områder med høj risiko, som jeg har identificeret, er alle adaptive og fleksible, fordi vi indser, at vi måske ikke har eller kan fange alt lige nu, hvad AI vil bringe til os. Vi er klar over, at dette skal forblive en meget åben liste, hvor i fremtiden, og vi gav mandatet i teksten til den fremtidige lovgivere, AI-kontoret i samarbejde med kommissionen, til konstant at se på den givne virkeligheden og tilpasse sig. Der vil komme nye risikoområder, som skal på listen. Andre, der måske vil vise sig ikke at være rigtigt kalibrerede, og måske skal vi blive strammere eller måske løsere i den måde, vi definerer dem på. Alt det er åbent for det realitetstjek, der vil komme fra, hvordan markedet vil udvikle sig, og hvordan teknologien vil udvikle sig. 

Men hvordan forsøgte I at skelne mellem store aktører? Der er lige nu en diskussion om, hvorvidt AI-loven faktisk vil hindre de mindre aktører, fordi kravene til kontrol er for strenge.

Igen, det første skridt, vi har taget, er at erkende, at hvis, hvilket er, hvilket lå i parlamentets oprindelige mandat, hvis vi lægger alle foundation-modeller i én spand,Kommer vi til unødvendigt at pålægge de mindre modeller for styre byrder. Derfor differentierede vi først. Men spørgsmålet var stadig, skulle vi ikke have i det mindste et minimum af ansvar for disse modeller? Og i sidste ende er essensen hvorfor. Og det er her størrelsen ikke betyder noget. Det er lige meget, om du er nystartet eller Google. Hvis den model, du producerer, faktisk kan opnå de effekter, som måske er usikre, måske var det ikke overlagt, men så producerer de faktisk den risiko, du gerne vil undgå. Så er ansvaret stadig det samme. Fordi disse modeller vil blive adopteret, og applikationer vil blive bygget på dem i utallige retninger. Så hvis der er noget galt i modellen, hvis modellen begynder at hallucinere på et tidspunkt, så er multiplikationseffekten af denne hallucination enorm, fordi disse modeller er kernen i mange andre systemer og applikationer, der bliver bygget hen ad vejen.

Det er derfor, vi sagde, at der skal være et minimum af ansvar for dem , der skaber disse modeller, uanset om de er store eller små. Vi holdt det, efter vores mening, så meget på et minimum, dette sæt forpligtelser over for de downstream-systemudviklere og applikationsudviklere, som du arbejder med. Du skal videregive visse data til dem, for at de så kan overholde lovgivning efterfølgende, men også nogle grundlæggende gennemsigtigheds- og dokumentationsforpligtelser, når du frigiver disse modeller på markedet. Er de for tunge? Efter min mening er de ikke. Jeg kan ikke sige, at de ikke er ubetydelige. Selvfølgelig er de betydningsfulde. Og hvis du er en startup på tre personer, er det ekstra arbejde, du skal udføre, som du ikke havde på din radar før nu. 

Hvis du vil være ekstra opmærksom, kan du tale med en advokat. Men det er ikke som med GDPR. Med GDPR havde du for det første ingen standarder. Du havde ingen tekniske standarder for GDPR. Hvis du ville forstå GDPR, var du nødt til at tale med en advokat. Det, vi har gjort med AI-loven, er, at nummer et, vi gav et mandat til at udarbejde standarder. Når denne lov får virkning om to år, vil de tekniske standarder være der. Hvilket betyder hvad? Hvilket betyder, at for de to, tre ingeniører, der sidder i en garage og kalder sig startup og udvikler en model, vil de kunne læse de tekniske standarder i et sprog, de kan forstå. De vil kunne forstå, hvad de kan og ikke kan. De behøver faktisk ikke gå hen og banke på hos en advokat for at forstå, hvad teksten kræver, fordi de har de tekniske standarder. Hvilket, igen, de ikke havde med GDPR. 

Det er nummer et. Nummer to, vi arbejder ud fra selvevaluering, ikke tredjepartsvurdering. Så igen, du kan faktisk gøre det på egen hånd. Selvom du er to, tre personer, kan du bare selv vurdere. Du behøver ikke at betale penge for, at nogen kan udføre compliance for dig. Og tre, du kan altid gå hen og banke på hos en sandkasse. Derfor har vi gjort sandkasserne obligatoriske i alle medlemslande. Og vi sagde faktisk, at de skulle gå så meget i dybden som muligt, så granuleret som muligt, endda til kommunalt niveau. Hvorfor? For det ser vi også som en enabler for små virksomheder, der gerne vil være ekstra forsigtige, inden de går på markedet. Okay, jeg forstod de tekniske standarder, men jeg er ikke overbevist. Jeg laver min selvevaluering, jeg er stadig i tvivl. Er jeg højrisiko? Er jeg ikke? Forstår jeg det rigtigt? Jeg vil ikke betale for en advokat. Det har jeg ikke penge til. Fint. Du går til sandkassen. Og den regulator, som du interagerer med der, vil have en forpligtelse til at tage dig i hånden, og der kan du teste dine antagelser. Du ser på de datasæt, du brugte, du kan endda lave supplerende test, og så til sidst går du ud derfra velvidende, at du har pitchet dig selv korrekt, for at gå på markedet. Så igen, det er ikke helt uden besvær, men i det mindste er facilitatorerne der for at gøre det med så få omkostninger som muligt. 

Den måde jeg læste teksten på, var det også et spørgsmål om kontrol, en måde for regulatorer at tjekke, hvor farlige disse modeller er, og også at… på en måde sætte en stopper for det, hvis det er for farligt.

Jeg siger ikke, at effekten af den interaktion ikke til tider kan være, at regulatoren ville sige, hør, den måde, du tænker på din model, eller på din anvendelse skal du passe på med. Jeg mener, du bærer ansvaret, når du går på markedet, men mit råd som regulator er, at der er dine antagelser forkerte, eller at påvirkningen, den måde du ser på virkningen af dette, er forkert, fordi I faktisk kan du have den slags konsekvenser . Faktisk skal du være forsigtig, du ryger ind i højrisikokategorien, eller derfor bliver du nødt til at gøre følgende. Selvfølgelig er det bagefter dit ansvar, om du vælger at lytte eller ikke lytte, men der er ikke et aktivt ansvar eller kompetence ved sandkassen til rent faktisk slå dig tilbage. Faktisk er det mere at arbejde med give dig incitamenter. 

Sandkassen er, i vores fantasi, i det mindste på den måde, vi mente dem som lovgivere, var virkelig steder for sikre forsøg og fejl, om du vil, for sikker innovation. Igen, jeg er usikker på tingene. Jeg vil gerne dobbelttjekke min tankegang. Det kan jeg gøre sammen med regulatoren. Der er ingen dumme spørgsmål. Jeg kan faktisk stille dumme spørgsmål, og tilsynsmyndigheden bliver nødt til at svare på de dumme spørgsmål for at bringe mig så tæt på compliance som muligt, før jeg går på markedet. 

Men som du siger, det kan ikke udelukkes, at der i den proces ville blive afsløret ting ud fra, hvad den model er, som måske fortæller regulatoren, hør, pas på, du producerer et lille monster her. Men igen, bagefter er det stadig hver virksomheds ansvar at beslutte, hvad der skal ske. Hvis de vælger at gå på markedet, og så kommer regulatoren, ikke i sammenhæng med sandkassen, men i egenskab af markedsovervågningsmyndigheden, ind og finder dem på markedet med noget, der ikke er i overensstemmelse med lovgivningen, så vil de anvende sanktionerne efter behov. 

Du har allerede talt lidt om, at når man lytter til debatterne i USA, at europæisk lovgivning nogle gange ser ud til at være vejledende. Anu Bradford kalder det “Bruxelles-effekten”, så hvordan ser du AI-loven, de virkninger, som dette vil have på landene uden for EU?

Jeg tror, der er en uundgåelig Bruxelles-effekt i det. Ikke fordi vi bevidst ville søge efter det eller forsøge at påtvinge verden det, men simpelthen fordi jeg ikke tror, der er mange forskellige måder at regulere AI på i første omgang. Så hvis du beslutter dig, er det første spørgsmål, om du vil regulere. Hvis du beslutter dig for, at du vil regulere, og du kommer til spørgsmålet om hvordan, præcis af de grunde, som jeg nævnte tidligere om den risikobaserede tilgang og alt det der, tror jeg ikke, der er en million måder, du kan gøre på det. Gennemsigtighed er gennemsigtighed overalt. Explainability er det samme overalt. Datanøjagtigheden er den samme overalt. Datastyring er den samme overalt. Derfor, tror jeg, har vi været ret grundige i den måde, vi har behandlet denne lovgivning på, tror jeg det er uundgåeligt.

Praktisk talt kan jeg fortælle dig, at jeg har talt med parlamenterne i lande fra Latinamerika til Asien til Nordamerika og alle verdenshjørner, og alle overvejer lige nu noget, og de ser alle på, hvad vi har gjort. Der er et vist element af uundgåelighed ved den såkaldte Bruxelles-effekt, selvom du ikke aktivt forsøger at fremme den. Og der er også en de facto konsekvens, som kommer fra de standarder, som jeg nævnte tidligere. Fordi standarderne ville være ledende for industrien, så de vil blive produceret i standardsættende organer af industrien, der sidder ved bordet. Det er de samme virksomheder. Hvis man ser på, hvem der sidder i de europæiske standardiseringsorganer, er det de samme virksomheder, der udvikler kunstig intelligens rundt om i verden. Hvis de vil finde en konsensus, fordi de arbejder med konsensus, hvis de vil finde en konsensus om tekniske standarderunder paraplyen af AI-forordningen i de næste to år, fordi det er det mandat, de har, vil de ikke gå og arbejde med forskellige standarder i USA og forskellige standarder i Australien og forskellige standarder i Sydkorea. Hvis de bliver enige og slår sig fast på en standard, vil de kopiere denne standard alle andre steder. 

Tror du, at denne lovgivning, AI-loven, vil sætte Europa tilbage med hensyn til konkurrence og innovation?

Slet ikke. Tværtimod. Og faktisk, selv dem, og der var en smule skeptiske i begyndelsen, som sagde, at Europa ville falde endnu længere bagud på grund af denne forordning. Jeg tror, at selv de nu skifter mening. Af to grunde. Først og fremmest er hele forskrækkelsen for, at virksomheder vil løbe væk fra Europa eller ikke bringe produkter på markedet, modbevist. Alle bringer modellerne på markedet, selv med reguleringen på bordet. For det andet skaber eksistensen af standarder faktisk forudsigelighed.

Jeg har hørt dusinvis, hvis ikke hundredvis af virksomheder, sige til mig i løbet af disse fire år, hør her, vi har brug for standarden at arbejde på, for ellers vil der være et kapløb mod bunden. Og vi vil sikre os, at vi ved, hvad der i virkeligheden anses for at være pålidelig AI, så vi ved, hvordan vi arbejder med det. Vi har brug for den standard.

Og for det tredje, og det bliver ofte set bort fra, er der en helt ny enorm mulighed for pålidelige AI-værktøjer og måling. AI kan ikke evalueres af andet end AI. Jeg var i London i sidste uge og talte med det nyetablerede Safety Institute, og de sagde, at de arbejder med AI-værktøjer for at evaluere de store foundation modeller. Det, jeg forsøger at sige, er, at der er en helt ny verden, der faktisk bliver skabt som et resultat af reguleringen af AI-værktøjer, auditing værktøjer, evalueringsværktøjer. Dybest set en ny verden af kunstig intelligens og det økosystem, der vil blive udviklet. Jeg har hørt skøn der siger, at det i 2030 vil udgøre noget i retning af et 2 billioner marked i sig selv . Og jeg tror, det skaber en masse muligheder for virksomheder i Europa, også andre steder, men hvorfor ikke i Europa, for faktisk at begynde at udvikle disse værktøjer og faktisk tilpasse sig denne verden, som skaber mange muligheder, faktisk mange flere efter muligheder efter min mening end benspænd. 

Hvad ser du som Europas styrker på dette marked?

Jeg tror, hvor vi traditionelt har haft vores styrke, var på forskning, på kreativitet,udvikling af idéer, med den svaghed, at vi var meget dårlige til at opskalere tingene.Faktisk er der stadig en masse ideer og kreativitet, der bobler op i Europa, men af mange andre årsager, der ikke har noget at gøre med reguleringen om AI eller DSA [Digital Services Act] eller noget andet . De har at gøre med andre former for regulering og med andre mere dybere rodfæstede kulturelle ting, der er specifikke for os. Jamen, hvorfor har vi sværere ved at starte op? Eller er det sværere ved at opskalere? Eller endda sværere ved at komme til toppen af bjerget, hvad angår udvikling af teknologigiganter? Det har at gøre med vores tilgang til risiko. Vi er ikke på samme måde risikovillige, som andre i andre dele af verden er. Faktisk har vi en kulturel modvilje mod risiko, en større menneskelig aversion, eller hvordan man nu skal udtrykke det, end andre. Også lovgivningen og tilgangen til f.eks. konkurs er noget, der holder os tilbage i Europa. Hvis du går konkurs er det bare synd. Du er død, du er kaput, ingen taler til dig længere. Tag til USA, tag til Silicon Valley, du skal gå konkurs mindst 10 gange for at folk overhovedet begynder at tage dig alvorligt. Det ses som et overgangsritual. En helt anden tankegang omkring risiko og hvad det vil sige at fejle for at lykkes. 

Så er der tilgængeligheden af det, jeg kalder nemme penge, i den forstand at det er penge, som du ikke skal gennem en million hulahopringe og udfylde hundrede ton papirer for, men faktisk bare tage en kop kaffe på Starbucks på hjørnet og finde nogen, der er villig til at give dig 10 mio. Det er den slags adgang til penge: god idé, nemme penge, boom, du har en startup. Det har vi ikke . Vi har ikke de venturekapitalister i Europa, som du har i USA. Eller de statsdrevne innovationspakker, som de har i Kina. Du har de ting, der har holdt os tilbage, og selvom du når et vist niveau, og det handler om hele markedsakkumuleringen, der efterhånden er historisk, så kommer der nogen og køber dig op, uanset hvor stor du er. Og hvem er den der køber dig op? Det er dem der har magten til at købe dig op. Og de er ikke i Europa. Jeg har talt med virksomheder, der har startet ting op i Europa. De bankede på døren til store europæiske virksomheder, som sagde, at vi har ikke penge til at købe dig op. Den slags penge har vi ikke. 

Det er de underliggende årsager til, at Europa stadig er bagud sammenlignet med de andre store spillere på kloden. Det er ikke forordningen, der er kommet ind nu. Og hvis vi vil ændre på tingene, tror jeg, vi skal arbejde på de faktorer. Med finansiering, med konkurslovgivning, med pensionsfonde, for de finansierer faktisk det meste af innovationen i USA. Jeg er stadig overbevist om, at Europa kan være og forsat være en faktor. Og nu vil vi i den nuværende sammenhæng blive tvunget mere og mere til at stå på egne ben og hævde os selv som et fællesskab, som et kontinent. Jeg tror, at det også ville spille en vigtig rolle i forhold til at indse, at vi er nødt til at blive mere seriøse i, hvordan vi nærmer os vores afhængighed af råmaterialer og vores evne til at producere chips, vores økosystem til at stimulere innovation på AI-området, for uden dem vil vi ikke kun være bagud i verden, vil vi ikke være i kapløbet med andre venlige konkurrenter, som det var tilfældet indtil nu, men det kan blive et spørgsmål om overlevelse i en verden, der bliver meget mere aggressiv, isolationistisk. Og Gud forbyde det , hvis en vis person vinder valget på den anden side af dammen i slutningen af dette år, tror jeg, vi får et endnu større chok, der vil sætte os under pres. Jeg ser det også som en mulighed, der vil skubbe os til at hævde os selv på den måde.  

0 notes
25 views

Write a comment...

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *