februar 19, 2024

Tech-virksomheder laver symbolsk aftale 

   Læsetid 1 minut
Array

For nyligt udpegede World Economic Forums ”The Global Risk Report 2024” misinformation og desinformation som den største globale risiko. Derfor satte en gruppe af tyve ledende tech-virksomheder sig ned under Munich Security Conference i sidste uge og fandt sammen om en aftale – ”AI Elections accord”.  Blandt de tyve er Meta, Microsoft, Google, Amazon, IBM, OpenAI, Anthropic og Stability AI.

Aftalen baserer sig på syv hovedmål:

  1. Forebyggelse
  2. Herkomst
  3. Sporing
  4. Responsiv beskyttelse
  5. Evaluering
  6. Offentlig bevågenhed
  7. Modstandsdygtighed

Det centrale budskab i aftalen er, at de tyve underskrivende firmaer vil fremme teknologi, der kan spore og modvirke falske materiale genereret med AI. I aftalen taler man om værktøjer som ”metada, vandmærkning og classifiers”, der skal tages i brug. 

Aftalen er dog foreløbigt mest et symbolsk dokument, for teknologierne der skal finde og vandmærke deepfakes er endnu ikke på højde med den teknologi, der bruges at producere materialet. 

Samtidigt lægger aftalen vægt på responsiv beskyttelse – sporing af materiale, der allerede er offentliggjort. Der lægges altså vægt på en responsiv og ikke en proaktiv tilgang til bekæmpelse af falks AI-genereret materiale. Der lægges heller ikke nødvendigvis op til i aftalen, at platformene skal fjerne falsk materiale, men blot markere dem, som falske eller som AI-genereret. 

Skriv et svar

Your email address will not be published.

Seneste nummer

Køb bogen før din nabo!

Bliv medlem

Vi er i gang med at bygge Danmarks første medlemsdrevne medie om AI. Det handler ikke om at få mere indhold. Det handler om at få bedre viden.

Vil du være med? Klik her – og vælg selv, hvordan du vil støtte:

Meld dig til her.

Follow Me