Vi bryder os ikke om usikkerhed Som mennesker nedbrydes vi af den. Af konstant tvivl, konstant alarmberedskab, konstant behov for at vurdere, hvad der er ægte, og hvad der er manipulation.
Militær brug af kunstig intelligens rejser et paradoks: Jo mere teknologien bruges til at sortere information og accelerere beslutninger, desto sværere bliver det for offentligheden at forstå, hvem der faktisk har haft kontrol – og på hvilket grundlag.
Krigen mellem Israel og Hamas er blevet et globalt referencepunkt i debatten om militær brug af kunstig intelligens. Ikke fordi autonome våben har overtaget slagmarken, men fordi AI i stor skala er blevet brugt til at accelerere og strukturere militære beslutninger
Palantir som virksomhed og de teknologier, som de arbejder med har sit udgangspunkt i terrorangrebet på New Yorks World Trade Center 11. september 2001 og den efterfølgende krig mod terror.
Militær AI bliver ofte fortalt som et fremtidsscenarie: autonome systemer, maskiner der træffer beslutninger, krig “på autopilot”. I praksis starter forandringen mere prosaisk.
Militær AI bruges allerede til at sortere overvågningsdata, anbefale mål og optimere operationer. Spørgsmålet er ikke kun, om det virker – men hvem der har ansvaret, når “beslutningen” i praksis er formet af et system.
Follow Me