Hvad er Pentagons opdaterede politik for dræberrobotter?

Pentagon har udstedt en opdatering til direktiv 3000.09, som dækker over, hvad de betegner Autonomi i våbensystemer og andre kalder 'morderobotter.' Nuværende droner som Air Force og CIA MQ-9 Reapers betjenes af fjernbetjening: et menneske sidder foran en videoskærm identificerer mål på jorden tusindvis af kilometer væk, placerer dem i trådkorset og frigiver en Hellfire missil eller andet våben. Autonome våben er forskellige: de vælger deres egne mål uden nogen menneskelig indblanding. Der er brug for klare regler for, hvornår og hvordan de kan bruges, og det nye direktiv bringer dem et skridt nærmere.

For ti år siden, da den første version af 3000.09 blev udgivet, lignede autonome våben science fiction. Nu er de meget virkelige. Det hævdede FN Tyrkisk-forsynede droner angreb mål autonomt i Libyen i 2020, og Rusland udsender nu svævende ammunition i Ukraine med autonom kapacitet.

Mange aktivister, som Kampagne til Stop Killers Robots, ønsker et direkte forbud mod autonome våben, og insisterer på, at ethvert fjernvåben forbliver under meningsfuld menneskelig kontrol på alle tidspunkter. FN har diskuteret, hvordan man kontrollere sådanne våben i mange år.

Men som det nye direktiv gør det klart, holder Pentagon sig til en anden linje.

"DoD har konsekvent modsat sig en politisk standard om 'menende menneskelig kontrol', når det kommer til både autonome systemer og AI-systemer," Gregory Allen, direktør for Project on AI Governance ved Center for strategiske og internationale studier, fortalte mig. "Det foretrukne DoD-udtryk er 'passende niveauer af menneskelig dømmekraft', hvilket afspejler det faktum, at i nogle tilfælde - f.eks. autonome overvågningsfly og nogle former for autonome cybervåben - kan det passende niveau af menneskelig kontrol være lidt eller ingen ."

Hvilke autonome våben ville være tilladt under hvilke omstændigheder? Allen mener, at den tidligere version af direktivet var så uklar, at den modvirkede enhver udvikling på dette område.

"Forvirringen var så udbredt - inklusive blandt nogle DoD seniorledere - at embedsmænd afholdt sig fra at udvikle nogle systemer, der ikke kun var tilladt af politikken, men også udtrykkeligt undtaget fra kravet om seniorgennemgang," siger Allen.

Ikke et eneste våben er blevet indsendt til revisionsprocessen for autonome våben udlagt i den originale 3000.09 i de ti år siden den blev offentliggjort.

Allen skrev en essay om dette for CSIS sidste år, der beskriver fire områder, der krævede arbejde - formelt at definere autonome våbensystemer, at sige, hvad "AI-aktiveret" betyder for politikken, hvordan gennemgangsprocessen vil håndtere omskoling af maskinlæringsmodeller og afklare, hvilke typer våben, der skal gennemgå den besværlige anmeldelsesproces.

"DoD har implementeret dem alle," siger Allen.

I princippet bør dette sikre, hvad DoD udtrykker "stærk og vedvarende forpligtelse til at være en gennemsigtig global leder i at etablere ansvarlige politikker vedrørende militær anvendelse af autonome systemer."

Der er dog nogle tilføjelser, der kan ses som smuthuller, såsom en undtagelse fra seniorrevision for autonome våben, der forsvarer droner, som ikke retter sig mod mennesker ('anti-materiale våben'), og som vil have tilladelse til at målrette missiler, andre droner og potentielt andre systemer.

"Ordet 'forsvar' gør et væld af arbejde," Zak Kallenborn, fortalte en politikstipendiat ved Schar School of Policy and Government ved George Mason University mig. "Hvis en drone opererer i fjendens territorium, kan næsten ethvert våben opfattes som at 'forsvare' platformen."

Kallenborn bemærker også, at selvom effektivt autonome våben som landminer har været i brug i over et århundrede, ændrer landskabet sig hurtigt på grund af fremskridt inden for kunstig intelligens og særlig maskinlæring. Disse har givet anledning til systemer, som er meget dygtige, men teknisk sprøde – når de fejler, fejler de spektakulært på måder, som intet menneske ville f.eks at forveksle en skildpadde for en riffel.

"Autonomi gennem AI fortjener helt sikkert mere bekymring, i betragtning af skørheden og manglen på forklarlighed af de nuværende dominerende tilgange," siger Kallenborn.

Opdateringen er ikke stor. Men det viser Pentagons fortsatte engagement i at udvikle effektive autonome våben og en tro, de kan overholde humanitære folkeret — at skelne civile fra militært personel, forsøge at undgå at skade civile og kun bruge forholdsmæssig og nødvendig magt.

Kampagnefolk mener, at kunstig intelligens ikke vil besidde den nødvendige forståelse til at foretage moralske domme i krigstid og risikerer at skabe en verden, hvor krig er automatiseret, og mennesker ikke længere er i kontrol. Andre mener, at det amerikanske militær vil være det overgået af modstandere med autonome våben medmindre AI er inkorporeret på et taktisk niveau, og det er for meget menneskelig involvering bremser militærrobotter.

Argumentationen vil sandsynligvis fortsætte, selvom autonome våben begynder at dukke op, og resultaterne vil blive fulgt nøje. Uanset hvad, ser det ud til, at dræberrobotterne kommer.

Kilde: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/