AI-etik, der kæmper med det brændende et-to-slag af både AI-baserede autonome våbensystemer og udnyttelsen af ​​AI-drevne autonome systemer, der er djævelsk våben

De fantastiske dansende firbenede robotter.

Jeg er sikker på, at du har set de virale videoer af de firbenede robotsystemer, der danser og danser på tilsyneladende dejlige og hundelignende elskede måder. Vi ser ud til at nyde at se disse AI-drevne robotter, når de klatrer over forhindringer og ser ud til at få et delikat fodfæste, når de sidder på toppen af ​​kasser eller efter at være blevet anbragt betænkeligt på berusede toppe af skabe. Deres menneskelige handlere vil til tider stikke eller skubbe til de boltrende firbenede robotter, hvilket virker irriterende uretfærdigt og nemt kan vække din vrede over den frække behandling af disse mastermind-humanoider.

Jeg spekulerer dog på, om du har set de knap så virale videoer af en helt anden kaliber.

Forbered dig.

Der er udbredte videoer, der viser den samme slags firbenede robotter, der er blevet udstyret med udtalte våben af ​​den ene eller anden art.

For eksempel er et maskingevær eller lignende skydevåben monteret oven på en ellers velkendt dansende-og-sprængende robot. Der er en elektronisk forbindelse mellem den firbenede robot og våbnets affyringsmekanisme. Den nu bevæbnede computer-gående anordning er vist skridende over til det sted, hvor et bullseye-mål er blevet placeret, og maskingeværet bliver rat-a-tat affyret voldsomt mod målet. Efter at have sømmet det efterfølgende delvist ødelagte mål, danser og springer den firbenede robot rundt om nærliggende forhindringer og stiller sig op for at gentage den samme handling igen og igen ved andre friske mål.

Ikke helt hvad du måske havde forventet at se. Dette fjerner helt sikkert den munterhed og den relative glæde ved ærligt at se de nuttede firbenede robotter gøre deres ting. Velkommen til den barske virkelighed tilsyneladende harmløs autonome systemer, der bliver konverteret eller transformeret til at blive skarpt bevæbnet. Med en meget stor indsats kan du fra den ene dag til den anden få et velovervejet "ikke-våbenbevæbnet" autonomt system eftermonteret til at indeholde fuld-on våben.

Det er næsten let-peasy under nogle omstændigheder.

Jeg vil diskutere dette ophedet kontroversielle emne og dække de temmelig heftige AI Ethics skrupler, der opstår. Vi tager på en rejse ind i autonome systemer, AI, autonome køretøjer, våbendannelse og en række relaterede etiske AI-kampeproblemer. For min løbende og omfattende dækning af AI-etik og etisk AI, se linket her , linket her, For blot at nævne nogle få.

Lad os starte med nogle grundlæggende nøglesten.

For diskussionens skyld, accepter, at der er to vigtige måder at kategorisere autonome systemer, der er blevet bevæbnet med våben:

1) Autonome våbensystemer (af design)

2) Autonome systemer, der er bevæbnet (efter kendsgerningen)

Der er en vigtig forskel mellem de to kategorier.

I første omgang vil vi definere en autonome våbensystem at være fra starten en computeriseret skabelse, der målrettet er beregnet til at være et våben. Udviklerne havde i tankerne, at de ville udtænke et våben. Deres eksplicitte søgen er at producere et våben. De vidste, at de integreret kunne kombinere våben med det seneste inden for autonome systemteknologier. Dette er et våben, der rider på bølgen af ​​højteknologi, der opnår autonom bevægelse og autonome handlinger (jeg vil uddybe mere detaljeret snart).

I modsætning hertil vil vi i andet tilfælde overveje spørgsmålet om autonome systemer, der overhovedet ikke har nogen særlig hældning mod våben. Det er autonome systemer, der udvikles til andre formål. Forestil dig et autonomt køretøj, såsom en selvkørende bil, der vil blive brugt til at give mobilitet for alle og hjælpe med at reducere de tusindvis af årlige dødsulykker, der sker på grund af menneskelig kørsel og menneskebetjente biler (se min dybdegående dækning på linket her). Ikke et våben ser ud til at være i betragtning for de optimistiske samfundsmæssigt øgede bestræbelser på at få mennesker ud bag rattet og sætte AI i førersædet i stedet.

Men disse uskadelige autonome systemer kan våbengøres, hvis mennesker ønsker at gøre det.

Jeg henviser da til denne anden kategori som autonome systemer, der er bevæbnet. Det autonome system blev oprindeligt og andægtigt udformet til et formentlig ikke-våbenformål. På trods af det, bliver det drømmende altruistiske håb oprejst af nogen et sted, der får den snigende idé, at denne påfund kunne våben. Pludselig er det autonome system, der virkede nuttet, blevet et dødbringende våben ved at mærke en form for våbenfunktioner (såsom de firbenede hundelignende robotter nævnt tidligere, der har et maskingevær eller lignende skydevåben tilføjet til deres funktioner) .

Desværre ender de to kategorier lidt på samme sted, nemlig at give mulighed for at bruge autonome systemer til våben på et potentielt dødeligt grundlag.

Processen med at nå til dette endepunkt vil sandsynligvis være anderledes.

For de direkte våbenbaserede autonome systemer, der var fastgjort som våben, er våbenaspekterne typisk front og center. Man kan sige, at facetterne af det autonome system er viklet rundt om hjørnestenen i det våben, der overvejes. Tænkeprocessen hos udviklerne går lidt i retning af, hvordan et våben kan udnytte fremkomsten af ​​autonome systemer.

Det andet perspektiv er normalt slet ikke den tankegang. Udviklerne ønsker at udlede et state-of-the-art autonomt system, måske til forbedring af menneskeheden. Disse udviklere lægger deres oprigtige hjerte og sjæl i at lave det autonome system. Dette er kernen i deres opfindelse. De forestiller sig måske ikke, at nogen ville tilrane sig eller undergrave deres mirakuløst gavnlige anordning. De er lykkeligt forelskede i de samfundsmæssige fordele, der er forbundet med, at det autonome system formes og produceres.

Lad os på et tidspunkt sige, at tredjeparter indser, at det autonome system kan ændres til at blive bevæbnet. Måske narrer de udviklerne til at lade dem have det autonome system til hvad der hævdes at være høje formål. Bag lukkede døre vælger disse ondsindede snigende at tilføje en våbenkapacitet til det autonome system. Voila, uskyld blev til direkte våben.

Tingene behøver ikke at foregå på den måde.

Måske fik udviklerne at vide, at de udviklede et uskyldigt autonomt system, men de, der finansierede eller dirigerer indsatsen, havde andre formål i tankerne. Måske startede indsatsen for det autonome system faktisk uskyldigt, men da regninger skulle betales, lavede ledelsen en aftale med en finansieringskilde, der vil have de autonome systemer af uhyggelige årsager. En anden mulighed er, at udviklerne vidste, at en senere brug kunne være til våben, men at de regnede med, at de ville krydse den rystende bro, når eller hvis den nogensinde opstod. Etc.

Der er mange og mange forskellige veje til, hvordan det hele foregår.

Du vil måske finde af interesse, som jeg har beskrevet i tidligere spalter, at der er en stigende AI-etik-bevidsthed vedrørende dobbelt anvendelse elementer af moderne kunstig intelligens, se linket her. Lad mig kort bringe dig op i fart.

Et AI-system, der er forudset til det gode, kan nogle gange være på grænsen til det dårlige, måske via nogle ret simple ændringer, og betragtes tilsvarende som værende af dobbelt-brug karakter. I nyhederne for nylig var et AI-system, der blev bygget til at opdage kemikalier, der kunne være dræber, for hvilket udviklerne ønskede at sikre, at vi kunne undgå eller være på vagt over for sådanne uigennemtænkte kemikalier. Det viser sig, at AI'en let kunne tilpasses til hengivent at afsløre disse dræberkemikalier og dermed potentielt tillade onde at vide, hvilke slags kemikalier de potentielt kan lave til deres afgrundsdybe onde planer.

Autonome systemer kan beviseligt passe ind i denne dobbeltbrugsindhylling.

Til en vis grad er det derfor, AI-etik og etisk AI er så afgørende et emne. AI-etikkens forskrifter får os til at forblive på vagt. AI-teknologer kan til tider blive optaget af teknologi, især optimering af højteknologi. De overvejer ikke nødvendigvis de større samfundsmæssige konsekvenser. At have en AI-etik-tankegang og at gøre det integreret i AI-udvikling og -markering er afgørende for at producere passende AI, herunder (måske overraskende eller ironisk nok) vurderingen af, hvordan AI-etik bliver adopteret af virksomheder.

Udover at anvende AI-etiske forskrifter generelt, er der et tilsvarende spørgsmål om, hvorvidt vi skal have love til at regulere forskellige anvendelser af AI. Nye love bliver bandet rundt på føderalt, statsligt og lokalt niveau, der vedrører rækkevidden og arten af, hvordan AI skal udformes. Bestræbelserne på at udarbejde og vedtage sådanne love er gradvist. AI-etik fungerer i det mindste som en overvejet stopklods og vil næsten helt sikkert til en vis grad blive direkte indarbejdet i disse nye love.

Vær opmærksom på, at nogle stejlt hævder, at vi ikke har brug for nye love, der dækker AI, og at vores eksisterende love er tilstrækkelige. Faktisk advarer de om, at hvis vi vedtager nogle af disse AI-love, vil vi underbyde den gyldne gås ved at slå ned på fremskridt inden for AI, der giver enorme samfundsmæssige fordele.

Autonomi og våben som to forskrifter

Der er en slagord, som nogle bruger til at advare om våbenbaserede autonome systemer af alle slags, som bliver opfundet kollektivt som slagtebots.

Dette bringer et yderligere aspekt op, som vi bør overveje.

Skal et autonomt våbensystem og/eller et autonomt system, der er blevet bevæbnet, have en dødelig eller dræbende robotovervægt?

Nogle vil hævde, at vi kan have bestemt ikke-dødelig også våbenbaserede autonome systemer. I det synspunkt ville det således virke dybt upassende at bruge vendinger som slagterobotter eller dræberrobotter. En ikke-dødelig variant vil formodentlig være i stand til at undertrykke eller gennemføre skader, der ikke er af et dødeligt resultat. Sådanne systemer dræber ikke, de har en mindre skadesgenererende kapacitet. Overdriv ikke evnerne, siger dem, der insisterer på, at vi ikke behøver at være optaget af en direkte dræbermaskinetrope.

Derfor kan vi have dette:

  • Dødelige autonome våbensystemer
  • Dødelige autonome systemer, der er blevet bevæbnet
  • Ikke-dødelige autonome våbensystemer
  • Ikke-dødelige autonome systemer, der er blevet bevæbnet

Naturligvis er modargumentet, at ethvert autonomt system, der er blevet våben, ser ud til at have potentialet til at glide ind i dødelighedsområdet, selvom det angiveligt kun er tænkt til brug på en ikke-dødelig basis. De trinvise to-trin med at gå fra ikke-dødelig til dødelig vil hurtigt blive gennemført, når du allerede har fået et våben i hånden midt i et autonomt system. Du ville være hårdt presset for at give en jernbeklædt garanti for, at den ikke-dødelige ikke vil have sat sig ind på den dødelige arena (selvom nogle forsøger at gøre det, i en matematisk lighed).

Før vi kommer meget længere ind i dette overordnede emne om autonome systemer og våbendannelse, kan det være praktisk at påpege noget andet, som selvom det måske er indlysende, ikke nødvendigvis er synligt øverst i sindet.

Her er det:

  • Der er et AI-aspekt, der er en del af det autonome system
  • Der er et våbenaspekt, som er våbensiden af ​​denne ligning
  • AI'en kan også være forbundet med våbnet

Lad os pakke det ud.

Vi vil antage, at nutidens autonome systemer kræver AI som det underliggende computeriserede middel til at frembringe de autonome facetter. Jeg nævner dette, fordi du kunne forsøge at argumentere for, at vi måske bruger ikke-AI-relaterede teknologier og teknikker til at lave de autonome systemer, hvilket selvom det er sandt, ville virke mindre og mindre sandsynligt. Dybest set har AI en tendens til at give mulighed for større niveauer af autonomi, og de fleste udnytter AI high-tech i overensstemmelse hermed.

Okay, så vi har en AI-baseret kapacitet, der på en eller anden måde er infunderet i det autonome system og fungerer til at guide og kontrollere det autonome system.

Hold det lige ved hånden som en tommelfingerregel.

Det er umiddelbart indlysende, at vi også er nødt til at have en form for våben, hvorfor ellers diskuterer vi her emnet autonome systemer , våben. Så ja, åbenbart er der et våben af ​​den ene eller anden art.

Jeg vil ikke dykke ned i den type våben, der kan bruges. Du kan blot erstatte det våben, du tænker på. Der kan være præcise våben. Der kan være masseorienterede destruktive våben. Det kan være noget med kugler eller projektiler. Det kan være noget, der har kemikalier eller atomare flygtige komponenter. Listen er uendelig.

Den yderligere overvejelse er, om AI er forbundet med våben eller ej. AI'en tager måske bare våbnet en tur. I tilfældet med den firbenede robot, der skød med en pistol, bliver pistolen måske affyret af et menneske, der har en fjernbetjening forbundet til udløsningen af ​​våbnet. Den hundelignende robot navigerer i en scene, og så er det op til et fjerntliggende menneske at trykke på aftrækkeren.

På den anden side kan AI'en så at sige være udløseren. AI'en kan være blevet udtænkt til ikke kun at navigere og manøvrere, men også aktivere våbnet. I den forstand gør AI alt fra A til Z. Der er ingen afhængighed af et fjerntliggende menneske til at udføre våbensiden af ​​tingene. AI er programmeret til at gøre det i stedet.

For at præcisere i dette særlige tilfælde af autonome systemer, der er våbenbeskyttede, har vi disse slags muligheder:

  • Autonomt system: AI kører det autonome system helt på egen hånd
  • Autonomt system: AI kører det autonome system, men et menneske-i-løkken kan også gribe ind
  • Våben: Det fjerntliggende menneske styrer våbnet (AI gør det ikke)
  • Våben: AI styrer våbnet, men et menneske-i-løkken kan også gribe ind
  • Våben: AI driver våbnet helt på egen hånd

Jeg har tidligere dækket variationerne af at have et menneske-i-løkken vedrørende autonome systemer og autonome køretøjer, se linket her.

Når du ser de sjove videoer af de dansende og skridende firbenede robotter, formodes de normalt at være robotter, der udelukkende styres af AI'en (nå, det er den sædvanlige eller betragtede korrekte etikette blandt dem, der er dybt i disse spørgsmål). Det er, hvad du også med rette kan antage. Det ved du selvfølgelig ikke med sikkerhed. Det kan være, at en ekstern menneskelig operatør guider robotterne. Der er også en mulighed for, at AI'en udfører en del af vejledningen, og det gør en ekstern menneskelig operatør også, måske hjælper AI'en, hvis robotten kommer i en svær position og ikke kan beregne et levedygtigt middel til at vrikke sig fri.

Essensen her er, at der er adskillige varianter af, hvordan AI og autonome systemer og våbendannelse er i stand til at blive blandet. Nogle har AI, der kører det autonome system, men ikke kører våbnet. Et menneske fjernstyrer måske våbnet. En anden vinkel er, at våbnet måske er aktiveret på forhånd, og det autonome system leverer det aktiverede våben, således at AI ikke deltog direkte i udløsningen af ​​våbnet i sig selv og i stedet fungerede som et leveringskøretøj. Og det kunne være, at AI'en er en legendarisk jack-of-all-trade og også gør hele spektret af autonome systemaspekter til våbenudnyttelsen.

Vælg dit valg.

I mellemtiden skal du vide, at mennesket-i-løkken er en stor faktor, når det kommer til debatter om dette emne.

En skillelinje for nogle er, at hvis AI'en laver målretning og skyder (eller hvad våbnet nu indebærer), så er hele sættet og caboodlen krydset over i no-no-land. Dette adskiller sig tilsyneladende fra de konventionelle affyr-og-glem-våben, der har et på forhånd målrettet menneske-bestemt udvalg, såsom en patruljerende drone, der har et missil klar til at skyde mod et mål, der var allerede valgt af et menneske.

Nogle undrer sig over, hvorfor autonome systemer, der er bevæbnet, ikke altid vil inkludere et menneske-i-løkken gennem hele processen, hvor det autonome system er i en aktivt igangværende status. Det ser ud til, at vi kunne være bedre stillet, hvis et strengt krav var, at alle sådanne våbenbaserede autonome systemer skulle have et menneske-i-løkken, enten for at kunne betjene det autonome system eller for at betjene våbnet (eller for begge dele) . At holde en formodet sikker og stabil menneskelig hånd i denne AI-blanding kan virke fuldstændig klog.

Gør dig klar til en lang liste over grunde til, hvorfor dette ikke nødvendigvis er muligt.

Overvej disse vanskeligheder:

  • Human-in-the-loop er muligvis ikke hurtig nok til at reagere rettidigt
  • Human-in-the-loop har muligvis ikke tilstrækkelig information til at svare pligtskyldigt
  • Human-in-the-loop er muligvis ikke tilgængelig på det nødvendige tidspunkt
  • Human-in-the-loop kan være uafklaret og vil ikke handle, når det er nødvendigt
  • Human-in-the-loop kan træffe den "forkerte" beslutning (relativt)
  • Human-in-the-loop er muligvis ikke tilgængelig fra systemet på det nødvendige tidspunkt
  • Human-in-the-loop kan blive forvirret og blive overvældet
  • Osv

Du er utvivlsomt fristet til at se på listen over menneskelige skrøbeligheder og begrænsninger og så komme til den højtidelige konklusion, at det tilsyneladende giver mening at udskære mennesket-i-løkken og altid i stedet bruge AI. Dette kunne enten være til udelukkelse af mennesket-i-løkken eller måske have AI'en til at tilsidesætte et indgroet menneske-i-løkken-design. Se min analyse af, hvordan uoverensstemmelser mellem AI og et menneske-i-løkken kan føre til usikre situationer, dækket på linket her.

Ofte efterlades en nedsættende liste over denne slags menneskefokuserede ulemper i realtid på egen hånd og efterlader et vedvarende indtryk af, at AI'en på en eller anden måde må være spring og grænser et meget klogere valg end at have et menneske-i-løkken . Gå ikke i den forræderiske fælde. Der er nøgterne afvejninger involveret.

Overvej disse konsekvenser af AI:

  • AI kan støde på en fejl, der får den til at komme på afveje
  • AI kan blive overvældet og låse sig uden respons
  • AI kan indeholde udviklerfejl, der forårsager uregelmæssig adfærd
  • AI kan være beskadiget med implanteret evildoer-virus
  • AI kan blive overtaget af cyberhackere i realtid
  • AI kan betragtes som uforudsigelig på grund af kompleksitet
  • AI kan regnemæssigt træffe den "forkerte" beslutning (relativt)
  • Osv

Jeg stoler på, at du kan se, at der er afvejninger mellem at bruge et menneske-i-løkken i forhold til udelukkende at være afhængig af AI. Hvis du bliver fristet til at foreslå, at den færdige løsning er at bruge begge, vil jeg gerne understrege, at du kan få det bedste fra begge verdener, men du kan også få det værste fra begge verdener. Gå ikke ud fra, at det altid og helt sikkert vil være det bedste fra begge verdener.

Du er måske blevet lidt overrasket over en af ​​de ovennævnte ulemper ved AI, specifikt at AI kan være uforudsigelige. Vi er vant til at tro, at AI formodes at være strengt logisk og matematisk præcis. Som sådan kan du også forvente, at AI vil være fuldt forudsigelig. Vi formodes at vide præcis, hvad AI vil gøre. Periode, slutningen af ​​historien.

Undskyld at sprænge den ballon, men denne myte om forudsigelighed er en misvisende betegnelse. Størrelsen og kompleksiteten af ​​moderne kunstig intelligens er ofte et morads, der trodser at være perfekt forudsigelig. Dette ses i de etiske AI-opstande om nogle af maskinlæring (ML) og Deep Learning (DL) i dag. Jeg vil forklare lidt mere et øjeblik.

Du vil måske også tage et kig på min seneste analyse af de kommende tendenser i retning af at forsøge at sikre verificerbare og matematisk bevisligt korrekte AI-systemer via det seneste inden for AI-sikkerhed, på linket her.

Drøvtygger om færdselsreglerne

Jeg havde nævnt begrebet mål og målretning, som er en temmelig tungt lastet terminologi, der fortjener stor opmærksomhed.

Vi kan overveje dette:

  • Mål, der er mennesker
  • Mål, der ikke er mennesker, men som er levende væsner
  • Mål, der opfattes som ejendom

Antag, at vi har et autonomt system, der er blevet bevæbnet. AI'en bruges til at guide det autonome system og bruges til våben. AI'en gør alt fra A til Z. Der er ingen mulighed for et menneske-i-løkken. Med hensyn til målretning vil AI'en vælge målene. Der er ikke en forudgående målretning, der er blevet etableret af mennesker. I stedet er AI'en blevet programmeret til generelt at fastslå, om der er mennesker, der skal målrettes (måske scanning for fjendtlige handlinger, visse former for uniformer og så videre).

Med mig på dette indtil videre?

Dette scenarie er stort set det, der forårsager mest ramaskrig om våbenbaserede autonome systemer.

Den erklærede bekymring er, at AI'en gør (mindst) tre ting, som den ikke burde have tilladelse til:

  • At målrette mennesker som mål
  • Målretning uden brug af et menneske-i-løkken
  • Virker potentielt uforudsigeligtly

Bemærk, at der er en skarp omtale af bekymringer om, at AI er uforudsigelig. Det kan være, at selvom AI'en var programmeret til at målrette bestemte slags mennesker, er AI-programmeringen ikke, hvad vi troede, den var, og AI'en ender med at målrette mod "venner" ud over dem, som AI'en skulle opfatte som "fjendtlige ” (eller måske i stedet for). Oven i dette, selvom vi vælger at inkludere en human-in-the-loop-bestemmelse, kan AI'ens uforudsigelighed betyde, at når AI'en formodes at konferere med mennesket-i-løkken, så gør den ikke så og handler uden nogen menneskelig indblanding.

Du vil måske finde af interesse, at Den Internationale Røde Kors Komité (ICRC) har fremlagt en trepunkts overordnet holdning om autonome våbensystemer, der uddyber disse typer bekymringer (ifølge ICRC's hjemmeside):

1. "Uforudsigelige autonome våbensystemer bør udtrykkeligt bestemmes ud, især på grund af deres vilkårlige virkninger. Dette ville bedst opnås med et forbud mod autonome våbensystemer, der er designet eller brugt på en sådan måde, at deres virkninger ikke kan forstås, forudsiges og forklares tilstrækkeligt."

2. "I lyset af etiske overvejelser for at beskytte menneskeheden og at opretholde international humanitærrets regler til beskyttelse af civile og kombattanter hors de combat, brug af autonome våbensystemer til at målrette mennesker bør udelukkes. Dette ville bedst opnås gennem et forbud mod autonome våbensystemer, der er designet eller brugt til at udøve magt mod personer."

3. "For at beskytte civile og civile genstande, opretholde reglerne i international humanitær ret og beskytte menneskeheden, bør udformningen og brugen af ​​autonome våbensystemer, som ikke ville være forbudt, reguleres, herunder gennem en kombination af: grænser for måltyperne, såsom at begrænse dem til genstande, der af natur er militære mål; grænser for brugens varighed, geografiske omfang og omfang, herunder for at muliggøre menneskelig dømmekraft og kontrol i forhold til et specifikt angreb; grænser for brugssituationer, såsom at begrænse dem til situationer, hvor civile eller civile genstande ikke er til stede; rkrav til menneske-maskine interaktion, især for at sikre effektiv menneskelig overvågning og rettidig indgriben og deaktivering."

På et relateret synspunkt havde De Forenede Nationer (FN) via konventionen om visse konventionelle våben (CCW) i Genève etableret elleve ikke-bindende vejledende principper om dødelige autonome våben, som pr. Lov eller IHL forbehold):

(a) International humanitær lov gælder fortsat fuldt ud for alle våbensystemer, herunder den potentielle udvikling og brug af dødelige autonome våbensystemer;

(b) Menneskets ansvar for beslutninger om brug af våbensystemer skal bevares, da ansvar ikke kan overføres til maskiner. Dette bør overvejes på tværs af hele våbensystemets livscyklus;

(c) Menneske-maskine interaktion, som kan antage forskellige former og implementeres på forskellige stadier af et våbens livscyklus, bør sikre, at den potentielle brug af våbensystemer baseret på nye teknologier inden for dødelige autonome våbensystemer er i overholdelse af gældende international lov, især IHL. Ved bestemmelse af kvaliteten og omfanget af menneske-maskine-interaktion bør en række faktorer tages i betragtning, herunder den operationelle kontekst og våbensystemets egenskaber og muligheder som helhed;

(d) Ansvarlighed for udvikling, indsættelse og brug af nye våbensystemer inden for rammerne af CCW skal sikres i overensstemmelse med gældende international lov, herunder gennem driften af ​​sådanne systemer inden for en ansvarlig kæde af menneskelig kommando og kontrol;

(e) I overensstemmelse med staternes forpligtelser i henhold til folkeretten skal der ved undersøgelse, udvikling, erhvervelse eller adoption af et nyt våben, middel eller metode til krigsførelse tages stilling til, om dets ansættelse under nogle eller alle omstændigheder vil være forbudt ved international lov;

(f) Ved udvikling eller anskaffelse af nye våbensystemer baseret på nye teknologier inden for dødelige autonome våbensystemer, fysisk sikkerhed, passende ikke-fysiske sikkerhedsforanstaltninger (herunder cybersikkerhed mod hacking eller dataspoofing), risikoen for, at terrorgrupper erhverver sig og risikoen for spredning bør overvejes;

(g) Risikovurderinger og afbødningsforanstaltninger bør være en del af design-, udviklings-, test- og implementeringscyklussen af ​​nye teknologier i alle våbensystemer;

(h) Der bør tages hensyn til brugen af ​​nye teknologier inden for dødelige autonome våbensystemer for at opretholde overholdelse af IHL og andre gældende internationale retlige forpligtelser;

(i) Ved udformning af potentielle politiske foranstaltninger bør nye teknologier inden for dødelige autonome våbensystemer ikke antropomorfiseres;

(j) Drøftelser og eventuelle politiske foranstaltninger truffet inden for rammerne af CCW bør ikke hæmme fremskridt i eller adgang til fredelig anvendelse af intelligente autonome teknologier;

(k) CCW tilbyder en passende ramme til håndtering af spørgsmålet om nye teknologier inden for dødelige autonome våbensystemer inden for rammerne af konventionens mål og formål, som søger at finde en balance mellem militær nødvendighed og humanitære hensyn.

Det dilemma, vi befinder os i

Disse forskellige krigslove, love om væbnet konflikt eller IHL (International Humanitarian Laws) tjener som en vital og altid lovende guide til at overveje, hvad vi kan forsøge at gøre ved fremkomsten af ​​autonome systemer, der er våben, hvad enten det er ved keystone-design eller ved efterfølgende metoder.

Vi kan oprigtigt ønske, at et forbud mod dødelige våbenbaserede autonome systemer ville blive strengt og lydigt overholdt. Problemet er, at en masse slingrende rum er bundet til at finde snildt inden for nogen af ​​de mest oprigtige forbud. Som de siger, regler er beregnet til at blive brudt. Du kan vædde på, at hvor tingene er løssluppende, vil riffraff pirre ud huller og forsøge at blinke-blinke rundt i reglerne.

Her er nogle potentielle smuthuller, der er værd at overveje:

  • Påstande om ikke-dødbringende. Lave ikke-dødelig autonome våbensystemer (tilsyneladende okay, da det er uden for forbudsgrænsen), som du så på en skilling kan skifte til at blive dødelige (du kommer først ud over forbuddet i sidste øjeblik).
  • Kun påstande fra det autonome system. Oprethold forbuddet ved ikke at lave dødelige-fokuserede autonome systemer, i mellemtiden, gør lige så mange fremskridt med at udtænke dagligdags autonome systemer, der ikke (endnu) er våbengjort, men som du for en skilling kan ombygge til at blive våben.
  • Påstande om ikke integreret som én. Lav autonome systemer, der slet ikke er våbenbaserede, og når tiden er inde, piggyback-våben, så du kan forsøge heftigt at argumentere for, at de er to separate elementer og derfor hævde, at de ikke falder ind under rubrikken for en alt-i-en autonome våbensystem eller dets fætter.
  • Påstår, at det ikke er autonomt. Lav et våbensystem, der ikke ser ud til at have autonome kapaciteter. Efterlad plads i dette formentlig ikke-autonome system til at slippe ind af AI-baseret autonomi. Når det er nødvendigt, skal du tilslutte autonomien, og du er klar til at rulle (indtil da har du tilsyneladende ikke overtrådt forbuddet).
  • Andet

Der er masser af andre udtrykte vanskeligheder med at forsøge direkte at forbyde dødelige autonome våbensystemer. Jeg vil dække nogle flere af dem.

Nogle eksperter hævder, at et forbud ikke er særlig nyttigt, og i stedet bør der være lovbestemmelser. Tanken er, at disse ting vil blive tilladt, men strengt overvåget. En lang række lovlige anvendelser er opstillet sammen med lovlige måder at målrette på, lovlige typer af kapaciteter, lovlig proportionalitet og lignende.

Efter deres opfattelse er et direkte forbud som at stikke hovedet i sandet og lade som om, at elefanten i rummet ikke eksisterer. Denne påstand får dog blodet i kog hos dem, der imødegår argumentet om, at ved at indføre et forbud er du i stand til dramatisk at reducere fristelsen til ellers at forfølge denne slags systemer. Nok vil nogle flagre med forbuddet, men forhåbentlig vil de fleste i det mindste ikke. Du kan derefter fokusere din opmærksomhed på flaunterne og ikke behøver at splintre din opmærksomhed til alle.

Disse debatter går rundt og rundt.

En anden ofte nævnt bekymring er, at selvom de gode overholder forbuddet, vil de dårlige ikke. Dette sætter det gode i en elendig holdning. De onde vil have den slags våbenbaserede autonome systemer, og de gode vil ikke. Når først tingene er afsløret, at de dårlige har dem, vil det være for sent for de gode at indhente det. Kort sagt, den eneste kloge ting at gøre er at forberede sig på at bekæmpe ild med ild.

Der er også den klassiske afskrækkelsesstrid. Hvis de gode vælger at lave våbenbaserede autonome systemer, kan dette bruges til at afskrække de onde fra at forsøge at komme i kamp. Enten vil de gode være bedre rustet og dermed afholde de onde, eller også vil de gode være klar, når de onde måske afslører, at de i det skjulte har udtænkt disse systemer hele tiden.

En modsætning til disse tællere er, at ved at lave våbenbaserede autonome systemer, fører du et våbenkapløb. Den anden side vil søge at få det samme. Selvom de er teknologisk ude af stand til at skabe sådanne systemer på ny, vil de nu være i stand til at stjæle de "godes" planer, omvendt konstruere de højteknologiske indvolde eller efterligne, hvad de synes at se som et gennemprøvet og sandt. måde at få arbejdet gjort.

Aha, nogle replikker, alt dette kan føre til en reduktion af konflikter ved en antydning af gensidigt. Hvis side A ved, at side B har de dødelige autonome systemvåben, og side B ved, at side A har dem, kan de sidde fast og ikke komme til at støde. Dette har den distinkte aura af mutually assured destruction (MAD) vibes.

Og så videre.

AI i selvstyre

Lad os sikre os, at vi er på samme side om arten af ​​nutidens AI.

Der er ikke nogen AI i dag, der er sansende. Det har vi ikke. Vi ved ikke, om sansende AI vil være mulig. Ingen kan passende forudsige, om vi vil opnå sansende AI, eller om sansende AI på en eller anden måde mirakuløst spontant vil opstå i en form for computerkognitiv supernova (normalt omtalt som singulariteten, se min dækning på linket her).

Den type AI, som jeg fokuserer på, består af den ikke-sansende AI, som vi har i dag. Hvis vi ville spekulere vildt over sansende AI, denne diskussion kunne gå i en radikal anden retning. En sansende AI ville angiveligt være af menneskelig kvalitet. Du skal overveje, at den sansende AI er den kognitive ækvivalent til et menneske. Mere så, eftersom nogle spekulerer på, at vi måske har superintelligent AI, er det tænkeligt, at sådan AI kan ende med at blive klogere end mennesker (for min udforskning af superintelligent AI som en mulighed, se dækningen her).

Lad os holde tingene mere nede på jorden og overveje nutidens beregningsmæssige ikke-sansende AI.

Indse, at nutidens AI ikke er i stand til at "tænke" på nogen måde på lige fod med menneskelig tænkning. Når du interagerer med Alexa eller Siri, kan samtalekapaciteten virke beslægtet med menneskelige kapaciteter, men virkeligheden er, at den er beregningsmæssig og mangler menneskelig erkendelse. Den seneste æra af AI har gjort omfattende brug af Machine Learning (ML) og Deep Learning (DL), som udnytter computational pattern matching. Dette har ført til AI-systemer, der ser ud som menneskelignende tilbøjeligheder. I mellemtiden er der ikke nogen kunstig intelligens i dag, der har et antydning af sund fornuft og heller ikke noget af den kognitive undren ved robust menneskelig tænkning.

Vær meget forsigtig med at antropomorfisere nutidens AI.

ML/DL er en form for computational pattern matching. Den sædvanlige tilgang er, at du samler data om en beslutningsopgave. Du føder dataene ind i ML/DL-computermodellerne. Disse modeller søger at finde matematiske mønstre. Efter at have fundet sådanne mønstre, hvis det er fundet, vil AI-systemet bruge disse mønstre, når de støder på nye data. Ved præsentationen af ​​nye data anvendes mønstrene baseret på de "gamle" eller historiske data til at gøre en aktuel beslutning.

Jeg tror, ​​du kan gætte, hvor det er på vej hen. Hvis mennesker, der har truffet de mønstrede beslutninger, har inkorporeret uønskede skævheder, er oddsene, at dataene afspejler dette på subtile, men væsentlige måder. Machine Learning eller Deep Learning computational pattern matching vil blot forsøge at matematisk efterligne dataene i overensstemmelse hermed. Der er ingen antydning af sund fornuft eller andre sansende aspekter af AI-fremstillet modellering i sig selv.

Desuden er AI-udviklerne måske heller ikke klar over, hvad der foregår. Den mystiske matematik i ML/DL kan gøre det svært at fjerne de nu skjulte skævheder. Du ville med rette håbe og forvente, at AI-udviklerne ville teste for de potentielt begravede skævheder, selvom dette er vanskeligere, end det måske ser ud til. Der er en solid chance for, at selv med relativt omfattende tests, vil der stadig være skævheder indlejret i mønstermatchningsmodellerne for ML/DL.

Du kunne lidt bruge det berømte eller berygtede ordsprog om skrald-ind skrald-ud. Sagen er, at dette er mere beslægtet med biases-in, der snigende bliver infunderet som skævheder nedsænket i AI. Algoritmebeslutningstagningen (ADM) af AI bliver aksiomatisk fyldt med uligheder.

Ikke godt.

Med den tilføjede grundlæggende baggrund vender vi igen til emnet for autonome systemer og våben. Vi har tidligere set, at AI går ind i den autonome systemkomponent og også kan indgå i våbenkomponenten. AI i dag er ikke sansende. Dette er værd at gentage, og jeg vil fremhæve dette for yderligere indsigt i disse forhold.

Lad os undersøge nogle scenarier for at se, hvordan dette er en afgørende overvejelse. Jeg vil et øjeblik skifte ud af en krigstidsorientering om dette emne og vise, hvordan det gennemsyrer mange andre sociale miljøer. Hold dig i overensstemmelse hermed.

Et AI-baseret autonomt system såsom et autonomt køretøj, som vi vil sige, ikke har noget som helst at gøre med våben, er på vej gennem en normal lokalitet. Et menneske kommer for at gøre brug af det autonome køretøj. Personen er bevæbnet med et forvarende våben. Antag for diskussionens skyld i dette særlige scenarie, at personen har noget unaturligt i tankerne. Personen sætter sig ind i det autonome køretøj (bærende deres våben, skjult eller ikke skjult, begge veje).

Det autonome køretøj fortsætter til den destination, som rytteren har anmodet om. I dette tilfælde transporterer AI'en ganske enkelt programmæssigt denne passager fra ét afhentningssted til en udpeget destination, ligesom den har gjort for muligvis snesevis eller hundredvis af ture hver dag.

Hvis dette havde været en menneskelig chauffør og et menneske-drevet køretøj, er der formentlig en chance for, at den menneskelige fører ville indse, at passageren er bevæbnet og ser ud til at have uheldige hensigter. Den menneskelige fører kan nægte at køre køretøjet. Eller den menneskelige bilist kører måske til politistationen. Eller måske forsøger den menneskelige chauffør at underkue den bevæbnede passager (der findes rapporterede tilfælde) eller afholde passageren fra at bruge deres våben. Det er ret kompliceret, og et vilkårligt antal variationer kan eksistere. Du ville være hårdt presset til at hævde, at der kun er ét rigtigt svar på at løse en sådan knibe. Desværre er situationen irriterende og åbenlyst farlig.

AI i dette tilfælde er usandsynligt at være programmeret til nogen af ​​den slags muligheder. Kort sagt kan den bevæbnede passager muligvis bruge deres våben, hvilket gør det inde fra det autonome køretøj, under kørslen. AI-køresystemet vil fortsætte med at køre med, og det autonome køretøj vil holde kursen mod den angivne betegnelse for passageren (forudsat at destinationen ellers ikke blev betragtet som udenfor området).

De fleste moderne AI-køresystemer ville kun være beregnet med fokus på vejbanen og ikke på rytterens indsats.

Tingene kan blive værre end dette.

Antag, at nogen vil have en masse dagligvarer transporteret over til et sted, der tager ekstra mad til de trængende. Personen anmoder om et autonomt køretøj og placerer dagligvareposerne på bagsædet af køretøjet. De vil ikke tage med på turen og bruger blot det autonome køretøj til at levere madposerne til dem.

Virker helt fint.

Forestil dig, at en elendig person i stedet vælger at placere en form for våben i det autonome køretøj frem for den mere fredelige forestilling om indkøbsposer. Jeg tror, ​​du kan gætte, hvad der kan ske. Dette er en bekymring, som jeg gentagne gange har formanet i mine spalter og advaret om, at vi er nødt til at håndtere før snarere end senere.

Et tilbudt svar på disse typer scenarier er, at måske kunne alle autonome køretøjer programmeres til at gøre brug af deres kameraer og andre sensorer til at forsøge at opdage, om en potentiel passager er bevæbnet og har uhyggelige hensigter. Måske ville AI'en være programmeret til at gøre dette. Eller AI'en advarer elektronisk og lydløst en ekstern menneskelig operatør, der så via kameraerne visuelt og på anden måde vil undersøge og muligvis interagere med passageren. Det er alt sammen en del af en kompleks og potentielt uhåndterlig dåse med orme, sådan at det rejser intense privatlivsproblemer og en overflod af andre potentielle etiske AI-problemer. Se min dækning på linket her.

Et andet noget beslægtet alternativ er, at AI'en indeholder en form for indlejret etisk programmering, der forsøger at gøre AI i stand til at foretage etiske eller moralske vurderinger, som normalt er forbeholdt menneskelige beslutningstagere. Jeg har undersøgt disse brygningstyper af AI-indlejrede beregningsetiske prognostikatorer, se linket her , linket her.

Går tilbage til et slagmarksscenarie, forestil dig, at et dødeligt autonomt våbensystem krydser over en kampzone. AI'en driver det autonome system. AI'en betjener våbnene ombord. Vi havde tidligere tænkt over muligheden for, at AI kunne være programmeret til at scanne efter tilsyneladende fjendtlige bevægelser eller andre indikatorer på menneskelige mål, der anses for at være gyldige kombattanter.

Skal denne samme AI have en slags etisk-orienteret komponent, der stræber efter at regne med at overveje, hvad et menneske-i-løkken kunne gøre, og handle på en måde i stedet for at have et menneske-i-løkken?

Nogle siger ja, lad os forfølge dette. Nogle viger i rædsel og siger, at det enten er umuligt eller på anden måde krænker menneskehedens hellighed.

Endnu en dåse orme.

Konklusion

For dem af jer, der er interesseret i dette emne, er der meget mere, der skal diskuteres.

Jeg vil give dig en hurtig forsmag på en nagende gåde.

Vi forventer normalt, at et menneske i sidste ende vil blive holdt ansvarlig for, hvad der sker under krigstid. Hvis AI styrer et autonomt våbensystem eller styrer et autonomt system, der muligvis er blevet våben, og dette system gør noget på slagmarken, som menes at være samvittighedsløst, hvem eller hvad skal man så bebrejde dette?

Du kan måske argumentere for, at AI bør holdes ansvarlig. Men hvis ja, hvad betyder det så præcist? Vi anser endnu ikke nutidens kunstig intelligens for at være legemliggørelsen af ​​juridisk person, se min forklaring på linket her. Ingen fastgørelse af halen på æslet i tilfælde af AI. Måske hvis AI en dag bliver sansende, kan du prøve at gøre det. Indtil da er dette lidt af en rækkevidde (plus, hvilken slags straffe eller konsekvenser ville AI være udsat for, se min analyse på linket her , linket her, for eksempel).

Hvis AI'en ikke er den ansvarlige mistænkte, kan vi naturligvis sige, at uanset hvilket menneske eller mennesker, der har udtænkt AI'en, skal de holdes ansvarlige. Kan du gøre dette, hvis AI'en kun kørte et autonomt system, og der kom nogle mennesker, der kombinerede det med våben? Går du efter AI-udviklerne? Eller dem, der implementerede AI? Eller bare den våbenskabende skuespiller?

Jeg stoler på, at du forstår, at jeg kun har rørt toppen af ​​isbjerget i min hjertelige diskussion.

For nu, lad os gå videre og afslutte denne diskurs. Du husker måske, at John Lyly i Euphues: The Anatomy Of Wit i 1578 mindeværdigt udtalt, at alt er retfærdigt i kærlighed og krig.

Ville han have haft i tankerne fremkomsten af ​​autonome våbensystemer og ligeledes fremkomsten af ​​autonome systemer, der er våbenbeskyttede?

Vi er bestemt nødt til at sætte dette øverst i vores sind med det samme.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- våbensystemer-og-udnyttelsen-af-ai-drevne-autonome-systemer-der-er-djævelsk-våben/