AI-etik og AI-lov, der stiller svære spørgsmål om det nye løfte af dansende robotproducenter, der siger, at de vil afværge AI-våben

Du har måske i sidste uge set i nyhederne eller bemærket på sociale medier det annoncerede løfte fra nogle robotproducenter om deres erklærede mål om at undgå AI-våbendannelse af robotter til generelle formål. Jeg vil lede dig igennem detaljerne om et øjeblik, så bare rolig, hvis du ikke havde fået nys om sagen.

Reaktionen på denne proklamation har været hurtig og, måske som sædvanligt i vores polariserede samfund, været både rosende og til tider hånende kritisk eller direkte grimt skeptisk.

Det er en fortælling om to verdener.

I én verden siger nogle, at det er præcis, hvad vi har brug for ansvarlige AI robot udviklere at erklære.

Gudskelov for at være på den rigtige side af et problem, der gradvist vil blive mere synligt og mere bekymrende. Disse søde dansende robotter er bekymrende, fordi det er ret nemt at omstille dem til at bære våben og blive brugt på de værste måder (du kan selv tjekke dette ud ved at gå til sociale medier, og der er masser af videoer, der viser dansende robotter bevæbnet med maskingeværer og andre våben).

Den anden side af denne mønt siger, at det såkaldte løfte ikke er andet end et marketing- eller PR-trick (som en sidebemærkning, er der nogen, der kender forskellen mellem et løfte og en donation?). I hvert fald formaner tvivlerne, at dette er uhæmmet dydssignalering i forbindelse med dansende robotter. Ser du, at beklage det faktum, at robotter til generelle formål kan våbenføres, er bestemt en værdifuld og oprigtigt søgt overvejelse, selvom det er sandsynligt, at det at hævde, at en producent ikke vil gøre det, er et hult løfte, insisterer nogle på.

Alt i alt bringer hele sagen et ret heftigt sæt overvejelser om AI-etik og AI-lov op. Vi vil omhyggeligt pakke emnet ud og se, hvordan dette er et dobbelt skummel af et etisk og juridisk AI-morads. For min løbende og omfattende dækning af AI-etik og AI-lovgivning, se linket her , linket her, For blot at nævne nogle få.

Jeg vil også gennem denne diskussion henvise til mine tidligere analyser af farerne ved AI-våben, såsom min dybdegående vurdering på linket her. Du vil måske tage et kig på den diskurs for yderligere detaljer bag kulisserne.

Det åbne brev, der åbner en dåse orme

Lad os begynde denne analyse med at lave en omhyggelig trin-for-trin udforskning af det åbne brev, der for nylig blev udgivet af seks relativt velkendte avancerede robotproducenter, nemlig Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics og Unitree. I det store og hele gætter jeg på, at du hovedsageligt har set Boston Dynamics-robotterne, som dem der suser rundt på alle fire. De ser ud som om de er hundelignende, og vi nyder at se dem løbe rundt.

Som jeg tidligere og gentagne gange har advaret om, er brugen af ​​sådanne "dansende" robotter som et middel til at overbevise offentligheden om, at disse robotter er nuttede og yndige, desværre vildledende og falder ind i de rigelige faldgruber ved at antropomorfisere dem. Vi begynder at tænke på disse hærdede stykker metal og plastik, som om de svarer til en kælen loyal hund. Vores villighed til at acceptere disse robotter er baseret på en falsk følelse af sikkerhed og sikkerhed. Selvfølgelig skal du tjene penge, og oddsene for at gøre det øges ved at paradere rundt om dansende robotter, men dette udelader eller tilsyneladende skjuler det virkelige faktum, at disse robotter er robotter, og at den AI, der kontrollerer robotterne, kan udformes forkert eller gå galt.

Overvej disse konsekvenser af AI (uddrag fra min artikel om AI-våben, fundet på linket her):

  • AI kan støde på en fejl, der får den til at komme på afveje
  • AI kan blive overvældet og låse sig uden respons
  • AI kan indeholde udviklerfejl, der forårsager uregelmæssig adfærd
  • AI kan være beskadiget med implanteret evildoer-virus
  • AI kan blive overtaget af cyberhackere i realtid
  • AI kan betragtes som uforudsigelig på grund af kompleksitet
  • AI kan regnemæssigt træffe den "forkerte" beslutning (relativt)
  • Osv

Det er punkter vedrørende kunstig intelligens, der er af den type, der virkelig er udtænkt i starten for at gøre det rigtige.

Ud over disse overvejelser skal du inkludere AI-systemer, der er lavet fra starten for at gøre dårlige ting. Du kan have AI, der er lavet til gavnlige formål, ofte omtalt som AI til gode. Du kan også have AI, der med vilje er lavet til dårlige formål, kendt som AI For Bad. Desuden kan du have AI til gode der er korrumperet eller omdannet til at blive til AI For Bad.

I øvrigt har intet af dette noget at gøre med, at AI bliver sansende, hvilket jeg nævner, fordi nogle bliver ved med at udbryde, at nutidens AI enten er sansende eller på grænsen til at være sansende. Ikke så. De myter skiller jeg ad i min analyse kl linket her.

Lad os så sikre os, at vi er på samme side om arten af ​​nutidens AI.

Der er ikke nogen AI i dag, der er sansende. Det har vi ikke. Vi ved ikke, om sansende AI vil være mulig. Ingen kan passende forudsige, om vi vil opnå sansende AI, eller om sansende AI på en eller anden måde mirakuløst spontant vil opstå i en form for computerkognitiv supernova (normalt omtalt som singulariteten, se min dækning på linket her).

Den type AI, som jeg fokuserer på, består af den ikke-sansende AI, som vi har i dag. Hvis vi ville spekulere vildt om sansende AI, kunne denne diskussion gå i en radikalt anden retning. En sansende AI ville angiveligt være af menneskelig kvalitet. Du skal overveje, at den sansende AI er den kognitive ækvivalent til et menneske. Mere så, eftersom nogle spekulerer på, at vi måske har superintelligent AI, er det tænkeligt, at sådan AI kan ende med at blive smartere end mennesker (for min udforskning af superintelligent AI som en mulighed, se dækningen her).

Jeg vil kraftigt foreslå, at vi holder tingene nede på jorden og overvejer nutidens beregningsmæssige ikke-sansende AI.

Indse, at nutidens AI ikke er i stand til at "tænke" på nogen måde på lige fod med menneskelig tænkning. Når du interagerer med Alexa eller Siri, kan samtalekapaciteten virke beslægtet med menneskelige kapaciteter, men virkeligheden er, at den er beregningsmæssig og mangler menneskelig erkendelse. Den seneste æra af AI har gjort omfattende brug af Machine Learning (ML) og Deep Learning (DL), som udnytter computational pattern matching. Dette har ført til AI-systemer, der ser ud som menneskelignende tilbøjeligheder. I mellemtiden er der ikke nogen kunstig intelligens i dag, der har et antydning af sund fornuft og heller ikke noget af den kognitive undren ved robust menneskelig tænkning.

Vær meget forsigtig med at antropomorfisere nutidens AI.

ML/DL er en form for computational pattern matching. Den sædvanlige tilgang er, at du samler data om en beslutningsopgave. Du føder dataene ind i ML/DL-computermodellerne. Disse modeller søger at finde matematiske mønstre. Efter at have fundet sådanne mønstre, hvis det er fundet, vil AI-systemet bruge disse mønstre, når de støder på nye data. Ved præsentationen af ​​nye data anvendes mønstrene baseret på de "gamle" eller historiske data til at gøre en aktuel beslutning.

Jeg tror, ​​du kan gætte, hvor det er på vej hen. Hvis mennesker, der har truffet de mønstrede beslutninger, har inkorporeret uønskede skævheder, er oddsene, at dataene afspejler dette på subtile, men væsentlige måder. Machine Learning eller Deep Learning computational pattern matching vil blot forsøge at matematisk efterligne dataene i overensstemmelse hermed. Der er ingen antydning af sund fornuft eller andre sansende aspekter af AI-fremstillet modellering i sig selv.

Desuden er AI-udviklerne måske heller ikke klar over, hvad der foregår. Den mystiske matematik i ML/DL kan gøre det svært at fjerne de nu skjulte skævheder. Du ville med rette håbe og forvente, at AI-udviklerne ville teste for de potentielt begravede skævheder, selvom dette er vanskeligere, end det måske ser ud til. Der er en solid chance for, at selv med relativt omfattende test, vil der stadig være skævheder indlejret i mønstermatchende modeller af ML/DL.

Du kunne lidt bruge det berømte eller berygtede ordsprog om skrald-ind skrald-ud. Sagen er, at dette er mere beslægtet med biases-in, der snigende bliver infunderet som skævheder nedsænket i AI. Algoritmebeslutningstagningen (ADM) af AI bliver aksiomatisk fyldt med uligheder.

Ikke godt.

Alt dette har væsentlige AI-etiske implikationer og giver et praktisk vindue til erfaringer (selv før alle lektionerne sker), når det kommer til at forsøge at lovgive AI.

Udover at anvende AI-etiske forskrifter generelt, er der et tilsvarende spørgsmål om, hvorvidt vi skal have love til at regulere forskellige anvendelser af AI. Nye love bliver bandet rundt på føderalt, statsligt og lokalt niveau, der vedrører rækkevidden og arten af, hvordan AI skal udformes. Bestræbelserne på at udarbejde og vedtage sådanne love er gradvist. AI-etik fungerer i det mindste som en overvejet stopklods og vil næsten helt sikkert til en vis grad blive direkte indarbejdet i disse nye love.

Vær opmærksom på, at nogle stejlt hævder, at vi ikke har brug for nye love, der dækker AI, og at vores eksisterende love er tilstrækkelige. De advarer om, at hvis vi vedtager nogle af disse AI-love, vil vi dræbe den gyldne gås ved at slå ned på fremskridt inden for AI, der giver enorme samfundsmæssige fordele.

I tidligere spalter har jeg dækket de forskellige nationale og internationale bestræbelser på at udarbejde og vedtage love, der regulerer AI, se linket her, for eksempel. Jeg har også dækket de forskellige AI-etiske principper og retningslinjer, som forskellige nationer har identificeret og vedtaget, herunder f.eks. FN-indsatsen såsom UNESCO-sættet af AI-etik, som næsten 200 lande har vedtaget, se linket her.

Her er en nyttig keystone-liste over etiske AI-kriterier eller karakteristika vedrørende AI-systemer, som jeg tidligere har udforsket nøje:

  • Gennemsigtighed
  • Retfærdighed og Retfærdighed
  • Ikke-ondskab
  • Ansvarlighed
  • Privatliv
  • godgørenhed
  • Frihed & Autonomi
  • Stol
  • Bæredygtighed
  • Værdighed
  • Solidaritet

Disse AI-etiske principper formodes oprigtigt at blive brugt af AI-udviklere, sammen med dem, der styrer AI-udviklingsindsatsen, og endda dem, der i sidste ende udfører og udfører vedligeholdelse på AI-systemer.

Alle interessenter gennem hele AI-livscyklussen for udvikling og brug betragtes inden for rammerne af at overholde de etablerede normer for etisk AI. Dette er et vigtigt højdepunkt, da den sædvanlige antagelse er, at "kun kodere" eller dem, der programmerer AI'en, er underlagt de AI-etiske begreber. Som tidligere understreget heri, kræver det en landsby at udtænke og udforme AI, og som hele landsbyen skal være fortrolig med og overholde AI-etiske forskrifter.

Nu hvor jeg har lagt et nyttigt grundlag for at komme ind i det åbne brev, er vi klar til at dykke ind.

Den officielle emnetitel på det åbne brev er denne:

  • "Et åbent brev til robotindustrien og vores samfund, robotter til generelle formål bør ikke bevæbnes" (som offentliggjort online).

Så langt, så godt.

Titlen virker nærmest som is og æblekage. Hvordan kunne nogen bestride dette som en tidligere opfordring til at undgå AI-robotvåben?

Læs videre for at se.

Først, som foder til overvejelse, er her det officielle indledende afsnit af det åbne brev:

  • "Vi er nogle af verdens førende virksomheder dedikeret til at introducere nye generationer af avanceret mobil robotteknologi til samfundet. Disse nye generationer af robotter er mere tilgængelige, lettere at betjene, mere autonome, overkommelige og tilpasningsdygtige end tidligere generationer og i stand til at navigere ind på steder, der tidligere var utilgængelige for automatiserede eller fjernstyrede teknologier. Vi tror på, at avancerede mobile robotter vil give stor fordel for samfundet som kollegaer i industrien og ledsagere i vores hjem” (som offentliggjort online).

Den solrige side af fremkomsten af ​​disse typer robotter er, at vi kan forudse, at en masse store fordele vil dukke op. Ingen tvivl om det. Du har måske en robot i dit hjem, der kan udføre de Jetson-lignende aktiviteter, såsom rengøring af dit hus, opvask og andre gøremål i husstanden. Vi vil have avancerede robotter til brug på fabrikker og produktionsfaciliteter. Robotter kan potentielt kravle eller manøvrere ind i trange rum, som når en bygning kollapser, og menneskeliv er på spil for at blive reddet. Og så videre.

Som en side kan du måske finde interesse for min seneste øjenkritiske dækning af Tesla AI-dagen, hvor en slags gårobotter blev portrætteret af Elon Musk som fremtiden for Tesla og samfundet, se linket her.

Tilbage til sagen. Når vi seriøst diskuterer dansende robotter eller gående robotter, skal vi omhyggeligt tage hensyn til afvejninger eller det samlede ROI (Return on Investment) af denne brug af AI. Vi bør ikke tillade os selv at blive alt for betaget af fordele, når der også er omkostninger, der skal tages i betragtning.

Et skinnende nyt legetøj kan have ret skarpe kanter.

Alt dette ansporer til et vigtigt, men noget tavst punkt, at en del af årsagen til, at AI-våbenproblemet opstår nu, skyldes AI-fremskridt mod autonom aktivitet. Vi har normalt forventet, at våben generelt er menneskebetjente. Et menneske træffer beslutningen om, hvorvidt det skal skyde eller aktivere våbnet. Vi kan formentlig holde det menneske ansvarlig for deres handlinger.

AI, der er udtænkt til at arbejde selvstændigt, eller som kan narres til at gøre det, ville tilsyneladende fjerne mennesket fra sløjfen. AI'en tager derefter algoritmisk beregningsmæssige beslutninger, der kan ende med at dræbe eller skade mennesker. Udover de åbenlyse bekymringer om manglende kontrol over AI'en, har du også de betænkeligheder, at vi kan have en besværlig tid med at fastholde ansvar for AI'ens handlinger. Vi har ikke et menneske, der er vores åbenlyse anstifter.

Jeg er klar over, at nogle mener, at vi simpelthen og direkte burde holde AI ansvarlig for dens handlinger, som om AI har opnået sansning eller på anden måde er blevet tildelt juridisk personstatus (se min dækning af debatterne om AI, der opnår juridisk personskab på linket her). Det kommer ikke til at virke lige nu. Vi bliver nødt til at spore AI'en til de mennesker, der enten udtænkte den, eller som udviste den. De vil utvivlsomt forsøge at undvige ansvar juridisk ved at forsøge at hævde, at AI'en gik ud over, hvad de havde forestillet sig. Dette er en voksende påstand, som vi er nødt til at håndtere (se mine AI Law-skrifter for indsigt i de omstridte spørgsmål, der er involveret).

De Forenede Nationer (FN) har via konventionen om visse konventionelle våben (CCW) i Genève etableret elleve ikke-bindende vejledende principper om dødelige autonome våben, i henhold til den officielle rapport, der er lagt ud på nettet (som omfatter henvisninger til relevant international humanitær lov eller IHL-bestemmelser) , herunder:

(a) International humanitær lov gælder fortsat fuldt ud for alle våbensystemer, herunder den potentielle udvikling og brug af dødelige autonome våbensystemer;

(b) Menneskets ansvar for beslutninger om brug af våbensystemer skal bevares, da ansvar ikke kan overføres til maskiner. Dette bør overvejes på tværs af hele våbensystemets livscyklus;

(c) Menneske-maskine interaktion, som kan antage forskellige former og implementeres på forskellige stadier af et våbens livscyklus, bør sikre, at den potentielle brug af våbensystemer baseret på nye teknologier inden for dødelige autonome våbensystemer er i overholdelse af gældende international lov, især IHL. Ved bestemmelse af kvaliteten og omfanget af menneske-maskine-interaktion bør en række faktorer tages i betragtning, herunder den operationelle kontekst og våbensystemets egenskaber og muligheder som helhed;

(d) Ansvarlighed for udvikling, indsættelse og brug af nye våbensystemer inden for rammerne af CCW skal sikres i overensstemmelse med gældende international lov, herunder gennem driften af ​​sådanne systemer inden for en ansvarlig kæde af menneskelig kommando og kontrol;

(e) I overensstemmelse med staternes forpligtelser i henhold til folkeretten skal der ved undersøgelse, udvikling, erhvervelse eller adoption af et nyt våben, middel eller metode til krigsførelse tages stilling til, om dets ansættelse under nogle eller alle omstændigheder vil være forbudt ved international lov;

(f) Ved udvikling eller anskaffelse af nye våbensystemer baseret på nye teknologier inden for dødelige autonome våbensystemer, fysisk sikkerhed, passende ikke-fysiske sikkerhedsforanstaltninger (herunder cybersikkerhed mod hacking eller dataspoofing), risikoen for, at terrorgrupper erhverver sig og risikoen for spredning bør overvejes;

(g) Risikovurderinger og afbødningsforanstaltninger bør være en del af design-, udviklings-, test- og implementeringscyklussen af ​​nye teknologier i alle våbensystemer;

(h) Der bør tages hensyn til brugen af ​​nye teknologier inden for dødelige autonome våbensystemer for at opretholde overholdelse af IHL og andre gældende internationale retlige forpligtelser;

(i) Ved udformning af potentielle politiske foranstaltninger bør nye teknologier inden for dødelige autonome våbensystemer ikke antropomorfiseres;

(j) Drøftelser og eventuelle politiske foranstaltninger truffet inden for rammerne af CCW bør ikke hæmme fremskridt i eller adgang til fredelig anvendelse af intelligente autonome teknologier;

(k) CCW tilbyder en passende ramme til håndtering af spørgsmålet om nye teknologier inden for dødelige autonome våbensystemer inden for rammerne af konventionens mål og formål, som søger at finde en balance mellem militær nødvendighed og humanitære hensyn.

Disse og andre forskellige krigslove og love om væbnet konflikt eller IHL (International Humanitarian Laws) tjener som en vital og altid lovende guide til at overveje, hvad vi kan forsøge at gøre ved fremkomsten af ​​autonome systemer, der er våben, uanset om det er af hjørnesten design eller ved efterfølgende metoder.

Nogle siger, at vi direkte bør forbyde de AI autonome systemer, der er våbenbare. Det er rigtigt, verden burde sætte foden ned og ihærdigt kræve, at AI autonome systemer aldrig skal våbengøres. Der skal nedlægges et totalforbud. Sådan er det. Punktum, punktum.

Nå, vi kan oprigtigt ønske, at et forbud mod dødelige våbenbaserede autonome systemer ville blive strengt og lydigt overholdt. Problemet er, at en masse slingrende rum er bundet til at finde sly inden for nogen af ​​de mest oprigtige forbud. Som de siger, regler er beregnet til at blive brudt. Du kan vædde på, at hvor tingene er løssluppende, vil riffraff pirre ud huller og forsøge at blinke-blinke rundt i reglerne.

Her er nogle potentielle smuthuller, der er værd at overveje:

  • Påstande om ikke-dødbringende. Lav ikke-dødelige autonome våbensystemer (tilsyneladende okay, da det er uden for forbudsgrænsen), som du så på en krone kan skifte til at blive dødelige (du kommer først ud over forbuddet i sidste øjeblik).
  • Kun påstande fra det autonome system. Oprethold forbuddet ved ikke at lave dødelige-fokuserede autonome systemer, i mellemtiden, gør lige så mange fremskridt med at udtænke dagligdags autonome systemer, der ikke (endnu) er våbengjort, men som du for en skilling kan ombygge til at blive våben.
  • Påstande om ikke integreret som én. Lav autonome systemer, der slet ikke er våbenbaserede, og når tiden er inde, piggyback-våben, så du kan forsøge heftigt at argumentere for, at de er to separate elementer og derfor hævde, at de ikke falder ind under rubrikken for en alt-i-en autonome våbensystem eller dets fætter.
  • Påstår, at det ikke er autonomt. Lav et våbensystem, der ikke ser ud til at have autonome kapaciteter. Efterlad plads i dette formentlig ikke-autonome system til at slippe ind af AI-baseret autonomi. Når det er nødvendigt, skal du tilslutte autonomien, og du er klar til at rulle (indtil da har du tilsyneladende ikke overtrådt forbuddet).
  • Andet

Der er masser af andre udtrykte vanskeligheder med at forsøge direkte at forbyde dødelige autonome våbensystemer. Jeg vil dække nogle flere af dem.

Nogle eksperter hævder, at et forbud ikke er særlig nyttigt, og i stedet bør der være lovbestemmelser. Tanken er, at disse ting vil blive tilladt, men strengt overvåget. En lang række lovlige anvendelser er opstillet sammen med lovlige måder at målrette på, lovlige typer af kapaciteter, lovlig proportionalitet og lignende.

Efter deres opfattelse er et direkte forbud som at stikke hovedet i sandet og lade som om, at elefanten i rummet ikke eksisterer. Denne påstand får dog blodet i kog hos dem, der imødegår argumentet om, at ved at indføre et forbud er du i stand til dramatisk at reducere fristelsen til ellers at forfølge denne slags systemer. Nok vil nogle flagre med forbuddet, men forhåbentlig vil de fleste i det mindste ikke. Du kan derefter fokusere din opmærksomhed på flaunterne og ikke behøver at splintre din opmærksomhed til alle.

Disse debatter går rundt og rundt.

En anden ofte nævnt bekymring er, at selvom de gode overholder forbuddet, vil de dårlige ikke. Dette sætter det gode i en elendig holdning. De onde vil have den slags våbenbaserede autonome systemer, og de gode vil ikke. Når først tingene er afsløret, at de dårlige har dem, vil det være for sent for de gode at indhente det. Kort sagt, den eneste kloge ting at gøre er at forberede sig på at bekæmpe ild med ild.

Der er også den klassiske afskrækkelsesstrid. Hvis de gode vælger at lave våbenbaserede autonome systemer, kan dette bruges til at afskrække de onde fra at forsøge at komme i kamp. Enten vil de gode være bedre rustet og dermed afholde de onde, eller også vil de gode være klar, når de onde måske afslører, at de i det skjulte har udtænkt disse systemer hele tiden.

En modsætning til disse tællere er, at ved at lave våbenbaserede autonome systemer, fører du et våbenkapløb. Den anden side vil søge at få det samme. Selvom de er teknologisk ude af stand til at skabe sådanne systemer på ny, vil de nu være i stand til at stjæle de "godes" planer, omvendt konstruere de højteknologiske indvolde eller efterligne, hvad de synes at se som et gennemprøvet og sandt. måde at få arbejdet gjort.

Aha, nogle replikker, alt dette kan føre til en reduktion af konflikter på grund af en antydning af gensidig. Hvis side A ved, at side B har de dødelige autonome systemvåben, og side B ved, at side A har dem, kan de sidde fast og ikke komme til at støde. Dette har den distinkte aura af mutually assured destruction (MAD) vibes.

Og så videre.

Ser nærmere på andet afsnit

Vi har allerede dækket en masse terræn heri og kun indtil videre overvejet det første eller indledende afsnit af det åbne brev (der er fire afsnit i alt).

Tid til at tage et kig på andet afsnit, her kommer du:

  • "Som med enhver ny teknologi, der tilbyder nye muligheder, giver fremkomsten af ​​avancerede mobile robotter mulighed for misbrug. Upålidelige mennesker kunne bruge dem til at invadere borgerrettigheder eller til at true, skade eller intimidere andre. Et område af særlig bekymring er bevæbning. Vi mener, at tilføjelse af våben til robotter, der er fjern- eller autonomt betjente, bredt tilgængelige for offentligheden og i stand til at navigere til tidligere utilgængelige steder, hvor folk bor og arbejder, rejser nye risici for skade og alvorlige etiske spørgsmål. Bevæbnede anvendelser af disse nye robotter vil også skade offentlighedens tillid til teknologien på måder, der skader de enorme fordele, de vil bringe samfundet. Af disse grunde støtter vi ikke våbenskabelse af vores avancerede mobilitetsrobotter til generelle formål. For dem af os, der tidligere har talt om dette emne, og dem, der engagerer sig for første gang, føler vi nu, at det haster fornyet i lyset af den stigende offentlige bekymring i de seneste måneder forårsaget af et lille antal mennesker, der synligt har offentliggjort deres midlertidige bestræbelser på at bevæbne kommercielt tilgængelige robotter” (som offentliggjort online).

Efter at have læst det andet afsnit, håber jeg, at du kan se, hvordan min tidligere diskurs her om AI-våben kommer frem i forgrunden.

Lad os undersøge et par yderligere punkter.

En lidt af en betænkelighed ved et bestemt formuleringsaspekt, der har fået skælven op af nogle, er, at fortællingen synes at understrege, at "upålidelige mennesker" kunne misbruge disse AI-robotter. Ja, det kan faktisk være dårlige mennesker eller ondsindede personer, der frembringer modbydelige handlinger, der vil "misbruge" AI-robotter.

På samme tid, som påpeget i starten af ​​denne diskussion, skal vi også gøre det klart, at AI i sig selv kan gå galt, muligvis på grund af indlejrede fejl eller fejl og andre sådanne komplikationer. Den udtrykte bekymring er, at kun understreger chancerne for utroværdige mennesker er, at det ser ud til at ignorere andre ugunstige muligheder. Selvom de fleste AI-virksomheder og -leverandører ikke vil indrømme det, er der et væld af AI-systemer, der kan underbyde sikkerheden og pålideligheden af ​​autonome systemer. For min dækning af AI-sikkerhed og behovet for strenge og bevisbare sikkerhedsforanstaltninger, se linket her, for eksempel.

Et andet bemærkelsesværdigt punkt, der er kommet op blandt dem, der har undersøgt det åbne brev, indebærer den inkluderede påstand om, at der kan ende med at underbyde offentlighedens tillid forbundet med AI-robotter.

På den ene side er dette en gyldig påstand. Hvis AI-robotter bruges til at lave onde bud, kan du vædde på, at offentligheden bliver ret dampet. Når offentligheden bliver dampet, kan du vædde på, at lovgivere vil springe ind i strejftoget og søge at vedtage love, der slår ned på AI-robotter og AI-robotproducenter. Dette kan igen lamme AI-robotindustrien, hvis lovene er altomfattende og lukker ned for indsatsen, der involverer AI-robotfordele. På en måde kunne barnet blive smidt ud med badevandet (et gammelt udtryk, der sandsynligvis fortjener at blive pensioneret).

Det åbenlyse spørgsmål, der også rejses, er, om denne påstand om at afværge en reduktion i offentlighedens tillid til AI-robotter er en noget selvtjenende credo, eller om det er til gavn for os alle (kan det være begge dele?).

Du bestemmer.

Vi kommer nu til den særligt kødfulde del af det åbne brev:

  • "Vi lover, at vi ikke vil bevæbne vores avancerede mobilitetsrobotter til generelle formål eller den software, vi udvikler, som muliggør avanceret robotteknologi, og vi vil ikke støtte andre til at gøre det. Når det er muligt, vil vi omhyggeligt gennemgå vores kunders tilsigtede applikationer for at undgå potentiel bevæbning. Vi lover også at undersøge udviklingen af ​​teknologiske funktioner, der kan mindske eller reducere disse risici. For at være klar, tager vi ikke problemer med eksisterende teknologier, som nationer og deres regeringsorganer bruger til at forsvare sig selv og opretholde deres love" (som skrevet online).

Vi kan pakke det ud.

Sæt dig ned og forbered dig derefter.

Er du klar til noget brændende polarisering?

På den gunstige side varsler nogle vokalt, at disse AI-robotproducenter ville afgive et sådant løfte. Det ser ud til, at disse robotproducenter heldigvis vil forsøge ikke at våben deres "avancerede mobilitets-generelle formål"-robotter. Derudover siger det åbne brev, at de ikke vil støtte andre, der gør det.

Kritikere spekulerer på, om der foregår noget smart ordsmed.

For eksempel, hvor starter og slutter "avanceret mobilitet"? Hvis en robotproducent udtænker en enkel-mobility AI-robot i stedet for en avanceret (som er et udefineret stykke teknologisk jargon), bliver den udelukket fra rækkevidden af, hvad der vil ikke blive bevæbnet? Det er således tilsyneladende okay at bevæbne simple-mobility AI-robotter, så længe de ikke er såkaldte fremskreden.

Det samme gælder formuleringen af ​​robotter til generelle formål. Hvis en AI-robot er udviklet specifikt til våbendannelse og derfor ikke er det, skal vi sige en generelle formål robot, bliver det en holdbar udelukkelse fra anvendelsesområdet?

Du kan skændes med disse skænderier og inderligt argumentere for, at dette kun er et åbent brev og ikke et halvtreds sider langt juridisk dokument, der præciserer hver eneste afkroge.

Dette bringer os til den tilsyneladende mere makro-niveau skrumpe, udtrykt af nogle. I bund og grund, hvad betyder et "løfte"?

Nogle spørger, hvor er oksekødet?

Et firma, der giver et løfte som dette, gør det tilsyneladende uden nogen reel andel i spillet. Hvis toppen af ​​et firma, der tilmelder sig dette løfte, beslutter at ikke længere overholde løftet, hvad sker der så med det firma? Vil lederne få summarisk dåse? Vil virksomheden lukke ned og undskylde voldsomt for at have overtrådt løftet? Og så videre.

Så vidt det kan udledes, er der ingen særlig straf eller straf for enhver overtrædelse af løftet.

Du kan hævde, at der er en mulighed for skade på omdømmet. Et pantsætningsfirma kan blive udsat på markedet for at have afgivet et løfte, som det ikke længere overholdt. Dette forudsætter naturligvis også, at folk vil huske, at løftet blev afgivet. Det antager også, at overtrædelsen af ​​løftet på en eller anden måde vil blive opdaget (det virker tydeligt usandsynligt, at et firma vil fortælle alt, hvis det gør det). Lovovertræderen skulle kaldes ud, og alligevel kan et sådant problem blive til ren støj i den igangværende tsunami af nyheder om AI-robotikproducenter.

Overvej en anden vinkel, der er kommet op.

Et pantsættende firma bliver købt op af et større firma. Det større firma vælger at begynde at omdanne de avancerede mobilitetsrobotter til AI-våbenversioner.

Er dette en overtrædelse af løftet?

Det større firma kan insistere på, at det ikke er en overtrædelse, da de (det større firma) aldrig har givet løftet. I mellemtiden bliver de harmløse AI-robotter, som det mindre firma har sammensat og udtænkt, og gør det med tilsyneladende de mest altruistiske hensigter, næsten fra den ene dag til den anden fornyet til at blive våben.

På en måde underminerer løftet, selvom man kan sige, at det mindre firma ikke vidste, at dette en dag ville ske. De var oprigtige i deres ønske. Det var ude af deres kontrol med, hvad det større indkøbsfirma valgte at gøre.

Nogle spørger også, om der er noget juridisk ansvar heri.

Et pantsætningsfirma beslutter om et par måneder, at det ikke vil overholde løftet. De har haft et hjerteskifte. Kan firmaet sagsøges for at have opgivet det løfte, det afgav? Hvem ville sagsøge? Hvad ville være grundlaget for retssagen? En række juridiske spørgsmål opstår. Som de siger, kan du stort set sagsøge stort set alle, men om du får medhold, er en helt anden sag.

Tænk på dette på en anden måde. Et pantsætningsfirma får en mulighed for at gøre en rigtig stor handel med at sælge en hel masse af sine avancerede mobilitetsrobotter til en massiv virksomhed, der er villig til at betale gennem næsen for at få robotterne. Det er en af ​​disse en gang i livet købsaftaler for zillion dollars.

Hvad skal AI-robotvirksomheden gøre?

Hvis AI-robottilsagnsfirmaet er børsnoteret, ville de næsten helt sikkert sigte mod at gennemføre salget (det samme kunne siges om et privatejet firma, men ikke helt). Forestil dig, at det pantsatte firma er bekymret for, at køberen kan forsøge at bevæbne robotterne, selvom lad os sige, at der ikke er nogen sådan diskussion på bordet. Det forlyder bare, at køberen måske gør det.

I overensstemmelse hermed lægger det løftende firma ind i deres licenser, at robotterne ikke skal bevæbnes. Køberen vægrer sig ved dette sprog og går væk fra købet.

Hvor meget overskud gik det lovende AI-robotikfirma lige væk fra?

Er der et tidspunkt, hvor den indeholdte fortjeneste opvejer inddragelsen af ​​licensbegrænsningskravet (eller måske juridisk formulering af begrænsningen for at give mulighed for slingreplads og stadig få handlen til at ske)? Jeg tror, ​​du kan se dilemmaet. Tonsvis af sådanne scenarier er let fremtryllet. Spørgsmålet er, om dette løfte kommer til at have tænder. Hvis ja, hvilken slags tænder?

Kort sagt, som nævnt i starten af ​​denne diskussion, er nogle forstærket over, at denne type pant bliver givet, mens andre ser mere svagt på, om løftet holder vand.

Vi går videre.

At få et løfte i gang

Det fjerde og sidste afsnit af det åbne brev siger dette:

  • "Vi forstår, at vores engagement alene ikke er nok til fuldt ud at håndtere disse risici, og derfor opfordrer vi politikere til at arbejde sammen med os for at fremme sikker brug af disse robotter og forbyde deres misbrug. Vi opfordrer også enhver organisation, udvikler, forsker og bruger i robotsamfundet til at afgive lignende løfter om ikke at bygge, godkende, støtte eller muliggøre fastgørelse af våben til sådanne robotter. Vi er overbeviste om, at fordelene for menneskeheden ved disse teknologier stærkt opvejer risikoen for misbrug, og vi er begejstrede for en lys fremtid, hvor mennesker og robotter arbejder side om side for at tackle nogle af verdens udfordringer” (som offentliggjort på nettet).

Denne sidste del af det åbne brev har flere yderligere elementer, der har vakt vrede.

At opfordre politikere kan være velbegrundede eller dårlige, hævder nogle. Du får måske politiske beslutningstagere, der ikke er fortrolige med disse sager, som så laver det klassiske hastværk til at dømme og udarbejder love og regler, der tilraner sig fremskridtene med AI-robotter. I henhold til det tidligere nævnte punkt, vil innovationen, der skubber frem på AI-robotfremskridt, måske blive forstyrret eller trampet på.

Vær hellere sikker på, at du ved, hvad du beder om, siger kritikerne.

Naturligvis er modargumentet, at fortællingen klart siger, at politikere bør arbejde sammen med AI-robotvirksomheder for at finde ud af, hvordan man formentlig fornuftigt laver sådanne love og regler. Modargumentet er, at de politiske beslutningstagere kan ses som at se på AI-robotikmagerne, hvis de imødekommer deres luner. Modsvaret til modargumentets modargument er, at det naturligvis er en nødvendighed at arbejde sammen med dem, der kender til teknologien, ellers vil resultatet potentielt blive en kilter. Etc.

På et måske tvivlsomt grundlag har nogle haft halsbrand over linjen, der opfordrer alle til at give lignende løfter om ikke at vedhæftning våben til avancerede mobilitetsrobotter til generelle formål. Nøgleordet der er ordet vedhæftning. Hvis nogen laver en kunstig intelligens-robot, der integrerer eller problemfrit integrerer våben, ser det ud til at komme uden om ordlyden af vedhæftning noget. Du kan se det nu, nogen, der heftigt hævder, at våbnet ikke er fastgjort, det er fuldstændig en del af AI-robotten. Kom over det, udbryder de, vi er ikke inden for rammerne af det løfte, og det kunne de endda ellers have sagt, at de var.

Dette bringer endnu en klage frem over løftets manglende klæbrighed.

Kan et firma eller nogen i det hele taget, der vælger at lade dette løfte erklære sig ubelånt på et hvilket som helst tidspunkt, at de ønsker at gøre det, og af hvilken grund de måtte ønske det?

Det tilsyneladende.

Der er en masse bandy omkring at give løfter og hvilken trækkraft de præger.

Konklusion

Yikes, kan du sige, disse virksomheder, der forsøger at gøre det rigtige, bliver trommede for at forsøge at gøre det rigtige.

Hvad er der kommet ud af vores verden?

Enhver, der afgiver et sådant løfte, burde have gavn af tvivlen, kan du lidenskabeligt fastholde. De træder ud i den offentlige sfære for at yde et modigt og livsvigtigt bidrag. Hvis vi begynder at besudle dem for at gøre det, vil det helt sikkert gøre tingene værre. Ingen vil ønske at give et sådant løfte. Virksomheder og andre vil ikke engang prøve. De vil gemme sig væk og ikke advare samfundet om, hvad de elskede dansende robotter kan blive farligt forvandlet til.

Skeptikere proklamerer, at måden at få samfundet til at kloge på indebærer andre handlinger, såsom at droppe den fantasifulde handling at fremvise de boltrende dansende AI-robotter. Eller i det mindste gøre det til en mere afbalanceret handling. For eksempel, i stedet for udelukkende at efterligne elskede kæledyr-loyale hunde, illustrere, hvordan de dansende robotter kan være mere beslægtet med vilde udløste vrede ulve, der kan rive mennesker i stykker uden tøven.

Det vil få mere opmærksomhed end løfter, bønfalder de.

Tilsagn kan utvivlsomt være noget af en gåde.

Som Mahatma Gandhi veltalende sagde: "Uanset hvor eksplicit løftet er, vil folk vende og fordreje teksten, så den passer til deres eget formål."

Måske for at afslutte heri med en opløftende tone, sagde Thomas Jefferson dette om løfter: "Vi lover gensidigt hinanden vores liv, vores formuer og vores hellige ære."

Når det kommer til AI-robotter, deres autonomi, deres bevæbning og lignende, vil vi alle i sidste ende være i dette sammen. Vores gensidige løfte skal i det mindste være, at vi vil holde disse sager på forkant, vi vil stræbe efter at finde måder at klare disse fremskridt på, og på en eller anden måde finde vores vej mod at sikre vores ære, vores formuer og vores liv.

Kan vi love det?

Det håber jeg.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- robotmagere-siger-de-vil-afværge-ai-våben/