AI-etik, der kæmper med de uundgåelige AI-ulykker, som også tårner sig op over autonome selvkørende biler

Kender du måske nogen, der ser ud til at være særligt udsat for ulykker?

Det lader til, at vi alle gør det.

Måske er personen den type, der er tilbøjelig til at glide på en bananskræl eller vælte en dyrebar vase i din stue. De er en menneskelig magnet for ulykker af den ene eller anden art. Det kan være så slemt, at du til tider ikke vil være i nærheden af ​​dem. Du kan få det ildevarslende overløb eller lide de uhyggelige følger af en af ​​deres ubehagelige ulykker.

Men måske er vi alt for hårde, når vi antyder, at nogen er mere disponeret for ulykker, end andre er. Et argument kunne fremføres, at ulykker kan ske for enhver af os. Vi er alle underlagt muligheden for at begå eller blive involveret i en ulykke. De bedste af os inkluderet.

Lad os lægge et yderligere irriterende spørgsmål oven på denne diskussion.

Er ulykker uundgåelige?

Med andre ord, uanset hvor hårdt vi måtte forsøge at forhindre ulykker, kan det uløseligt være, at der alligevel stadig er en chance for og en ultimativ sikkerhed for, at ulykker vil ske. Du kan søge at beskytte verden mod ulykker. Det virker utvivlsomt forsigtigt. Men på en eller anden måde vil ulykker stadig rejse deres grimme hoved.

Som de siger, venter ulykker på at ske.

Det kan være nyttigt at præcisere, hvad der menes med at henvise til en begivenhed som passende betegnet som en ulykke. Den sædvanlige ordbogsdefinition er, at en ulykke er en type hændelse, der indtræffer uventet og utilsigtet, hvor der er et uheldigt resultat, der består af en antydning af skade eller tilskadekomst.

Pak omhyggeligt den definition ud.

Den nævnte hændelse er uventet. Det betyder, at vi ikke så ud til at indse, at selve ulykken ville opstå.

Den nævnte hændelse er utilsigtet. Dette tyder på, at vi bør udelukke de omstændigheder, hvor nogen bevidst søgte at få hændelsen til at ske. Hvis en spøgefugl placerer en bananskræl på gulvet, hvor de ved, at en uheldig og intetanende uskyldig vil træde, ville det være svært at påstå, at den person, der snublede over den, havde været ude for en ulykke. De blev i stedet narret og snigende ført i en fælde.

Definitionen omfatter også kriteriet om, at resultatet er uheldigt. En ulykke i dette lys må føre til et surt udfald. Den person, der ved et uheld væltede en vase, har revnet og muligvis beskadiget den smagte genstand, så den ikke kan repareres. Ejeren af ​​vasen tager skade af værditabet. Den person, der løb ind i vasen, skylder muligvis ejeren for tabet. Himlen forbyde, at nogen kunne være blevet skåret eller skrottet ved, at vasen knækkede.

For ligevægtens skyld vil vi måske bemærke, at der også er såkaldte "gode" ulykker. En person kan finde sig selv i stor formue eller opnå en anden vital fordel på grund af resultatet af en ulykke. Et af de mest citerede eksempler består af Sir Alexander Fleming og hans roste opdagelse af penicillin. Historien fortæller, at han var lidt skødesløs i sit laboratorium, og da han vendte tilbage fra en to-ugers ferie, fandt han en form på en af ​​sine kulturplader. Efter sigende sagde han dette om sagen: »Man finder nogle gange, hvad man ikke leder efter. Da jeg vågnede lige efter daggry den 28. september 1928, havde jeg bestemt ikke tænkt mig at revolutionere al medicin ved at opdage verdens første antibiotikum eller bakteriedræber. Men det var vel præcis, hvad jeg gjorde."

Vi vil tilsidesætte de gunstige ulykker og her fokusere på de triste ulykker. Udgaven af ​​rynker i panden af ​​ulykker er, hvor disse negative udfald kan være særligt livstruende eller have besværlige resultater. Så meget som muligt, de negative ulykker, vi ønsker at minimere (og, selvfølgelig, de opadrettede ulykker, vi gerne vil maksimere, hvis det er muligt at gøre, selvom jeg vil dække den smiley face variant i en senere klumme).

Jeg vil gerne omformulere det tidligere spørgsmål om uundgåeligheden af ​​ulykker. Indtil videre har vi holdt vores opmærksomhed på ulykker, der sker i det særlige tilfælde af en enkelt person. Der er ingen tvivl om, at ulykker også kan påvirke en lang række mennesker på én gang. Dette kan især opstå, når mennesker er fordybet i et komplekst system af den ene eller den anden slags.

Gør dig klar til en variant af det tidligere stillede spørgsmål.

Er systemulykker uundgåelige?

Vi bør overveje dette.

Antag, at der er lagt et fabriksgulv ud til at lave dele til biler. Dem, der har designet fabrikken, er, lad os sige, ekstremt bekymrede over arbejdsulykker, der kan opstå. Fabriksarbejdere er forpligtet til at bære hjelm til enhver tid. Skilte på fabrikken opfordrer til at passe på ulykker og være opmærksom i dit arbejde. Der tages alle mulige forholdsregler for at undgå ulykker.

I dette system håber vi måske, at ingen nogensinde kommer ud for en ulykke. Tror du, at der er nul chance for, at der sker en ulykke? Jeg vil vove at foreslå, at ingen fornuftig tænker vil satse på, at chancen for en ulykke er lig nul i dette tilfælde. Oddsene kan være meget lave for en ulykke, men vi ved og antager stadig, at på trods af alle forholdsreglerne er der stadig en lille risiko for, at en ulykke finder sted.

Alt dette peger på ideen om, at i et system med tilstrækkelig kompleksitet er vi bundet til at tro, at ulykker stadig vil ske, uanset hvor hårdt vi prøver at forhindre dem. Vi bakker modvilligt os selv ind i bestemmelsen om, at systemulykker faktisk er uundgåelige. En storslået udtalelse af denne kaliber kan have en advarsel om, at systemet skal være af en eller anden kompleksitetstærskel, således at det i det væsentlige er umuligt at dække alle baser for at forhindre ulykker totalt.

Du er nu pænt trin-for-trin blevet introduceret til en bredt skitseret teori om ulykker, der kan betegnes som Normal Accidents eller Normal Accident Theory (NAT). Her er en praktisk beskrivelse af forskere, der har undersøgt denne forestilling: "I stor nok skala vil ethvert system producere 'normale ulykker'. Disse er uundgåelige ulykker forårsaget af en kombination af kompleksitet, kobling mellem komponenter og potentiel skade. En normal ulykke adskiller sig fra mere almindelige komponentfejlsulykker ved, at de hændelser og interaktioner, der fører til en normal ulykke, ikke er forståelige for operatørerne af systemet" (som angivet i "Forstå og undgå AI-fejl: En praktisk vejledning" af Robert Williams og Roman Yampolskiy, filosofier tidsskrift).

Grunden til, at jeg har bragt dig til det såkaldte land normale ulykker er, at vi måske skal omhyggeligt anvende denne teori på noget, der gradvist og uundgåeligt er ved at blive allestedsnærværende i vores samfund, nemlig fremkomsten af ​​kunstig intelligens (AI).

Lad os grave i det her.

Nogle mennesker antager fejlagtigt, at AI vil være perfektion. AI-systemer vil ikke lave fejl og får os ikke i problemer, lyder spekulationerne. Alt du skal gøre er at sikre dig, at disse AI-udviklere gør et godt nok stykke arbejde, og voila, AI vil aldrig gøre noget, der kan opfattes som et uheld eller forårsage en ulykke.

Ikke så hurtigt på den hypotetiske tro. Hvis du er villig til at købe ind i teorien om normale ulykker, vil enhver AI af enhver væsentlig kompleksitet uundgåeligt medføre en ulykke. Uanset hvor meget AI-udviklere laver sent om natten for at forhindre en ulykke, vil AI'en helt sikkert på et tidspunkt blive involveret i en ulykke. Det er den måde, kagen smuldrer. Og der er ingen pusterum ved at græde i vores spildte mælk over det.

Overvej mashup af AI og de konceptuelle principper normale ulykker.

Forestil dig, at vi har et AI-system, der styrer atomvåben. AI'en er omhyggeligt udformet. Enhver tænkelig check og balance er blevet kodet ind i AI-systemet. Er vi sikre mod en AI-baseret ulykke, der kan opstå? De, der støtter det normale ulykkessynspunkt, vil sige, at vi ikke er helt så sikre, som man kunne antage. I betragtning af at AI sandsynligvis vil være særligt kompleks, venter en normal ulykke stille derinde for en dag at dukke op, måske i det værst tænkelige øjeblik.

Kernen i disse tornede spørgsmål og betænkeligheder er, at vi skal være på tæerne, at AI er bundet til at være ulykkesbelastet, og menneskeheden er nødt til at gøre noget fornuftigt og proaktivt ved de farer, der kan opstå. Som du vil se om et øjeblik eller to, er dette en truende overvejelse, når det kommer til at bruge AI, og området for AI Ethics og Ethical AI kæmper en del om, hvad de skal gøre. For min løbende og omfattende dækning af AI-etik og etisk AI, se linket her , linket her, For blot at nævne nogle få.

Før vi går ned i et kaninhul, lad os sikre os, at vi er på samme side om arten af ​​AI. Der er ikke nogen AI i dag, der er sansende. Det har vi ikke. Vi ved ikke, om sansende AI vil være mulig. Ingen kan passende forudsige, om vi vil opnå sansende AI, eller om sansende AI på en eller anden måde mirakuløst spontant vil opstå i en form for computerkognitiv supernova (normalt omtalt som singulariteten, se min dækning på linket her).

Den type AI, som jeg fokuserer på, består af den ikke-sansende AI, som vi har i dag. Hvis vi ville spekulere vildt over sansende AI, denne diskussion kunne gå i en radikal anden retning. En sansende AI ville angiveligt være af menneskelig kvalitet. Du skal overveje, at den sansende AI er den kognitive ækvivalent til et menneske, der giver dig råd. Mere så, da nogle spekulerer på, at vi måske har superintelligent AI, er det tænkeligt, at sådan AI kan ende med at blive klogere end mennesker (for min udforskning af superintelligent AI som en mulighed, se dækningen her). Alt i alt ville disse scenarier hæve vurderingen af ​​kilden.

Lad os holde tingene mere nede på jorden og overveje nutidens beregningsmæssige ikke-sansende AI.

Indse, at nutidens AI ikke er i stand til at "tænke" på nogen måde på niveau med menneskelig tænkning. Når du interagerer med Alexa eller Siri, kan samtalekapaciteten virke beslægtet med menneskelige kapaciteter, men virkeligheden er, at den er beregningsmæssig og mangler menneskelig erkendelse. Den seneste æra af AI har gjort omfattende brug af Machine Learning (ML) og Deep Learning (DL), som udnytter computational pattern matching. Dette har ført til AI-systemer, der ser ud som menneskelignende tilbøjeligheder. I mellemtiden er der ikke nogen kunstig intelligens i dag, der har et antydning af sund fornuft og heller ikke noget af den kognitive undren ved robust menneskelig tænkning.

Du er måske klar over, at da den seneste æra af kunstig intelligens gik i gang, var der et stort udbrud af begejstring for, hvad nogle nu kalder AI til gode. Desværre begyndte vi at være vidne til det i hælene af den brusende spænding AI For Bad. For eksempel er forskellige AI-baserede ansigtsgenkendelsessystemer blevet afsløret som indeholdende racemæssige skævheder og kønsbias, som jeg har diskuteret på linket her.

Bestræbelser på at kæmpe imod AI For Bad er aktivt i gang. Udover højrøstet juridiske bestræbelserne på at tøjle uretfærdigheden, er der også et væsentligt skub i retning af at omfavne AI-etik for at rette op på AI-modfærdigheden. Idéen er, at vi bør vedtage og godkende vigtige etiske AI-principper for udviklingen og feltet af AI for at underbyde AI For Bad og samtidig indvarsle og fremme det foretrukne AI til gode.

Hvad angår en beslægtet opfattelse, er jeg en fortaler for at forsøge at bruge AI som en del af løsningen på AI-problemer, bekæmpe ild med ild på den måde at tænke på. Vi kan for eksempel indlejre etiske AI-komponenter i et AI-system, der vil overvåge, hvordan resten af ​​AI gør tingene og dermed potentielt fange i realtid enhver diskriminerende indsats, se min diskussion på linket her. Vi kunne også have et separat AI-system, der fungerer som en type AI Ethics monitor. AI-systemet fungerer som en tilsynsførende til at spore og detektere, når en anden AI går ind i den uetiske afgrund (se min analyse af sådanne muligheder på linket her).

Alt i alt er et generelt håb, at vi ved at etablere en følelse af AI-etiske forskrifter i det mindste vil være i stand til at øge samfundets bevidsthed om, hvad AI både med fordel kan og også kan producere negativt. Jeg har udførligt diskuteret forskellige kollektive analyser af AI-etiske principper, herunder at have dækket et sæt udtænkt af forskere, der undersøgte og kondenserede essensen af ​​adskillige nationale og internationale AI-etiske principper i et papir med titlen "The Global Landscape Of AI Ethics Guidelines" (publiceret i Natur), og at min dækning udforsker kl linket her, som førte til denne keystone-liste:

  • Gennemsigtighed
  • Retfærdighed og Retfærdighed
  • Ikke-ondskab
  • Ansvarlighed
  • Privatliv
  • godgørenhed
  • Frihed & Autonomi
  • Stol
  • Bæredygtighed
  • Værdighed
  • Solidaritet

Som du umiddelbart kan gætte, kan det være ekstremt svært at prøve at fastlægge de detaljer, der ligger til grund for disse principper. Endnu mere er bestræbelserne på at omdanne disse brede principper til noget helt håndgribeligt og detaljeret nok til at blive brugt, når man laver AI-systemer, også en svær nød at knække. Det er let overordnet at lave nogle håndsvingninger om, hvad AI-etiske forskrifter er, og hvordan de generelt skal overholdes, mens det er en meget mere kompliceret situation i AI-kodningen, der skal være den veritable gummi, der møder vejen.

AI-etikprincipperne skal bruges af AI-udviklere sammen med dem, der styrer AI-udviklingsindsatsen, og endda dem, der i sidste ende udfører og udfører vedligeholdelse på AI-systemer. Alle interessenter gennem hele AI-livscyklussen for udvikling og brug betragtes inden for rammerne af at overholde de etablerede normer for etisk AI. Dette er et vigtigt højdepunkt, da den sædvanlige antagelse er, at "kun kodere" eller dem, der programmerer AI'en, er underlagt AI-etikkens begreber. Som tidligere nævnt kræver det en landsby at udtænke og udforme AI, og for hvilken hele landsbyen skal være fortrolig med og overholde AI-etiske forskrifter.

Vi bliver måske nødt til at tilføje til de berygtede AI-etik-lister, som vi er nødt til eksplicit at overveje og tage åbenlyst tiltag for at forhindre eller i det mindste kraftigt afbøde AI-baseret normale ulykker der kan forekomme. Dem, der udvikler AI, skal gøre deres bedste på den front. Dem, der implementerer AI, skal gøre det samme. De, der bruger eller på en eller anden måde er underlagt AI, bør være på vagt og på deres vagt for muligheden for AI-ulykker, der tilsyneladende vil opstå.

Du kan blive fristet til at tro, at der kan være indbygget tilstrækkelige forholdsregler i AI'en til, at chancerne for en ulykke falder til nul. For dem, der er teknologer, er den sædvanlige hybris, at hvis et stykke teknologi kan generere et problem, kan et andet stykke teknologi helt sikkert løse problemet. Bare fortsæt med at smide mere og mere teknologi, indtil problemet forsvinder.

Nå, de, der har studeret systemorienterede ulykker, ville have en tendens til at være uenige og høfligt svare til den formodede teknologiske pompøsitet ved at fremsætte et standpunkt kendt som den schweiziske ostemodel (SCM): "I SCM er sikkerhedslagene modelleret som skiver af ost med huller i dem, der repræsenterer svage punkter i hvert lag af sikkerhed. Over tid ændrer huller form og bevæger sig rundt. Til sidst, uanset hvor mange skiver ost (sikkerhedslag), der er, vil hullerne flugte, så et lige skud gennem alle osteskiverne (der sker en ulykke)" (ifølge det tidligere citerede papir af Robert Williams og Roman Yampolskiy) ).

Jeg ønsker ikke at blive hængende i denne sidetangent om, hvorvidt der er en garanteret måde at programmere AI til fuldstændigt og altid at afværge enhver chance for en ulykke. Der er alle mulige matematiske og beregningsmæssige bevismetoder, der bliver prøvet. Jeg synes, det er rimeligt og retfærdigt at erklære, at vi i dag ikke har en skalerbar arbejdsmetode eller teknologier, der kan garantere en sådan nul-chance, og vi er helt sikkert beklædt med ton på ton af AI, der er ved at blive produceret, at vi ved med sikkerhed ikke har forsøgt at efterleve en sådan praksis. Det sidste punkt er afgørende, da selv hvis vi kan lave noget i et AI-laboratorium, er det et knudret problem at skalere det til de millioner af vilde og ubekymrede AI-bestræbelser, der er i gang, og som vil fortsætte med at dukke op, og det er ikke sandsynligt løst, selvom en computerbevisende maskine sølv kugle eksisterede.

Et andet punkt, som jeg mener fortjener en kort omtale, består af kunstig intelligens, der bliver forvandlet til at udføre uønskede handlinger som følge af ondsindede menneskelige aktører. Jeg vil ikke placere disse tilfælde i området for AI-ulykker. Husk, at åbningsdiskussionen foreslog, at ordbogsdefinitionen af ​​en ulykke var en hændelse af en uforsætlig natur. Hvis en menneskelig cyberskurk formår at få et AI-system til at gøre dårlige ting, klassificerer jeg ikke den AI som en ulykke. Jeg stoler på, at du vil gå med på den formodning.

Et interessant spørgsmål dukker op om, hvor meget af forskellige AI-uheldige handlinger, der kan tilskrives rent en AI-ulykke versus en cyberkriminelles luskede handling. Ifølge nogle af de eksisterende AI-hændelser-rapporteringsdatabaser ser det ud til, at AI-ulykkerne sker mere end de ondsindet ansporede hændelser, selvom du er nødt til at tage den opfattelse med en stor dosis salt. Jeg siger dette, fordi der er en stor fristelse til ikke at rapportere, hvornår et AI-system blev angrebet, og måske være noget mere villig til at rapportere, når der sker en AI-ulykke.

Der er et ekstremt vigtigt forbehold, vi skal diskutere vedrørende AI-ulykker.

At bruge slagordet "AI-ulykker" er generelt uønsket og vil skabe noget rod for os alle, hvilket betyder for hele samfundet. Når et menneske er ude for en ulykke, trækker vi ofte på skuldrene og er sympatiske over for den person, der har været ude for ulykken. Vi ser ud til at behandle ordet "uheld", som om det betyder, at ingen er ansvarlig for det, der skete.

Lad os tage eksemplet med at komme ud for en bilulykke. En bil svinger bredt ved et højresving og ramler ved et uheld ind i en anden bil, der kørte ligeud. Puha, det var bare et uheld og skete ved et uheld. De, der ikke var involveret i hændelsen, vil måske lade sagen glide, hvis hændelsen er udtryk for blot at være en ulykke, der skete.

Jeg har dog en fornemmelse af, at hvis du sad i bilen, der blev påkørt, ville du ikke være så sympatisk over for chaufføren, der lavede det alt for brede sving. Din mening vil helt sikkert være, at den anden chauffør var en elendig chauffør, og at enten en tilsyneladende ulovlig eller uklog kørselshandling førte til bilulykken. Ved at betegne hændelsen som en "ulykke" er føreren, der sad fast, nu lidt dårligere stillet, da det ser ud til, at det hele skete ved en tilfældighed alene, snarere end via hænderne på føreren, der rodede.

Faktisk er ordet "ulykke" så fyldt med forskellige konnotationer, at de offentlige statistikker over bilulykker i det store og hele omtaler sagen som bilsammenstød eller bilulykker, snarere end at gøre brug af udtrykket bilulykker. Et bilsammenstød eller et biluheld ser ikke ud til at have nogen betydning for, hvordan hændelsen opstod. I mellemtiden får formuleringen om en "bilulykke" os næsten til at tro, at det var skæbnens særpræg eller på en eller anden måde uden for menneskehedens hænder.

Du kan rigeligt se, hvordan denne konnotationsbetragtning kommer til at spille, når du refererer til AI-ulykker. Vi ønsker ikke, at AI-udviklere skal gemme sig bag det konnotationsskjold, at AI ved et uheld har forårsaget nogen skade. Det samme gælder for dem, der implementerer AI. Du kan argumentere for, at formuleringen af ​​"AI-ulykker" nærmest er en antropomorfisering af AI, der vil vildlede samfundet til at tillade de mennesker, der var bag kulisserne af AI'en, at undslippe ansvarlighed. For min diskussion om den stigende betydning af at holde mennesker ansvarlige for deres AI, se min diskussion på dette link her , dette link her.

Jeg vil fremover heri bruge slagordet om AI-ulykker, men jeg gør det modvilligt og kun fordi det er den konventionelle måde at henvise til dette fænomen på. Forsøg på at formulere dette anderledes har en tendens til at være desværre mere oppustede og ikke så letlæselige. Sørg for at fortolke slagordet på en måde, der ikke får dig til at se den anden vej og undlade at indse, at de mennesker, der ligger bag AI'en, er skyldige, når AI går galt.

For at hjælpe med at illustrere den sandsynlige forvirring eller vildledende aspekter ved at henvise til kunstig intelligens som at pådrage sig ulykker, kan vi vende tilbage til mine bemærkninger om at vælte en vase. Overvej dette eksempel på AI, der gør det: "Dette problem har at gøre med ting, der er gjort ved et uheld eller ligegyldighed af AI. En rengøringsrobot, der vælter en vase, er et eksempel på dette. Komplekse miljøer har så mange slags 'vaser', at det er usandsynligt, at vi vil være i stand til at programmere en straf for alle bivirkninger” (ifølge papiret af Robert Williams og Roman Yampolskiy).

Et kunstig intelligens-system, der tages i brug i en husstand og derefter "ved et uheld" vælter en vase, synes at antyde, at ingen burde bebrejdes denne negative virkning af kunstig intelligens. Det var bare et uheld, kunne man beklageligt afvise. På den anden side bør vi med rette spørge, hvorfor AI-systemet ikke var programmeret til at håndtere vaseforhold generelt. Selvom AI-udviklerne ikke forudså, at en vase i sig selv var inden for rammerne af de objekter, der kunne stødes på, kan vi bestemt stille spørgsmålstegn ved, hvorfor der ikke var en overordnet objektundgåelse, der ville have forhindret AI-systemet i at vælte vase (således kan AI ganske vist ikke klassificere vasen som en vase, men kunne stadig have undgået den som et detekterbart objekt, der skulle undgås).

Jeg har forudsagt og fortsætter med at forudsige, at vi gradvist er på vej mod en enorm juridisk kamp om fremkomsten af ​​AI-systemer, der kommer ind i "AI-ulykker" og forårsager en form for skade. Indtil nu har samfundet ikke reageret på nogen nævneværdig måde på lovlig pushback af kunstig intelligens, der er skovlet ud på markedet og har negative konsekvenser, enten med vilje eller utilsigtet. Nutidens AI-vogn, der er blevet et guldrush af halvdårlige AI-skabere og dem, der skyndte sig at indføre AI-udrulningen, er heldige lige nu og forbliver relativt uberørte af civile retssager og strafferetlige retsforfølgninger.

Den AI-baserede juridiske modreaktion kommer til at komme, før eller siden.

Når vi går videre, hvordan skal vi forsøge at klare det uundgåelige ved såkaldte AI-ulykker?

En ting, vi kan gøre med det samme, er at prøve at forudse, hvordan AI-ulykker kan opstå. Ved at forudse AI-ulykkerne kan vi i det mindste søge at udtænke midler til at begrænse dem eller minimere deres sandsynlighed for at indtræffe. Desuden kan vi forsøge at sætte autoværn på plads, så når en AI-ulykke sker, mindskes chancerne for demonstrativ skade.

Et nyttigt sæt af faktorer, der blev beskrevet i den tidligere citerede forskningsartikel Forståelse og undgåelse af AI-fejl: En praktisk vejledning inkluderer disse egenskaber (som citeret fra forskningspapiret):

  • Systemet, der påvirkes af udgangene fra AI.
  • Tidsforsinkelse mellem AI-output og det større system, systemets observerbarhed, niveauet af menneskelig opmærksomhed og operatørernes evne til at korrigere for funktionsfejl i AI.
  • Den maksimale mulige skade ved ondsindet brug af de systemer, som AI styrer.
  • Kobling af komponenterne i nærheden af ​​AI og kompleksiteten af ​​interaktioner.
  • Kendskab til AI og andre anvendte teknologier og systemets energiniveau.

På dette tidspunkt af denne heftige diskussion vil jeg vædde på, at du ønsker nogle illustrative eksempler, der kan yderligere belyse emnet om AI-ulykker. Der er et særligt og helt sikkert populært sæt eksempler, som ligger mit hjerte nært. Ser du, i min egenskab af ekspert i kunstig intelligens, herunder de etiske og juridiske konsekvenser, bliver jeg ofte bedt om at identificere realistiske eksempler, der viser AI-etiske dilemmaer, så emnets noget teoretiske karakter lettere kan forstås. Et af de mest stemningsfulde områder, der levende præsenterer dette etiske AI-dilemma, er fremkomsten af ​​AI-baserede ægte selvkørende biler. Dette vil tjene som et praktisk use case eller et eksempel til omfattende diskussion om emnet.

Her er så et bemærkelsesværdigt spørgsmål, som er værd at overveje: Belyser fremkomsten af ​​AI-baserede ægte selvkørende biler noget om fremkomsten af ​​såkaldte AI-ulykker, og hvis ja, hvad viser dette?

Tillad mig et øjeblik at pakke spørgsmålet ud.

Først skal du bemærke, at der ikke er en menneskelig chauffør involveret i en ægte selvkørende bil. Husk, at ægte selvkørende biler køres via et AI-køresystem. Der er ikke behov for en menneskelig fører ved rattet, og der er heller ikke en bestemmelse om, at et menneske kan føre køretøjet. For min omfattende og løbende dækning af Autonome Vehicles (AV'er) og især selvkørende biler, se linket her.

Jeg vil gerne yderligere præcisere, hvad der menes, når jeg refererer til ægte selvkørende biler.

Forståelse af niveauerne af selvkørende biler

Som en præcisering er ægte selvkørende biler dem, hvor AI kører bilen helt på egen hånd, og der ikke er nogen menneskelig assistance under køreopgaven.

Disse førerløse køretøjer betragtes som niveau 4 og niveau 5 (se min forklaring på dette link her), mens en bil, der kræver en menneskelig chauffør til at dele køreindsatsen, normalt betragtes på niveau 2 eller niveau 3. De biler, der deler køreopgaven, beskrives som værende semi-autonome og indeholder typisk en række forskellige automatiserede tilføjelser, der omtales som ADAS (Advanced Driver-Assistance Systems).

Der er endnu ikke en ægte selvkørende bil på niveau 5, og vi ved endnu ikke engang, om dette vil være muligt at opnå, og heller ikke hvor lang tid det vil tage at nå dertil.

I mellemtiden forsøger niveau 4-indsatsen gradvist at få noget trækkraft ved at gennemgå meget smalle og selektive forsøg på offentlige vejbaner, selvom der er uenighed om, hvorvidt denne test skal tillades i sig selv (vi er alle liv-eller-død marsvin i et eksperiment finder sted på vores motorveje og biveje, hævder nogle, se min dækning på dette link her).

Da semi-autonome biler kræver en menneskelig chauffør, vil vedtagelsen af ​​disse typer biler ikke være markant anderledes end at køre konventionelle køretøjer, så der er ikke meget nyt i sig selv at dække om dem om dette emne (dog, som du vil se på et øjeblik gælder de næste nævnte punkter generelt).

For semi-autonome biler er det vigtigt, at offentligheden skal advares om et foruroligende aspekt, der er opstået for nylig, nemlig at trods de menneskelige chauffører, der fortsætter med at indsende videoer af sig selv falder i søvn ved rattet i en niveau 2 eller niveau 3 bil , er vi alle nødt til at undgå at blive vildledt til at tro, at chaufføren kan fjerne deres opmærksomhed fra køreopgaven, mens han kører en semi-autonom bil.

Du er den ansvarlige part for køretøjets kørselshandlinger, uanset hvor meget automatisering der kan kastes i et niveau 2 eller niveau 3.

Selvkørende biler og AI-hændelser

For ægte selvkørende køretøjer på niveau 4 og niveau 5 er der ikke en menneskelig chauffør, der er involveret i køreopgaven.

Alle passagerer vil være passagerer.

AI driver kørslen.

Et aspekt, som man straks skal diskutere, indebærer det faktum, at AI involveret i nutidens AI-køresystemer ikke er væsentlig. Med andre ord er AI'et helt en samling af computerbaseret programmering og algoritmer, og helt sikkert ikke i stand til at ræsonnere på samme måde som mennesker kan.

Hvorfor er denne ekstra vægt på, at AI ikke er følelsesladet?

Fordi jeg vil understrege, at når jeg diskuterer AI-køresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær opmærksom på, at der i disse dage er en løbende og farlig tendens til at antropomorfisere AI. I det væsentlige tildeler folk menneskelignende følsomhed til nutidens AI, på trods af den ubestridelige og uomtvistelige kendsgerning, at der endnu ikke findes sådan en sådan AI.

Med denne afklaring kan du forestille dig, at AI-køresystemet ikke på en eller anden måde "ved" noget om kørselens facetter. Kørsel og alt, hvad det medfører, skal programmeres som en del af den selvkørende bils hardware og software.

Lad os dykke ned i det utal af aspekter, der kommer til at spille om dette emne.

For det første er det vigtigt at indse, at ikke alle AI selvkørende biler er ens. Hver bilproducent og selvkørende teknologivirksomhed tager sin tilgang til at udtænke selvkørende biler. Som sådan er det svært at komme med omfattende udsagn om, hvad AI-køresystemer vil gøre eller ej.

Når det endvidere angives, at et AI -køresystem ikke gør nogle særlige ting, kan dette senere blive overhalet af udviklere, der faktisk programmerer computeren til at gøre det. Trin for trin forbedres og udvides AI -drivsystemer gradvist. En eksisterende begrænsning i dag eksisterer muligvis ikke længere i en fremtidig iteration eller version af systemet.

Jeg stoler på, at det giver en tilstrækkelig mængde forbehold til at ligge til grund for det, jeg er ved at fortælle.

Vi er klar til nu at dykke ned i selvkørende biler og de etiske AI-muligheder, der medfører fremkomsten af ​​såkaldte AI-ulykker.

Forestil dig, at en AI-baseret selvkørende bil er undervejs i dit nabolags gader og ser ud til at køre sikkert. I begyndelsen havde du viet særlig opmærksomhed, hver gang det lykkedes dig at få et glimt af den selvkørende bil. Det autonome køretøj skilte sig ud med sit stativ af elektroniske sensorer, der omfattede videokameraer, radarenheder, LIDAR-enheder og lignende. Efter mange uger med den selvkørende bil, der krydser rundt i dit lokalsamfund, mærker du det nu næsten ikke. For dig er det blot endnu en bil på de allerede befærdede offentlige veje.

For ikke at du tror, ​​det er umuligt eller usandsynligt at blive fortrolig med at se selvkørende biler, har jeg ofte skrevet om, hvordan de lokaliteter, der er inden for rammerne af selvkørende bilprøver, efterhånden har vænnet sig til at se de piftede køretøjer. Mange af lokalbefolkningen skiftede til sidst fra mundgabende henført stirrende til nu at udsende en ekspansiv gab af kedsomhed for at være vidne til de bugtende selvkørende biler.

Sandsynligvis er hovedårsagen lige nu til, at de måske bemærker de autonome køretøjer, på grund af irritations- og irritationsfaktoren. De bogførte AI-køresystemer sørger for, at bilerne overholder alle hastighedsgrænser og færdselsregler. For hektiske menneskelige chauffører i deres traditionelle menneske-drevne biler bliver man til tider irriteret, når man sidder fast bag de strengt lovlydige AI-baserede selvkørende biler.

Det er noget, vi alle måske skal vænne os til, med rette eller forkerte.

Tilbage til vores fortælling.

En dag kommer den selvkørende bil ud i en ulykke.

Under et højresving svingede AI-køresystemet det autonome køretøj vidt og bredt, og en menneskedrevet bil blev ramt. Den menneskedrevne bil kørte ligeud i den rigtige vognbane. Der var ingen særlig mulighed for den menneskelige chauffør til at svinge eller undgå at blive ramt. Derudover var der ingen advarsel eller indikation fra den selvkørende bil om, at den i vid udstrækning skulle til højresving.

Er dette en ulykke?

Vi kan bestemt sige, at det er omfattet af rubrikken for at være en AI-ulykke. Grundlaget for en sådan påstand er, at der var et AI-køresystem ved rattet i den selvkørende bil. På en eller anden måde, uanset årsagen, valgte AI at lave et bredt sving, da han tog et højresving. Resultatet førte til, at den selvkørende bil ramte en menneskedrevet bil.

Husk den tidligere diskussion om konnotationerne forbundet med ordet "uheld", og se, hvordan sådanne undertoner kommer til at spille i dette scenarie. Husk også, at vi diskuterede tilfældet med en menneskelig chauffør, der laver et bredt højresving og kører ind i en medmenneskelig drevet bil. Vi indså, at forestillingen om, at denne handling er en "ulykke", er vildledende og forvirrende. Den menneskelige chauffør, der lavede den brede svingning, kunne gemme sig bag tanken om, at en ulykke blot skete, der tilsyneladende var tilfældigvis eller skæbnens luner.

I stedet for at betegne scenariet som en "AI-ulykke" i tilfælde af, at den AI-baserede selvkørende bil går bredt ud og rammer den menneskedrevne bil, burde vi måske sige, at det var en bilulykke eller bilkollision, der involverede en selvkørende bil. kørende bil og en menneskedrevet bil. Vi kan så undvære den tomme forvirring, at det er et uheld med ukendte midler.

Hvad tror du, den offentlige reaktion på hændelsen ville være?

Tja, hvis bilproducenten eller det selvkørende teknologifirma kan holde fast i mærkningen af ​​sagen som en ulykke, vil de måske være i stand til at omgå den potentielle modreaktion fra samfundet som helhed. En følelse af sympati omkring ulykker, alt sammen, ville muligvis strømme over på den særlige omstændighed. For mere om, hvordan byer, amter og statsledere potentielt vil reagere på hændelser med AI autonome køretøjer, se diskussionen af ​​en Harvard-undersøgelse, som jeg var med i spidsen for og som beskrevet på linket her.

Hvis situationen tydeligt beskrives som en bilulykke eller bilsammenstød, kan det måske så give mulighed for erkendelsen af, at nogen eller noget måske er skyld i hændelsen. Et knæfald kan være, at AI'en skal holdes ansvarlig. Sagen er, at indtil eller hvis vi nogensinde beslutter os for at salve AI til at have et udseende af juridisk person, vil du ikke være i stand til at lægge ansvaret på AI'en i sig selv (se min diskussion om AI og juridisk personlighed på linket her).

Vi kan inspicere AI-køresystemet for at prøve at finde ud af, hvad der førte til den tilsyneladende upassende kørsel og den efterfølgende bilulykke. Det betyder dog ikke, at AI vil blive holdt ansvarlig. De ansvarlige parter omfatter AI-udviklerne, flådeoperatøren af ​​den selvkørende bil og andre. Jeg inkluderer også andre, da der er en mulighed for, at byen kan blive holdt delvist ansvarlig for designet af hjørnet, hvor vendingen fandt sted. Antag derudover, at en fodgænger pilede ud af hjørnet, og at AI-køresystemet valgte at undgå personen og alligevel blev viklet ind i bilulykken.

Og så videre.

Konklusion

Vi ville gerne vide, hvad AI'en beregnede beregningsmæssigt, og hvad den var blevet programmeret til at gøre. Gjorde AI'en, som den blev kodet? Måske stødte AI på en fejl eller fejl i programmeringen, som ikke undskylder handlingerne, men giver mere et fingerpeg om, hvordan nedbruddet opstod.

Hvilken slags AI-værn var programmeret ind i AI-køresystemet? Hvis der var autoværn, ville vi gerne finde ud af, hvorfor de ikke så ud til at forhindre bilulykken. Måske kunne AI-køresystemet være gået i stå i stedet for at lave svinget. Vi vil gerne vide, hvilke alternativer AI'en vurderede beregningsmæssigt i løbet af hændelsen.

Udover at komme til bunds i den særlige hændelse, er en anden retmæssig problemstilling, om AI-køresystemet har en fejl eller et andet indlejret aspekt, der vil udføre lignende former for uønskede handlinger. I det væsentlige kan denne hændelse være en afslørende indikator for, at der kommer mere. Hvordan blev computerbaserede simuleringer af køresituationer brugt til at forsøge at forudse denne type AI-køresystemer? Var der tilstrækkelige køreprøver til at have fjernet de AI-problemer, der kunne have ført til bilulykken?

Dette scenarie fremhæver en omstridt gåde, der står over for fremkomsten af ​​AI-baserede selvkørende biler.

Det går sådan her.

På den ene side er der et samfundsmæssigt ønske om at adoptere selvkørende biler hurtigt på grund af håbet om, at AI-køresystemer vil være lige så sikre eller muligvis sikrere end menneskelige bilister. Alene i USA har vi i øjeblikket næsten 40,000 dødsulykker årligt på grund af bilulykker og omkring 2.5 millioner menneskelige kvæstelser. Analyser tyder på, at en betragtelig del af disse bilulykker kan tilskrives menneskelige fejl såsom kørsel i spirituspåvirket tilstand, kørsel under distraheret osv. (se min vurdering af sådanne statistikker på linket her).

AI-køresystemer vil ikke drikke og køre. De behøver ikke hvile, og de bliver ikke slidte, mens de sidder ved rattet. Antagelsen er, at vi ved at etablere selvkørende biler som en levedygtig transportform kan reducere antallet af menneskelige chauffører. Det skulle igen betyde, at vi vil reducere antallet af årlige menneskelige dødsfald og kvæstelser som følge af bilulykker.

Nogle eksperter har sagt, at vi vil ende med nul dødsulykker og nul tilskadekomne, og de selvkørende biler vil angiveligt være ubrydelige, men dette er et helt absurd og fuldstændig falsk sæt forventninger. Jeg har forklaret, hvorfor det her er så uopmærksomt linket her.

Antag under alle omstændigheder, at vi kommer til at have en vis mængde bilulykker, som selvkørende biler bliver involveret i. Antag også, at disse bilulykker vil have en vis mængde dødsfald og kvæstelser. Spørgsmålet, der plages over, er, om vi som samfund overhovedet er villige til at tolerere sådanne tilfælde. Nogle siger, at hvis der sker et enkelt dødsfald eller en skade som følge af ægte selvkørende biler, bør hele sættet og kaboodlen lukkes ned.

Det modsvarende synspunkt er, at hvis de reddede liv reducerer de årlige tal, bør vi fortsætte med at tilskynde til selvkørende biler og ikke reagere på en så ulogisk måde. Vi bliver nødt til at acceptere den forudsætning, at der stadig vil eksistere en vis mængde dræbte og kvæstede, selv med selvkørende biler, og alligevel indse, at det årlige antal, hvis det bliver reduceret, tyder på, at vi er på rette vej.

Selvfølgelig er der nogle, der argumenterer for, at vi ikke bør have selvkørende biler på vores offentlige veje, før de enten er frigivet til sådan brug som følge af omfattende og udtømmende computerbaserede simuleringer eller som via private lukkede spor. Modargumentet er, at den eneste levedygtige og hurtigste måde at få selvkørende biler i gang er ved at bruge offentlige veje, og at eventuelle forsinkelser i at vedtage selvkørende biler ellers vil tillade de forfærdelige tællinger af den menneskedrevne bil, der styrter ned. Jeg har dækket denne debat mere i mine spalter og opfordrer læserne til at se på disse diskussioner for at få den fulde fornemmelse af perspektiverne på denne kontroversielle sag.

Lad os afslutte tingene for nu.

AI-ulykker kommer til at ske. Vi må modstå impulsen til at fortolke en AI-ulykke som tilsyneladende utilsigtet og ergo fejlagtigt lade skaberne og dem, der implementerer kunstig intelligens, være kategorisk løs.

Der er et ekstra twist, som jeg efterlader dig som en sidste spændende tanke til din dag.

Komikeren Dane Cook fortalte efter sigende denne joke om bilulykker: "For et par dage siden kom jeg ud i en bilulykke. Ikke min skyld. Selvom det ikke er din skyld, stiger den anden person ud af deres bil og ser på dig, som om det er din skyld: Hvorfor stoppede du ved rødt lys og lod mig slå dig med 80!

Hvor drejningen kommer i forgrunden, er muligheden for, at et AI-system kan vælge at insistere på, at når en AI-ulykke sker, der involverer den pågældende AI, siger AI'en, at hændelsen var menneskets skyld og bestemt ikke AI'ens skyld. Forresten kan dette være rigeligt sandt, og mennesket forsøger måske at syndebuk for AI'en ved at påstå, at det var AI'ens skyld.

Eller måske forsøger AI at syndebuk mennesket.

Du kan se, den AI, som vi udvikler, kan være vanskelig på den måde, enten ved et uheld eller ej.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-woms-over-autonomous-self- kører-også bil/