Etisk AI, der ambitiøst håber at få AI til at lære etisk adfærd af sig selv, såsom tilfældet med AI i autonome selvkørende biler

Aristoteles sagde berømt, at det at uddanne sindet uden at uddanne hjertet slet ikke er nogen uddannelse.

Du kunne fortolke den indsigtsfulde bemærkning som at antyde, at det er yderst vigtigt for menneskeheden at lære om etik og moralsk adfærd. I den klassiske natur versus nurture-debat må man spørge, hvor meget af vores etiske skikke er instinktivt hjemmehørende, mens hvor meget der læres i løbet af vores levedage. Småbørn er opmærksomme på medmennesker og samler formentlig deres etiske grundlag ud fra, hvad de ser og hører. Det samme kan siges om teenagere. For fordomsfrie voksne vil de også fortsætte med at tilpasse sig og udvikle sig i deres etiske tænkning som et resultat af at opleve hverdagens verden.

Naturligvis er eksplicit undervisning af nogen om etik også par for kurset. Folk er forpligtet til at lære om etiske måder ved at deltage i klasser om emnet eller måske ved at gå til begivenheder og praksisser af interesse for dem. Etiske værdier kan tydeligt identificeres og deles som et middel til at hjælpe andre med at formulere deres egen etiske struktur. Derudover kan etik være subtilt skjult i historier eller andre instruktionsmåder, der i sidste ende bærer et budskab om, hvad etisk adfærd består af.

Det er sådan, mennesker synes at præge etik.

Hvad med kunstig intelligens (AI)?

Jeg er klar over, at sådan et spørgsmål kan virke underligt. Vi forventer bestemt, at mennesker inkorporerer etik og går gennem livet med en vis antydning af et moralsk kodeks. Det er et simpelt og indlysende faktum. På den anden side ser en maskine eller computer ikke ud til at passe inden for den samme referenceramme. Din tarmreaktion kan være, at det er langt ude eller besynderligt at betragte AI som en legemliggørelse af etiske og moralske koder.

Det bedste, vi synes at være i stand til at gøre ved AI, er at udtænke det, så det ikke afviger fra etisk adfærd. AI-udviklere og dem, der arbejder med AI, skal holdes ansvarlige for at sikre, at AI'en, som den er designet, og når den er implementeret, allerede er i overensstemmelse med etiske forskrifter. Ud af porten, så at sige, burde AI'en allerede være uberørt og klar til at gå som et fuldt ud etisk korrekt udspil.

Du ville helt sikkert have ret i at tro, at AI-systemer faktisk burde være udformet, så de allerede passer fuldstændigt inden for et etisk grundlag. Samfundet var ret begejstret, da den seneste bølge af AI-systemer først blev frigivet og så ud til at demonstrere, at vi var i en æra med AI til gode. AI ville hjælpe med at løse mange af verdens mest udfordrende problemer. Fremskridt inden for teknologi blev udnyttet til at supplere menneskelige evner med kognitiv-lignende faciliteter, men tillad mig at understrege, at vi endnu ikke har nogen sansende AI, og vi ved ikke, om sansende AI vil blive opnået.

Problemet med at få AI til verden har gradvist afsløret den grimme undermave af AI kendt som AI For Bad. Der har været masser af overskrifter om AI-systemer, der gør brug af algoritmisk beslutningstagning (ADM), der er fyldt med skævheder og uligheder. Derudover lider meget af den moderne AI af mangel på gennemsigtighed, har en tendens til at være uforklarlig med hensyn til at forklare beregningsmæssige beslutninger, udviser ofte en mangel på retfærdighed og har givet nogle mulighed for at aflede deres menneskelige ansvarlighed ved at pege fingre ad AI.

Jeg har i vid udstrækning dækket Etisk AI og AI-etikken i mine skrifter, herunder linket her , linket her, For blot at nævne nogle få.

Hvordan kan der være AI For Bad hvis vi tager som en erklæret konstruktion, at AI burde være udformet fra begyndelsen for at undgå uetiske handlinger?

Svaret er flerfoldigt.

For det første er mange AI-udviklere og virksomheder, der arbejder med AI, selv uvidende om vigtigheden af ​​at forme deres AI til at holde sig inden for etiske grænser. Konceptet er slet ikke på deres radar. Tiltrækkelsen ved at tjene hurtige penge får nogle til at skubbe videre med de vilde AI-forestillinger, de ønsker at producere. Ingen grund til at finde ud af nogen etiske ting. Bare byg AI'en og få den i gang.

For det andet er der dem, der laver AI, som pynter på en direkte bevidsthed om de etiske konsekvenser, men de åbenlyst bagatelliserer eller ignorerer de etiske AI-overvejelser. Et almindeligt perspektiv er det klassiske tekniske mantra om at sigte efter at fejle hurtigt og ofte fejle. Bare fortsæt med at gentage, indtil tingene forhåbentlig bliver passende afgjort. Chancerne for at presse enhver systematisk og tankevækkende inkorporering af AI-etik ind i disse hurtige AI-bestræbelser er desværre ringe. Jeg diskuterer behovet for styrkelse af lederskab over for etisk kunstig intelligens kl linket her.

For det tredje eksisterer der en masse uklarhed om, hvilke etiske rækværk, der skal underholdes, når man udtænker AI. Sikker på, der er i dag mange AI-etiske retningslinjer, se min dækning på linket her, selvom disse praktiske teoretiske forskrifter er svære nødvendigvis at omdanne til detaljer for et givet AI-system, der bygges. Jeg har indikeret, at vi langsomt vil se en fremkomst af AI-bygningsværktøjer og -metoder, der inkluderer etisk AI-kodningspraksis, der hjælper med at lukke kløften mellem de abstrakte aspekter og de velkendte gummi-møder-vejen-facetter.

For det fjerde udforsker vi, i henhold til det heri fremhævede, det berørte tilfælde af AI, der, selv om det oprindeligt er sammensat inden for etiske grænser, derefter, mens det er i brug, bugter sig ud over de antagne etisk kodede parametre.

Det skal vi pakke ud.

Meget af nutidens kunstig intelligens gør brug af Machine Learning (ML) og Deep Learning (DL). Disse er computational pattern matching-teknikker og -teknologier. Generelt er ideen, at du samler en masse relevante data sammen til hvad AI'en formodes at kunne gøre, du føder disse data ind i den valgte beregningsmønstermatcher, og mønstermatchningen forsøger matematisk at finde nyttige mønstre. Bemærk, at der ikke er nogen sans fra denne AI's side (som igen, sådan noget eksisterer endnu ikke). Der er heller ikke noget fornuftigt ræsonnement involveret. Det er alt sammen matematik og beregninger.

Det kan være, at de data, der føres ind i ML/DL, allerede er fyldt med skævheder og uligheder. I så fald er oddsene, at beregningsmønstermatchningen blot vil efterligne de samme tilbøjeligheder. Hvis du leverer data, der favoriserer én race frem for en anden eller favoriserer det ene køn frem for det andet, er der en betydelig chance for, at mønstermatchningen vil hænge fast i det som det opdagede mønster.

Et stort problem med den form for låsning er, at vi kan have svært ved at finde ud af, at mønstrene er baseret på det aspekt af dataene. Den tornede og komplekse matematik kan gøre overfladen af ​​sådanne fundne mønstre ret problematisk. Selv test af AI'en vil ikke nødvendigvis afsløre disse tendenser, afhængigt af rækkevidden og dybden af ​​test, der anvendes.

Så lad os antage, at du har bygget et AI-system og gjort dit hjemmearbejde ved først at prøve at undgå at bruge data, der havde forudeksisterende skævheder. Når først Machine Learning og Deep Learning var blevet gennemført, testede du resultaterne for at se, om der opstod skævheder eller uligheder. Lad os antage, at du ikke er i stand til at finde sådanne uheldige tilbøjeligheder.

Alt i alt er der nu givet grønt lys til at gå videre og tage AI'en i brug. Folk vil begynde at bruge AI og sandsynligvis antage, at det er etisk korrekt. Det mener udviklerne også. Det mener firmaet, der arbejder med AI. Vi går alle sammen.

Her er hvad der kan ske.

En anelse om en skævhed, der ikke blev fundet i de originale data, og som ikke blev fanget under testen af ​​AI, er muligvis aktiveret. Måske sker dette kun sjældent. Du tror måske, at så længe det er sjældent, er alt godt. Jeg tvivler dog på, at de, der er sårbare over for den nævnte bias, er villige til at se tingene på den måde. Jeg tør godt påstå, at AI-systemet og dem, der har formuleret det, kommer til at konfrontere konsekvenser, enten i de juridiske domstole eller i den åbne domstol for samfundsopfattelse.

En anden variation er den legendariske opfattelse af at tage en tomme og snuppe en mile. Antydningen kan i begyndelsen være lille. Under brugen af ​​AI kan AI'en være blevet udtænkt til at ændre sig selv, efterhånden som tingene går. Denne form for "læring" eller "selv-læring" kan være ret nyttig. I stedet for at kræve, at menneskelige AI-udviklere løbende ændrer og justerer AI-systemet, er AI bygget til at gøre det af sig selv. Ingen forsinkelser, ingen dyr arbejdskraft osv.

Ulempen ved denne praktiske selvjustering er, at tanken kan blive ophøjet til at blive større og større inden for anvendelsesområdet for AI. Mens skævheden måske har været i et snævert lille hjørne, er det nu givet plads til at udvide. AI'en ser ikke ud til, at dette er "forkert" og udvider blot beregningsmæssigt noget, der ser ud til at virke.

Hvis det får håret til at rejse sig på hovedet, bliver du nødt til at sætte dig ned til næste variant.

Antag, at skævheden ikke var eksisterende fra starten, og vi har al mulig begrundet overbevisning om, at AI er fuldstændig bias-fri. Enten var vi heldige, eller måske sørgede vi systematisk for, at der ikke var nogen bias nogen steder i dataene, og at ingen opstod via beregningsmønstermatchningen. På trods af det lettelsens suk får AI'en lov til at justere, mens den er i brug. Pandoras dør åbnes, og AI'en vælger beregningsmæssigt at gravitere mod skævheder, der findes under hvad end det er, AI'en gør.

En nyfundet skævhed bliver sludret ind i AI'en, og ingen er særlig klogere på, at det er sket. Yikes, vi har skabt et monster, en veritabel Frankenstein.

Hvordan kan denne fremkomst eventuelt forhindres eller i det mindste markeres?

En tilgang, der vinder indpas, består i at indbygge en etisk indsamlingskomponent i AI'en. AI'en er konstrueret til at inkludere etiske AI-elementer. Disse elementer ser eller overvåger derefter resten af ​​AI'en, mens AI'en justerer sig over tid. Når AI ser ud til at være gået ud over de programmerede etiske forskrifter, forsøger den etiske AI at gøre disse justeringer klar eller advare udviklerne om, at noget er gået galt.

Du kan prøve at programmere denne etiske AI-overvågningskapacitet og håbe, at den vil sejre, mens AI'en er i brug.

En anden noget kontroversiel vinkel ville være at bruge Machine Learning og Deep Learning til at træne de etiske AI-aspekter ind i AI-systemet.

Hvad siger du?

Ja, det måske uortodokse koncept er, at i stedet for at en menneskelig programmør direkte koder et sæt AI-etiske forskrifter, er AI formet til at prøve at "lære" dem i stedet. Husk, at jeg kort bemærkede, at brugen af ​​ML/DL typisk er afhængig af, at data indfødes i algoritmerne, og en beregningsmønstermatching finder sted. Million-dollar-spørgsmålet er, om vi kan bruge den samme mekanisme til at indgyde etiske værdier i et AI-system.

Jeg formoder, at du kunne sammenligne dette med min diskussion ved åbningen af, hvordan mennesker bliver bevidste om etiske principper, men vær venlig ikke at antropomorfisere nutidens AI som værende sammenlignelig med menneskelig tænkning (det er det ikke, og jeg gentager den formaning om kort tid). AI'en kan programmeres "medfødt" med etiske AI-forskrifter. Eller AI kunne "lære" etiske AI-forskrifter. Du kan selvfølgelig gøre begge dele, hvilket er noget, jeg har dækket andre steder, se linket her.

Brug et øjeblik på at overveje det tilsyneladende opsigtsvækkende koncept, at AI kan "lære" etik og ergo formentlig overholde etisk adfærd.

Disse forskere bruger et eksempel på et AI-system, der beregner den ønskede temperatur i et hus for at illustrere, hvordan dette kan fungere: "Det 'observerede' først adfærden hos mennesker i forskellige husstande i kun en uge og trak konklusioner om deres præferencer. Den brugte derefter en bevægelsesdetekterende sensor til at afgøre, om nogen var hjemme. Da huset var tomt, gik den smarte termostat i en høj energisparetilstand; når folk var hjemme, justerede termostaten temperaturen, så den passer til deres præferencer. Denne termostat opfylder klart de to krav til en etisk bot, omend den er meget enkel. Den vurderer folks præferencer og pålægger dem på styringen af ​​varme- og kølesystemet. Man kan spørge, hvad det har med sociale moralske værdier at gøre. Denne termostat gør det muligt for personer med forskellige værdier at få de temperaturindstillinger, de foretrækker. Beboerne i hjemmet behøver ikke at nulstille termostaten hver dag, når de kommer og går. Denne simple etiske bot reducerer også samfundets samlede energifodaftryk" (ifølge avisen af ​​Amitai Etzioni og Oren Etzioni med titlen "AI Assisted Ethics" i bindet om Etik og informationsteknologi).

Inden jeg graver videre i drejningerne ved at have AI, der "lærer" etisk adfærd, vil jeg gerne sige noget mere om AI's status.

AI kan bestå af disse mulige tilstande:

1. Ikke-sansende almindelig gammel AI af i dag

2. Følende AI af menneskelig kvalitet (denne har vi ikke endnu)

3. Følende AI, der er superintelligent (et stræk ud over #2)

Jeg vil fokusere på den eksisterende tilstand, som er ikke-sansende almindelig AI. Meget af det, du kan læse om etisk kunstig intelligens, dækker til tider den sansende kunstig intelligens og er derfor meget spekulativt. Jeg siger, det er spekulativt, fordi ingen kan sætte halen på æslet af, hvad sansende AI vil være. Endnu længere ud over området for menneskelig kvalitetsfølende AI er den meget balladede superintelligente AI. Der er masser af sci-fi-historier og betænkeligheder om, hvordan disse varianter af AI kan beslutte at slavebinde menneskeheden eller måske bare udslette os alle. Dette er kendt som den eksistentielle risiko ved AI. Til tider bliver dilemmaet også formuleret som den katastrofale risiko ved AI.

Nogle hævder, at vi måske er okay, så længe vi holder AI til den ikke-sansende almindelige AI, som vi har i dag. Lad os antage, at vi ikke kan nå sansende AI. Forestil dig, at uanset hvor hårdt vi prøver at skabe sansende AI, så fejler vi det. Antag også for diskussionens skyld, at følende AI ikke opstår ved en mystisk spontan proces.

Er vi så ikke sikre på, at denne mindre kaliber AI, som er den forestillede eneste mulige form for AI, vil være i brug?

Ikke rigtig.

Stort set de samme generelle problemer vil sandsynligvis opstå. Jeg antyder ikke, at AI "tænker" sin måde at ville ødelægge os. Nej, den almindelige ikke-sansende AI er blot placeret i magtpositioner, der får os til at fastlåse i selvdestruktion. For eksempel sætter vi ikke-sansende AI i masseødelæggelsesvåben. Disse autonome våben er ikke i stand til at tænke. Samtidig holdes mennesker ikke fuldt ud i løkken. Som et resultat ender AI som en form for autonom automatisering med utilsigtet at forårsage katastrofale resultater, enten ved en menneskelig kommando om at gøre det, eller ved en fejl eller fejl, eller ved implanteret ondskab eller ved selvjusteringer, der fører sager ned, som grim sti osv.

Jeg vil hævde, at AI-etikproblemet eksisterer for alle tre af disse AI-bestemte stater, nemlig at vi har AI-etiske problemer med ikke-sansende almindelig AI, og med sansende AI, der enten blot er menneskeligt niveau eller den udstrakte AI, der når det anerkendte superintelligensniveau.

I betragtning af denne nøgterne udtalelse kan vi med sikkerhed diskutere omfanget og sværhedsgraden forbundet med de etiske problemer på hvert af de respektive niveauer af AI. Det sædvanlige synspunkt er, at AI-etiske knibe er mindre uoverkommelig på den ikke-sansende AI, hårdere på det sansende menneskelige-lige AI-niveau og en sand hovedskraber på det sansende superintelligente AI-stadium.

Jo bedre AI'en bliver, jo værre bliver AI's etiske problem.

Måske er det en ukrænkelig naturlov.

For at vende tilbage til fokus på nutidens AI, forsøger at få AI til at "lære" etisk adfærd via moderne Machine Learning og Deep Learning er fyldt med bekymringer og vanskelige problemer. Antag, at AI ikke formår at opsamle de ønskede etiske forskrifter? Hvordan vil vi med sikkerhed vide, at den vaklede ved at gøre det? Vil andre dele af et AI-system også potentielt tilsidesætte de indsamlede etiske konstruktioner? Tilføj hertil, at hvis AI'en justerer sig i farten, kan justeringerne udtynde de etiske aspekter eller utilsigtet overvælde dem helt.

For at gøre tingene værre, kan "læringen" føre til, at AI'en lander på virkelig uetisk adfærd. Mens vi troede, at vi gjorde det rigtige ved at tilskynde AI til at være etisk, viser det sig, at AI'en gled ind i mønstermatching på de uetiske aspekter i stedet. Tal om at skyde vores egen fod, det kunne absolut ske.

På dette tidspunkt i denne diskussion vil jeg vædde på, at du ønsker nogle yderligere eksempler fra den virkelige verden, der kunne fremhæve, hvordan AI, "indlæringen" af etik kan gælde for nutidens AI (bortset fra den velsmagende teaser fra termostateksemplet).

Jeg er glad for at du spurgte.

Der er et særligt og helt sikkert populært sæt eksempler, som ligger mit hjerte nært. Ser du, i min egenskab af ekspert i kunstig intelligens, herunder de etiske og juridiske konsekvenser, bliver jeg ofte bedt om at identificere realistiske eksempler, der viser AI-etiske dilemmaer, så emnets noget teoretiske karakter lettere kan forstås. Et af de mest stemningsfulde områder, der levende præsenterer dette etiske AI-dilemma, er fremkomsten af ​​AI-baserede ægte selvkørende biler. Dette vil tjene som et praktisk use case eller et eksempel til omfattende diskussion om emnet.

Her er så et bemærkelsesværdigt spørgsmål, som er værd at overveje: Belyser fremkomsten af ​​AI-baserede ægte selvkørende biler noget om, at AI'en er i stand til at "lære" etiske AI-forskrifter, og hvis ja, hvad viser dette?

Tillad mig et øjeblik at pakke spørgsmålet ud.

Først skal du bemærke, at der ikke er en menneskelig chauffør involveret i en ægte selvkørende bil. Husk, at ægte selvkørende biler køres via et AI-køresystem. Der er ikke behov for en menneskelig fører ved rattet, og der er heller ikke en bestemmelse om, at et menneske kan føre køretøjet. For min omfattende og løbende dækning af Autonome Vehicles (AV'er) og især selvkørende biler, se linket her.

Jeg vil gerne yderligere præcisere, hvad der menes, når jeg refererer til ægte selvkørende biler.

Forståelse af niveauerne af selvkørende biler

Som en afklaring er ægte selvkørende biler dem, som AI kører bilen helt alene, og der er ikke nogen menneskelig hjælp under køreopgaven.

Disse førerløse køretøjer betragtes som niveau 4 og niveau 5 (se min forklaring på dette link her), mens en bil, der kræver en menneskelig chauffør til at dele køreindsatsen, normalt betragtes på niveau 2 eller niveau 3. De biler, der deler køreopgaven, beskrives som værende semi-autonome og indeholder typisk en række forskellige automatiserede tilføjelser, der omtales som ADAS (Advanced Driver-Assistance Systems).

Der er endnu ikke en ægte selvkørende bil på niveau 5, som vi endnu ikke engang ved, om dette er muligt at opnå, og heller ikke hvor lang tid det vil tage at komme dertil.

I mellemtiden forsøger niveau 4-indsatsen gradvist at få noget trækkraft ved at gennemgå meget smalle og selektive forsøg på offentlige vejbaner, selvom der er uenighed om, hvorvidt denne test skal tillades i sig selv (vi er alle liv-eller-død marsvin i et eksperiment finder sted på vores motorveje og biveje, hævder nogle, se min dækning på dette link her).

Da semi-autonome biler kræver en menneskelig chauffør, vil vedtagelsen af ​​disse typer biler ikke være markant anderledes end at køre konventionelle køretøjer, så der er ikke meget nyt i sig selv at dække om dem om dette emne (dog, som du vil se på et øjeblik gælder de næste nævnte punkter generelt).

For semi-autonome biler er det vigtigt, at offentligheden skal advares om et foruroligende aspekt, der er opstået for nylig, nemlig at trods de menneskelige chauffører, der fortsætter med at indsende videoer af sig selv falder i søvn ved rattet i en niveau 2 eller niveau 3 bil , er vi alle nødt til at undgå at blive vildledt til at tro, at chaufføren kan fjerne deres opmærksomhed fra køreopgaven, mens han kører en semi-autonom bil.

Du er den ansvarlige part for køretøjets kørselshandlinger, uanset hvor meget automatisering der kan kastes i et niveau 2 eller niveau 3.

Selvkørende biler og etisk kunstig inokulering

For ægte selvkørende køretøjer på niveau 4 og niveau 5 er der ikke en menneskelig chauffør, der er involveret i køreopgaven.

Alle passagerer vil være passagerer.

AI driver kørslen.

Et aspekt, som man straks skal diskutere, indebærer det faktum, at AI involveret i nutidens AI-køresystemer ikke er væsentlig. Med andre ord er AI'et helt en samling af computerbaseret programmering og algoritmer, og helt sikkert ikke i stand til at ræsonnere på samme måde som mennesker kan.

Hvorfor er denne ekstra vægt på, at AI ikke er følelsesladet?

Fordi jeg vil understrege, at når jeg diskuterer AI-køresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær opmærksom på, at der i disse dage er en løbende og farlig tendens til at antropomorfisere AI. I det væsentlige tildeler folk menneskelignende følsomhed til nutidens AI, på trods af den ubestridelige og uomtvistelige kendsgerning, at der endnu ikke findes sådan en sådan AI.

Med denne afklaring kan du forestille dig, at AI-køresystemet ikke på en eller anden måde "ved" noget om kørselens facetter. Kørsel og alt, hvad det medfører, skal programmeres som en del af den selvkørende bils hardware og software.

Lad os dykke ned i det utal af aspekter, der kommer til at spille om dette emne.

For det første er det vigtigt at indse, at ikke alle AI selvkørende biler er ens. Hver bilproducent og selvkørende teknologivirksomhed tager sin tilgang til at udtænke selvkørende biler. Som sådan er det svært at komme med omfattende udsagn om, hvad AI-køresystemer vil gøre eller ej.

Når det endvidere angives, at et AI -køresystem ikke gør nogle særlige ting, kan dette senere blive overhalet af udviklere, der faktisk programmerer computeren til at gøre det. Trin for trin forbedres og udvides AI -drivsystemer gradvist. En eksisterende begrænsning i dag eksisterer muligvis ikke længere i en fremtidig iteration eller version af systemet.

Jeg stoler på, at det giver en tilstrækkelig mængde forbehold til at ligge til grund for det, jeg er ved at fortælle.

Vi er klar til nu at dykke ned i selvkørende biler og muligheder for etisk kunstig intelligens, hvilket indebærer den øjenbrynsløftende påstand om, at vi kan få kunstig intelligens til at "lære" om etisk adfærd af sig selv.

Lad os bruge et ligetil eksempel. En AI-baseret selvkørende bil er undervejs på gaderne i dit nabolag og ser ud til at køre sikkert. I begyndelsen havde du viet særlig opmærksomhed, hver gang det lykkedes dig at få et glimt af den selvkørende bil. Det autonome køretøj skilte sig ud med sit stativ af elektroniske sensorer, der omfattede videokameraer, radarenheder, LIDAR-enheder og lignende. Efter mange uger med den selvkørende bil, der krydser rundt i dit lokalsamfund, mærker du det nu næsten ikke. For dig er det blot endnu en bil på de allerede befærdede offentlige veje.

For ikke at du tror, ​​det er umuligt eller usandsynligt at blive fortrolig med at se selvkørende biler, har jeg ofte skrevet om, hvordan de lokaliteter, der er inden for rammerne af selvkørende bilprøver, efterhånden har vænnet sig til at se de piftede køretøjer, se min analyse på dette link her. Mange af lokalbefolkningen skiftede til sidst fra mundgabende henført stirrende til nu at udsende en ekspansiv gab af kedsomhed for at være vidne til de bugtende selvkørende biler.

Sandsynligvis er hovedårsagen lige nu til, at de måske bemærker de autonome køretøjer, på grund af irritations- og irritationsfaktoren. De bogførte AI-køresystemer sørger for, at bilerne overholder alle hastighedsgrænser og færdselsregler. For hektiske menneskelige chauffører i deres traditionelle menneske-drevne biler bliver man til tider irriteret, når man sidder fast bag de strengt lovlydige AI-baserede selvkørende biler.

Det er noget, vi alle måske skal vænne os til, med rette eller forkerte.

Tilbage til vores fortælling. Antag en dag, at en selvkørende bil i din by eller by kører med og støder på en situation, hvor en fodgænger venter på at krydse vejen. Antag, at fodgængeren ikke har vigepligt i sig selv. En menneske-drevet bil kunne køre forbi fodgængeren og være helt lovlig ved at gøre det. Ligeledes er AI-køresystemet lovligt i stand til at gå forbi den ventende fodgænger.

Beslutningen om, hvorvidt man skal stoppe og lade fodgængeren gå på tværs af gaden, er helt skønsmæssigt for føreren, uanset om han er en menneskelig fører eller et AI-køresystem.

Jeg er sikker på, at du er stødt på den slags situationer et utal af gange. Måske har du travlt, så du ikke stopper for at lade fodgængeren krydse. Ved en anden lejlighed har du god tid til at komme til din destination, så du vælger at stoppe og lade den ventende person gå over gaden. Dit humør og de særlige omstændigheder dikterer, hvad du vil vælge at gøre.

Intet ved dette scenarie virker usædvanligt eller irriterende.

Før jeg undersøger AI-siden af ​​tingene, kan du være interesseret i at vide, at dette særlige aspekt af diskretion, der tillader en fodgænger at krydse en gade, er blevet nøje undersøgt. Forskere har identificeret, at til tider kan det valg, som føreren træffer, tilsyneladende afhænge af racemæssige eller kønsmæssige skævheder. En menneskelig chauffør kan øge størrelsen på den ventende fodgænger og vælge at tillade personen at krydse som tilsyneladende baseret på førerens iboende skævheder. Om chaufføren overhovedet indser, at de gør det, er et spørgsmål om løbende forskning. Se min dækning på dette link her.

Jeg har sat scenen for vores udforskning af, hvad et AI-køresystem kan gøre i en fodgængerovergang.

Konventionel programmering af AI kan medføre, at AI-udviklerne beslutter sig for altid at lade AI-køresystemet stoppe og lade fodgængeren krydse. Dette ser ud til at være den etisk korrekte eller civile ting at gøre. Den selvkørende bil afholder sig fra det ventende menneske, der vil krydse gaden.

Jeg tør godt sige, at hvis du var en passager i en selvkørende bil, og AI'en altid stoppede for alle diskretionære afventende fodgængere, kunne du blive skør. Din hurtige tur til købmanden kan tage mange gange længere tid. Husk også, at vi ikke refererer til fodgængere, der har den hengivne juridiske ret til at krydse, da disse tilfælde formodentlig allerede ville have AI programmeret til altid at tillade. Vi fokuserer kun på de skønsmæssige omstændigheder.

Der er flere ulemper ved denne erklæring om altid at stoppe for at lade diskretionære fodgængere krydse gaden.

Dem, der laver og stiller med AI-baserede selvkørende biler, vil have folk til at køre i dem. Tanken er, at vi ved at have selvkørende biler kan reducere antallet af årlige bilulykker, som i øjeblikket producerer omkring 40,000 årlige dødsulykker og 2.5 millioner kvæstelser alene i USA, se min statistiksamling på dette link her. Ud over dette ærede samfundsmål håber bilproducenterne og selvkørende teknologiproducenter også at tjene penge på deres kunstig intelligens-kreationer.

Jeg tager dette op, fordi folk måske beslutter ikke at køre i selvkørende biler, hvis AI-køresystemet gør ting, der unødigt ender med at forsinke ture. Ethvert almindeligt menneske vil ræsonnere, at ved i stedet at vælge en menneskelig chauffør, kan rejsen være hurtigere, og derfor kan valg af en AI selvkørende bil til en tur blive placeret meget lavt på listen over deres valg. Det ville igen betyde, at vi ikke ville have den ønskede reduktion af bilulykker, og også at producenterne potentielt ville finde deres varer som urentable.

I betragtning af det sæt af argumenter kan du blive påvirket til at tro, at AI aldrig bør stoppe, når der opstår et skønsmæssigt tilfælde af en fodgænger, der ønsker at krydse gaden. Bare programmer AI-køresystemet til at gøre alt, hvad der er strengt lovligt. Hvis der ikke er et lovkrav om at lade en fodgænger krydse, så held og lykke for den ventende fodgænger. Måske skulle personen tage vej til et overgangssted, der giver mulighed for et juridisk grundlag for AI'en, der stopper den selvkørende bil.

Kan du forestille dig opråbet om dette?

Folk i din by eller by opdager gradvist, at AI-selvkørende biler aldrig vil tillade en diskretionær fodgænger at krydse. Den forbandede hæsblæsende AI! Det er, som om AI'en tumler på næsen af ​​mennesker. En uopdragen møgunge af et stykke dårlig automatisering. For at toppe dette, forestil dig, at der er dokumenterede omstændigheder, hvor fodgængere har desperat behov for at krydse, og AI'en ville slet ikke stoppe.

I mellemtiden stoppede menneskelige chauffører villigt for at lade disse "desperate" mennesker komme sikkert over gaden.

Som et resultat af denne forargelse er AI-selvkørende biler ikke længere velkomne på gader og veje i din lokalitet. Tilladelser, der var blevet udstedt af byens ledere, tilbagekaldes. At få de utaknemmelige dyr væk fra vores veje er det vokale råb.

Okay, vi ser ud til at være mellem sten og hårdt. AI'en bør ikke altid lade den skønsmæssige fodgænger krydse (stands ikke altid). AI'en bør ikke altid forhindre en diskretionær fodgænger i at krydse (zoom ikke altid forbi). Hvad skal man gøre?

Det åbenlyse svar ville være at programmere AI'en til at handle på en diskretionær måde.

Jeg beder dig om at overveje den ADM (algoritmisk beslutningstagning), som dette burde bestå af. Vil AI forsøge at opdage fodgængerens natur og bruge de iagttagede egenskaber som grundlag for at beslutte, om den selvkørende bil skal stoppes eller ej? Måske er en, der ser ældre ud, vejen at vælge. Men er den aldersdiskrimination på vej? Og så videre.

Måske er AI-køresystemet programmeret til at stoppe i dagtimerne og aldrig stoppe om natten. Logikken er muligvis, at det formodes mere sikkert for kørerne i den selvkørende bil, at det selvkørende køretøj standser om dagen, men ikke på de mere nervøse timer om aftenen.

Det lyder måske fornuftigt. En del af problemet vil være fodgængernes forventninger. Her er hvad jeg mener. Fodgængere ser de AI-selvkørende biler standse for skønsmæssige krydsninger, som sker i dagslys. Fodgængerne ved ikke, hvilke kriterier AI'en bruger til at beslutte at stoppe. Nogle fodgængeres antagelse er, at AI altid vil stoppe (ikke at indse, at dagslys versus nat er den sande bestemmende faktor). Som et resultat vil de fodgængere, der tror, ​​at den selvkørende bil altid vil stoppe, tage en chance og begynde at krydse, når AI-køresystemet slet ikke sigter på at stoppe (hvilket AI sandsynligvis ville stoppe, hvis fodgængeren kommer ind på gaden, selvom det kan være skævt, og fysikken kan forhindre AI i at stoppe den selvkørende bil utilstrækkelig tid til at undgå at ramme den tilsyneladende "vildfarne" fodgænger).

Antag, at AI-udviklerne og firmaerne, der sammensætter og stiller de selvkørende biler i din by, er usikre på, hvordan man får AI'en opdateret i denne sag.

De beslutter sig for at "træne" AI'en på data indsamlet fra hele lokaliteten. Det viser sig, at der er masser af bymonterede kameraer, der har fanget bilernes komme og gå i hele township. Disse data viser mange tilfælde af fodgængere, der søger at krydse gaden på en skønsmæssig måde. Alle data føres ind i et Machine Learning og Deep Learning-system for at udlede, hvad der anses for sædvanligt i den pågældende jurisdiktion.

Træner vi AI til at gøre, hvad lokale etiske skikke viser, der skal gøres?

Med andre ord, hvis en given by havde en lokal kulturel mere tendens til at stoppe og lade diskretionære fodgængere krydse, som det fremgår af menneskelige chaufførers handlinger, ville ML/DL potentielt samle op på dette mønster. AI'en ville derefter blive trænet til at gøre det samme. I den anden yderlighed, hvis de menneskelige drivere sjældent stopper, ville AI'en potentielt få den "lektion" fra beregningsmæssig analyse af dataene. AI'en vil gøre, som mennesker gør.

Påstanden er, at menneskers etiske adfærd bliver fanget i dataene, og at AI kommer til at gennemsyre de samme etiske forskrifter ved beregningsanalyse. En etiker vil generelt beskrive dette som en kommunitær tilgang til etik. Fællesskabets fælles værdier afspejles i samfundets indsats som helhed.

Dette kan virke som en smart løsning.

Desværre er der mange faldgruber.

Et måske åbenlyst problem er, at de menneskelige chauffører måske allerede udøver en form for skævhed ved at vælge at stoppe eller ikke stoppe (som tidligere nævnt). AI'en vil så være en kopi af disse skævheder. Ønsker vi, at det skal være tilfældet?

Overvej et andet problem. Antag, at menneskelige chauffører ikke uden videre accepterer, hvordan de selvkørende AI-biler fungerer. Bare fordi menneskelige chauffører var lad os sige villige til at stoppe, er det måske ikke lige så formodet for selvkørende biler. Det kan være, at menneskelige chauffører bliver irriterede over de AI-selvkørende biler, der bliver ved med at stoppe for skønsmæssige fodgængere, selvom det samme sker i hænderne på menneskelige chauffører, men det ser ikke ud til at forstyrre menneskelige chauffører.

Udover at være forstyrrende, kan du også fremtrylle muligheden for, at menneskelige bilister utilsigtet kommer bagud i selvkørende biler. Hvis en menneskelig chauffør ikke forventede, at den selvkørende bil skulle stoppe for en fodgænger, og hvis den menneskekørende bil er direkte bagved den selvkørende bil, kan der opstå en alvorlig forventningsafstemning. AI-køresystemet bringer den selvkørende bil til standsning. Den menneskelige chauffør havde ikke forudset denne handling. Den menneskelige chauffør slår ind i den selvkørende bil. Kvæstelser og muligvis dødsfald følger.

Jeg påpegede med vilje chancerne for menneskelig skade.

Fodgængeren, der krydser gaden, kan ved et hurtigt blik virke som et trivielt spørgsmål. Det ser ud til, at ingen kan komme til skade, uanset hvilken metode AI'en vælger at stoppe eller ikke stoppe. Forkert! Der er risiko for, at fodgængeren bliver kørt over. Der er en chance for, at en menneskedrevet bil ramler ind i den selvkørende bil. Føreren og passagererne i den menneskedrevne bil kan komme til skade. Rytterne inde i den selvkørende bil kan komme til skade. Yderligere permutationer af mulig menneskelig skade er let forestillet.

Konklusion

Apropos menneskelig skade, så vil jeg give dig noget andet for at få dine tanker til at tumle på denne etiske AI-gåde.

En nyhed rapporterede, at en mand kørte en bil ind i et vejkryds og havde grønt lys til at gøre det. En anden menneske-drevet bil valgte at køre over for rødt lys i krydset og kørte ulovligt og usikkert uhindret ind i krydset og truede med at påkøre den lovligt kørende bil.

Chaufføren fortalte journalister, at han var nødt til at vælge mellem at tage påkørslen, eller han kunne svinge sin bil for forhåbentlig at undgå at blive ramt, men der var fodgængere i nærheden, og svingningen kunne bringe disse mennesker i fare. Hvad ville du gøre? Du kan vælge at blive ramt af denne truende bil og måske leve for at fortælle historien. Eller du kan forsøge at undgå at blive ramt, men i mellemtiden muligvis køre uskyldige fodgængere ned.

Meget af vores daglige kørsel har den slags etisk enorme og øjeblikkelige beslutninger, der skal træffes. Jeg har diskuteret dette indgående, sammen med at relatere disse beslutninger om liv eller død kørsel til det berømte eller nogle siger berygtede Trolley Problem, se min uddybning på linket her.

Erstat den menneskelige chauffør i dette scenarie med et AI-køresystem.

Hvad vil du have, at AI skal gøre?

Det er et forvirrende spørgsmål.

En tilgang er at programmere AI'en til ihærdigt at køre ligeud og dermed ikke engang regnemæssigt overveje andre muligheder, såsom at vende væk fra det sandsynlige styrt. Jeg ville forvente, at ryttere i selvkørende biler vil blive kede af at finde ud af, at AI'en ikke var udtænkt til at gøre andet end at tage et slag. Du kan forvente retssager og tumult.

En anden tilgang ville være at prøve at programmere AI til at overveje de forskellige muligheder. Hvem får dog etableret den ADM, der bestemmer, hvilken vej AI-køresystemet skal gå? Det ser ud til, at det er fyldt med rigelige bekymringer at lade AI-udviklere tage sådanne vægtige beslutninger på egen hånd.

Du kan prøve at lade AI'en "lære" af menneskelige kørselsdata indsamlet af daglige trafiksituationer. Dette er beslægtet med fodgængerovergangsdilemmaet og den tidligere foreslåede idé om at bruge samlede data til at få AI til at indsamle, hvad end de lokale etiske skikke så ud til at være. Der er masser af advarsler om det, såsom om de ML/DL opdagede mønstre er passende eller ej osv.

Jeg havde også advaret om, at der er en chance for, at AI'en opsamler måske uetisk adfærd, afhængigt af de involverede etiske skikke. Antag for eksempel, at AI'en på en eller anden måde landede på et beregningsmønster for altid at sigte mod fodgængere, når en anden bil truede med at ramme den selvkørende bil.

Hov, pas på fodgængere, I bliver færdige mål.

Tid til at lukke diskussionen for nu og gøre det med en opmuntrende sidste tanke.

Du er måske klar over, at Isaac Asimov foreslog hans "Three Laws Of Robotics" i 1950, og vi er stadig den dag i dag vilde med disse proklamerede regler. Selvom reglerne ser ud til at være let at overholde, såsom at et AI-system eller en robot ikke må skade et menneske og heller ikke tillade et menneske at komme til skade, er der masser af afgørende nuancer, der gør dette komplekse og til tider uholdbart, se min analyse på linket her.

Under alle omstændigheder er her noget andet, som Asimov også er kendt for, dog mindre: "Lad aldrig din moralske sans komme i vejen for at gøre det rigtige."

For den etiske AI, som vi alle håber at udtænke, skal vi huske på, at den AI-etik, der er præget af AI, måske ikke er, hvad vi forventede, og at AI'en på en eller anden måde stadig skal gøre, hvad der er rigtigt. Asimov sagde det godt. Længe før syntes Aristoteles at tænke ret lignende følelser.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- sagen-med-ai-i-autonome-selv-kørende-biler/