AI-etik siger, at AI især bør implementeres, når der er mange menneskelige skævheder

Mennesker har lært deres begrænsninger at kende.

Du husker måske den beslægtede berømte linje om at kende vores begrænsninger, sådan som karakteren Dirty Harry udtalte i 1973-filmen med titlen. Magnum force (ifølge skuespilleren Clint Eastwoods talte ord i hans mindeværdige rolle som inspektør Harry Callahan). Den overordnede opfattelse er, at vi nogle gange har en tendens til at overse vores egne grænser og få os selv i varmt vand i overensstemmelse hermed. Uanset om det skyldes hybris, at være egocentrisk eller blot blind for vores egne evner, er forskriften om at være opmærksom på og tage eksplicit hensyn til vores tilbøjeligheder og mangler meget fornuftig og nyttig.

Lad os tilføje et nyt twist til salvierådet.

Kunstig intelligens (AI) har lært sine begrænsninger at kende.

Hvad mener jeg med den variant af den ærede slagord?

Det viser sig, at det indledende hastværk med at få nutidens AI i brug som en håbefuld løser af verdens problemer er blevet besudlet og totalt besudlet af erkendelsen af, at nutidens AI har nogle ret alvorlige begrænsninger. Vi gik fra de opløftende overskrifter af AI til gode og har i stigende grad fundet os selv fast i AI For Bad. Du kan se, mange kunstig intelligens-systemer er blevet udviklet og behandlet med alle mulige uheldige race- og kønsmæssige skævheder og et utal af andre sådanne forfærdelige uligheder.

For min omfattende og løbende dækning af AI-etik og etisk AI, se linket her , linket her, For blot at nævne nogle få.

De skævheder, der bliver opdaget i disse AI-systemer, er ikke af den skal vi sige "tilsigtede" type, som vi ville tilskrive menneskelig adfærd. Jeg nævner dette for at understrege, at nutidens AI ikke er sansende. På trods af de bragende overskrifter, der tyder på noget andet, er der bare ikke nogen kunstig intelligens nogen steder, der overhovedet kommer tæt på sansning. Derudover ved vi ikke, hvordan vi får AI ind i sansningsgruppen, plus ingen kan sige med sikkerhed, om vi nogensinde vil opnå AI-sans. Måske sker det en dag, eller måske ikke.

Så min pointe er, at vi ikke kan tildele intentioner til den slags AI, som vi i øjeblikket besidder. Når det er sagt, kan vi rigeligt tildele intentioner til dem, der laver AI-systemer. Nogle AI-udviklere er ikke klar over, at de har udtænkt et AI-system, der indeholder ubehagelige og muligvis ulovlige skævheder. I mellemtiden indser andre AI-udviklere, at de indgyder skævheder i deres AI-systemer, hvilket potentielt gør det på en målrettet forkert måde.

Uanset hvad, er resultatet ikke desto mindre stadig upassende og sandsynligvis ulovligt.

Ihærdige bestræbelser er i gang for at udbrede AI-etiske principper, der vil oplyse AI-udviklere og give passende vejledning til at undgå at indlejre skævheder i deres AI-systemer. Dette vil hjælpe på en todelt måde. For det første vil de, der laver AI, ikke længere have den klare undskyldning, at de bare ikke var klar over, hvilke forskrifter der skulle følges. For det andet vil de, der afviger fra de etiske AI-forhold, lettere blive fanget og vist som at afværge det, som de blev advaret om både at gøre og ikke gøre.

Lad os tage et øjeblik til kort at overveje nogle af de vigtigste etiske AI-forskrifter for at illustrere, hvad AI-byggere burde tænke på og nøje påtage sig ud fra en AI-etisk holdning.

Som anført af Vatikanet i Rom opfordrer til AI-etik og som jeg har dækket indgående kl linket her, disse er deres identificerede seks primære AI-etiske principper:

  • Gennemsigtighed: I princippet skal AI-systemer kunne forklares
  • Inklusion: Der skal tages hensyn til alle menneskers behov, så alle kan få gavn, og alle kan tilbydes de bedst mulige betingelser for at udtrykke sig og udvikle sig.
  • Ansvar: De, der designer og implementerer brugen af ​​AI, skal fortsætte med ansvar og gennemsigtighed
  • Uvildighed: Lad være med at skabe eller handle i overensstemmelse med bias, og dermed sikre retfærdighed og menneskelig værdighed
  • Pålidelighed: AI-systemer skal kunne fungere pålideligt
  • Sikkerhed og privatliv: AI-systemer skal fungere sikkert og respektere brugernes privatliv.

Som anført af det amerikanske forsvarsministerium (DoD) i deres Etiske principper for brugen af ​​kunstig intelligens og som jeg har dækket indgående kl linket her, disse er deres seks primære AI-etiske principper:

  • Ansvarlig: DoD-personale vil udøve passende niveauer af dømmekraft og omhu, mens de forbliver ansvarlige for udvikling, implementering og brug af AI-kapaciteter.
  • Retfærdig: Afdelingen vil tage bevidste skridt for at minimere utilsigtet skævhed i AI-kapaciteter.
  • Sporbar: Afdelingens AI-kapaciteter vil blive udviklet og implementeret, således at relevant personale besidder en passende forståelse af teknologien, udviklingsprocesser og operationelle metoder, der gælder for AI-kapaciteter, herunder med gennemsigtige og auditerbare metoder, datakilder og designprocedure og dokumentation.
  • Pålidelig: Afdelingens AI-kapaciteter vil have eksplicitte, veldefinerede anvendelser, og sikkerheden, sikkerheden og effektiviteten af ​​sådanne kapaciteter vil være genstand for test og forsikring inden for disse definerede anvendelser i hele deres livscyklus.
  • Styrbar: Afdelingen vil designe og konstruere AI-kapaciteter til at opfylde deres tilsigtede funktioner, samtidig med at den har evnen til at opdage og undgå utilsigtede konsekvenser og evnen til at deaktivere eller deaktivere installerede systemer, der viser utilsigtet adfærd.

Jeg har også diskuteret forskellige kollektive analyser af AI-etiske principper, herunder at have dækket et sæt udtænkt af forskere, der undersøgte og kondenserede essensen af ​​adskillige nationale og internationale AI-etiske principper i et papir med titlen "The Global Landscape Of AI Ethics Guidelines" (publiceret i Natur), og at min dækning udforsker kl linket her, som førte til denne keystone-liste:

  • Gennemsigtighed
  • Retfærdighed og Retfærdighed
  • Ikke-ondskab
  • Ansvarlighed
  • Privatliv
  • godgørenhed
  • Frihed & Autonomi
  • Stol
  • Bæredygtighed
  • Værdighed
  • Solidaritet

Som du umiddelbart kan gætte, kan det være ekstremt svært at prøve at fastlægge de detaljer, der ligger til grund for disse principper. Endnu mere er bestræbelsen på at omdanne disse brede principper til noget helt håndgribeligt og detaljeret nok til at blive brugt, når man laver AI-systemer, også en svær nød at knække. Det er let generelt at vinke lidt med hånden om, hvad AI-etiske forskrifter er, og hvordan de generelt skal overholdes, mens det er en meget mere kompliceret situation, når AI-kodningen skal være den veritable gummi, der møder vejen.

AI-etiske principper skal bruges af AI-udviklere, sammen med dem, der styrer AI-udviklingsindsatsen, og endda dem, der i sidste ende udfører og udfører vedligeholdelse på AI-systemer. Alle interessenter gennem hele AI-livscyklussen for udvikling og brug betragtes inden for rammerne af at overholde de etablerede normer for etisk AI. Dette er et vigtigt højdepunkt, da den sædvanlige antagelse er, at "kun kodere" eller dem, der programmerer AI'en, er underlagt AI-etikkens begreber. Vær opmærksom på, at det kræver en landsby at udtænke og udforme AI. For hvilket hele landsbyen skal holde sig på tæerne om AI-etik.

Anyway, nu hvor jeg er kommet ind på bordet, at AI kan indeholde skævheder, kan vi måske alle være enige om disse to tilsyneladende fakta:

1. Mennesker kan have adskillige uønskede skævheder og kan handle på dem

2. AI kan have adskillige uønskede skævheder og kan reagere på disse skævheder

Jeg er noget afsky for at stable mennesker versus AI i den sammenhæng, da det på en eller anden måde kan antyde, at AI har sansende kapaciteter på niveau med mennesker. Sådan er det bestemt ikke. Jeg vil et øjeblik vende tilbage til de stigende bekymringer om antropomorfisering af AI lidt senere i denne diskussion.

Hvad er værre, mennesker, der udviser uønskede skævheder eller AI, der gør det?

Jeg tør godt sige, at spørgsmålet stiller et af de dystre valg. Det er den ordsprogede mindste af to onder, kan man hævde. Vi ville ønske, at mennesker ikke legemliggjorde uønskede skævheder. Vi ville endvidere ønske, at selvom mennesker har uheldige skævheder, vil de ikke handle på disse skævheder. Det samme kunne passende siges om AI. Vi ville ønske, at AI ikke indlejrede uønskede skævheder, og at selvom der er sådanne internt kodede skævheder, at AI i det mindste ikke ville handle på dem.

Ønsker styrer dog ikke nødvendigvis verden (til min analyse af det stigende og foruroligende udseende af såkaldte AI-ønskeopfyldelse af samfundet som helhed, se linket her).

Okay, vi ønsker selvfølgelig, at mennesker skal kende deres begrænsninger. Det er vigtigt at erkende, når du har uønskede skævheder. Det er lige så vigtigt at forsøge at forhindre disse uønskede skævheder i at blive infunderet i dine handlinger og beslutninger. Virksomheder i dag forsøger alle mulige tilgange for at forhindre, at deres medarbejdere falder i de alvorlige faldgruber. Der gives specialuddannelse til medarbejderne i, hvordan de udfører deres arbejde på etisk forsvarlige måder. Processer er formet omkring medarbejdere for at advare dem, når de ser ud til at udvise uetiske skikke. Og så videre.

Et andet middel til at håndtere mennesker og deres uheldige skævheder ville være at automatisere menneskebaseret arbejde. Ja, bare fjern mennesket fra løkken. Tillad ikke et menneske at udføre en beslutningsopgave, og du har formentlig ikke længere nogen dvælende bekymringer om den menneskelige holdning til uønskede skævheder. Der er ikke et menneske involveret, og dermed ser problemet med potentielle menneskelige skævheder ud til at være løst.

Jeg bringer dette op, fordi vi er vidne til et gradvist og massivt skift i retning af at bruge AI på en algoritmebeslutningsmåde (ADM). Hvis du kan erstatte en menneskelig arbejder med AI, er oddsene, at der vil opstå en masse fordele. Som allerede nævnt, ville du ikke længere bekymre dig om den menneskelige arbejders menneskelige fordomme (den, der ikke længere udfører det job). Chancerne er, at AI vil være mindre omkostningsfuldt samlet set sammenlignet med en langsigtet tidshorisont. Du undværer alle de andre forskellige vanskeligheder, der følger med menneskelige arbejdere. Etc.

Et forslag, der vinder frem, ser ud til at være dette: Når du prøver at beslutte, hvor du bedst placerer AI, skal du først se på indstillinger, der allerede indebærer uønskede menneskelige skævheder fra dine medarbejdere, og for hvilke disse skævheder underbyder eller på anden måde overdrevent komplicerer bestemte beslutningstagningsopgaver.

Bundlinjen er, at det ville virke klogt at få mest muligt for pengene med hensyn til at investere i kunstig intelligens ved at sigte direkte mod meget eksponerede menneskelige beslutningsopgaver, som er svære at kontrollere fra et uønsket infusionsperspektiv. Fjern de menneskelige arbejdere i den rolle. Erstat dem med AI. Antagelsen er, at AI ikke ville have sådanne uheldige skævheder. Derfor kan du også få din kage og spise den, nemlig få påtaget beslutningsopgaverne og gøre det minus det etiske og juridiske spøgelse af uheldige skævheder.

Når du udstikker det, vil ROI (afkast af investering) sandsynligvis gøre vedtagelsen af ​​AI til et no-brainer valg.

Sådan plejer det at forløbe.

Se gennem hele din virksomhed og prøv at identificere de beslutningsopgaver, der påvirker kunderne. Hvilke af disse opgaver vil mest sandsynligt blive uhensigtsmæssigt påvirket, hvis arbejderne inkarnerer uønskede skævheder? Hvis du allerede har prøvet at tøjle disse skævheder, lader du måske tingene stå, som de er. På den anden side, hvis skævhederne bliver ved med at dukke op igen, og bestræbelserne på at udrydde dem er besværlige, kan du overveje at droppe noget relevant AI i den rolle. Lad være med at holde arbejderne i blandingen, da de kan tilsidesætte AI'en eller skubbe AI'en lige tilbage i den uheldige afgrund. Sørg også for, at AI'en kan udføre opgaven dygtigt, og du har tilstrækkeligt fanget de beslutningsmæssige facetter, der kræves for at udføre jobbet.

Skyl og gentag.

Jeg er klar over, at det virker som en ligetil idé, men indser dog, at der er mange måder, hvorpå det let kan gå galt at udskifte menneskelige arbejdere med AI. Mange virksomheder var ivrige efter at tage sådanne handlinger og overvejede ikke nøje, hvordan de skulle gøre det. Som følge heraf lavede de ofte et meget værre rod, end de havde på hånden til at starte med.

Jeg vil gerne præcisere og fremhæve, at kunstig intelligens ikke er et vidundermiddel.

Apropos det, så er der et stort problem med renligheden ved tilsyneladende at smide de menneskelige beslutningstagere ud med den angiveligt objektive AI. Problemet er, at du måske blot erstatter et sæt uønskede skævheder med et andet. Ifølge den tidligere indikation kan AI indeholde uønskede skævheder og kan reagere på disse skævheder. At komme med en fræk antagelse om, at udskiftning af forudindtaget mennesker med upartisk kunstig intelligens ikke er alt, hvad det skal være.

Kort sagt, her er aftalen, når man ser på sagen udelukkende ud fra bias-faktorerne:

  • AI'en har ingen uønskede skævheder, og derfor er den AI-baserede ADM praktisk at implementere
  • AI'en har de samme uønskede skævheder som de mennesker, der bliver erstattet, og derfor er den AI-baserede ADM bekymrende
  • AI introducerer nye uønskede skævheder ud over dem, som de udskiftede mennesker har, og vil sandsynligvis forværre tingene i overensstemmelse hermed
  • AI virker til at begynde med fint og slingrer derefter gradvist ind i uønskede skævheder
  • Andet

De muligheder kan vi kort udpakke.

Den første er den idealiserede version af, hvad der kan ske. AI har ingen uønskede skævheder. Du sætter AI'en på plads, og den gør arbejdet fremragende. Godt for dig! Selvfølgelig kunne man håbe, at du også på en eller anden dygtig måde har håndteret fordrivelsen af ​​menneskelige arbejdere på grund af AI-inkluderingen.

I det andet tilfælde sætter du AI'en på plads og opdager, at AI'en udviser de samme uheldige skævheder, som de menneskelige arbejdere havde. Hvordan kan det være? Et almindeligt middel til at falde i denne fælde er ved at bruge Machine Learning (ML) og Deep Learning (DL) baseret på indsamlede data om, hvordan menneskene i rollen tidligere traf deres beslutninger.

Tillad mig et øjeblik at forklare.

ML/DL er en form for computational pattern matching. Den sædvanlige tilgang er, at du samler data om en beslutningsopgave. Du føder dataene ind i ML/DL-computermodellerne. Disse modeller søger at finde matematiske mønstre. Efter at have fundet sådanne mønstre, hvis det er fundet, vil AI-systemet bruge disse mønstre, når de støder på nye data. Ved præsentationen af ​​nye data anvendes mønstrene baseret på de "gamle" eller historiske data til at gøre en aktuel beslutning.

Jeg tror, ​​du kan gætte, hvor det er på vej hen. Hvis de mennesker, der har udført arbejdet i år efter år, har inkorporeret uønskede skævheder, er oddsene, at dataene afspejler dette på subtile, men væsentlige måder. Maskinlærings- eller Deep Learning-beregningsmønstermatchningen vil simpelthen forsøge at matematisk efterligne dataene i overensstemmelse hermed. Der er ingen antydning af sund fornuft eller andre sansende aspekter af modelleringen i sig selv.

Desuden er AI-udviklerne måske heller ikke klar over, hvad der foregår. Den mystiske matematik kan gøre det svært at fjerne de nu skjulte skævheder. Du ville med rette håbe og forvente, at AI-udviklerne ville teste for de potentielt begravede skævheder, selvom dette er vanskeligere, end det måske ser ud til. Der er en solid chance for, at selv med relativt omfattende tests, vil der stadig være skævheder indlejret i mønstermatchningsmodellerne for ML/DL.

Alt i alt, kan du ende tilbage til udgangspunktet. De samme uheldige skævheder hos mennesker er nu beregningsmæssigt afspejlet i AI-systemet. Du har ikke udryddet skævhederne.

Endnu værre er det måske mindre sandsynligt, at du indser, at AI har skævheder. Når det drejer sig om mennesker, kan du normalt være på din vagt over, at mennesker har uønskede skævheder. Dette er en grundlæggende forventning. Brugen af ​​kunstig intelligens kan lokke ledere til at tro, at automatisering fuldstændigt har fjernet enhver form for menneskelig skævhed. De indstiller sig således på at have skudt sig selv i foden. De slap af med mennesker med tilsyneladende kendte uønskede skævheder, idet de blev erstattet af AI, som man mente ikke havde sådanne skævheder, og alligevel har de nu taget AI i brug fyldt med de samme skævheder, der allerede er kendt for at eksistere.

Dette kan få tingene virkelig på tværs. Du har muligvis fjernet andre autoværn, der blev brugt sammen med de menneskelige arbejdere, som blev etableret for at opdage og forhindre fremkomsten af ​​de allerede forventede menneskelige skævheder. AI'en har nu frie tøjler. Intet er på plads til at fange det, før det handler. AI'en kunne derefter begynde at føre dig ned ad en trist vej af den enorme ophobning af partiske handlinger.

Og du er i den akavede og måske ansvarlige holdning, som du engang kendte til skævhederne og nu har tilladt disse skævheder at skabe kaos. Det er måske én ting, at man aldrig nogensinde er stødt på sådanne uheldige skævheder, og så pludselig ud af det blå springer AI'en dem ud. Du kan prøve at undskylde dette med "hvem ville have gættet" slags distraktor (måske ikke særlig overbevisende). Men nu at have sat AI op, der gør de samme uhensigtsmæssige handlinger som før, ja, dine undskyldninger bliver tyndere og haltere.

Et twist på dette indebærer, at AI udviser uheldige skævheder, som ikke tidligere var blevet stødt på, da mennesker udførte opgaven. Man kan sige, at dette måske er sværere at have forhindret, da det består af "nye" skævheder, som firmaet ikke tidligere havde været på udkig efter. I sidste ende vil undskyldninger måske ikke give dig meget lindring. Hvis AI-systemet har vovet sig ind på både uetisk og ulovligt område, kan din gås være kogt.

En anden facet at huske på er, at AI kan starte fint og derefter gå ind i uønskede skævheder. Dette er især sandsynligt, når brugen af ​​Machine Learning eller Deep Learning foregår løbende for at holde AI'en opdateret. Uanset om ML/DL arbejder i realtid eller periodisk laver opdateringer, bør opmærksomheden være, om AI'en muligvis indtager data, der nu indeholder bias, og som tidligere ikke var til stede.

For ledere, der tror, ​​de får en gratis frokost ved at vifte med en tryllestav for at erstatte forudindtaget menneskelige arbejdere med AI, er de i vente en meget uhøflig opvågning. Se min diskussion om vigtigheden af ​​at styrke ledere med AI-etikkens forskrifter på linket her.

På dette tidspunkt i denne diskussion vil jeg vædde på, at du ønsker nogle eksempler fra den virkelige verden, der måske viser gåden med at erstatte (eller ej) menneskelige uønskede skævheder med AI-baserede uønskede skævheder.

Jeg er glad for at du spurgte.

Der er et særligt og helt sikkert populært sæt eksempler, som ligger mit hjerte nært. Ser du, i min egenskab af ekspert i kunstig intelligens, herunder de etiske og juridiske konsekvenser, bliver jeg ofte bedt om at identificere realistiske eksempler, der viser AI-etiske dilemmaer, så emnets noget teoretiske karakter lettere kan forstås. Et af de mest stemningsfulde områder, der levende præsenterer dette etiske AI-dilemma, er fremkomsten af ​​AI-baserede ægte selvkørende biler. Dette vil tjene som et praktisk use case eller et eksempel til omfattende diskussion om emnet.

Her er så et bemærkelsesværdigt spørgsmål, som er værd at overveje: Belyser fremkomsten af ​​AI-baserede ægte selvkørende biler noget om uheldige skævheder i AI, og hvis ja, hvad viser dette?

Tillad mig et øjeblik at pakke spørgsmålet ud.

Først skal du bemærke, at der ikke er en menneskelig chauffør involveret i en ægte selvkørende bil. Husk, at ægte selvkørende biler køres via et AI-køresystem. Der er ikke behov for en menneskelig fører ved rattet, og der er heller ikke en bestemmelse om, at et menneske kan føre køretøjet. For min omfattende og løbende dækning af Autonome Vehicles (AV'er) og især selvkørende biler, se linket her.

Jeg vil gerne yderligere præcisere, hvad der menes, når jeg refererer til ægte selvkørende biler.

Forståelse af niveauerne af selvkørende biler

Som en afklaring er ægte selvkørende biler dem, som AI kører bilen helt alene, og der er ikke nogen menneskelig hjælp under køreopgaven.

Disse førerløse køretøjer betragtes som niveau 4 og niveau 5 (se min forklaring på dette link her), mens en bil, der kræver en menneskelig chauffør til at dele køreindsatsen, normalt betragtes på niveau 2 eller niveau 3. De biler, der deler køreopgaven, beskrives som værende semi-autonome og indeholder typisk en række forskellige automatiserede tilføjelser, der omtales som ADAS (Advanced Driver-Assistance Systems).

Der er endnu ikke en ægte selvkørende bil på niveau 5, som vi endnu ikke engang ved, om dette er muligt at opnå, og heller ikke hvor lang tid det vil tage at komme dertil.

I mellemtiden forsøger niveau 4-indsatsen gradvist at få noget trækkraft ved at gennemgå meget smalle og selektive forsøg på offentlige vejbaner, selvom der er uenighed om, hvorvidt denne test skal tillades i sig selv (vi er alle liv-eller-død marsvin i et eksperiment finder sted på vores motorveje og biveje, hævder nogle, se min dækning på dette link her).

Da semi-autonome biler kræver en menneskelig chauffør, vil vedtagelsen af ​​disse typer biler ikke være markant anderledes end at køre konventionelle køretøjer, så der er ikke meget nyt i sig selv at dække om dem om dette emne (dog, som du vil se på et øjeblik gælder de næste nævnte punkter generelt).

For semi-autonome biler er det vigtigt, at offentligheden skal advares om et foruroligende aspekt, der er opstået for nylig, nemlig at trods de menneskelige chauffører, der fortsætter med at indsende videoer af sig selv falder i søvn ved rattet i en niveau 2 eller niveau 3 bil , er vi alle nødt til at undgå at blive vildledt til at tro, at chaufføren kan fjerne deres opmærksomhed fra køreopgaven, mens han kører en semi-autonom bil.

Du er den ansvarlige part for køretøjets kørselshandlinger, uanset hvor meget automatisering der kan kastes i et niveau 2 eller niveau 3.

Selvkørende biler og kunstig intelligens med uønskede skævheder

For ægte selvkørende køretøjer på niveau 4 og niveau 5 er der ikke en menneskelig chauffør, der er involveret i køreopgaven.

Alle passagerer vil være passagerer.

AI driver kørslen.

Et aspekt, som man straks skal diskutere, indebærer det faktum, at AI involveret i nutidens AI-køresystemer ikke er væsentlig. Med andre ord er AI'et helt en samling af computerbaseret programmering og algoritmer, og helt sikkert ikke i stand til at ræsonnere på samme måde som mennesker kan.

Hvorfor er denne ekstra vægt på, at AI ikke er følelsesladet?

Fordi jeg vil understrege, at når jeg diskuterer AI-køresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær opmærksom på, at der i disse dage er en løbende og farlig tendens til at antropomorfisere AI. I det væsentlige tildeler folk menneskelignende følsomhed til nutidens AI, på trods af den ubestridelige og uomtvistelige kendsgerning, at der endnu ikke findes sådan en sådan AI.

Med denne afklaring kan du forestille dig, at AI-køresystemet ikke på en eller anden måde "ved" noget om kørselens facetter. Kørsel og alt, hvad det medfører, skal programmeres som en del af den selvkørende bils hardware og software.

Lad os dykke ned i det utal af aspekter, der kommer til at spille om dette emne.

For det første er det vigtigt at indse, at ikke alle AI selvkørende biler er ens. Hver bilproducent og selvkørende teknologivirksomhed tager sin tilgang til at udtænke selvkørende biler. Som sådan er det svært at komme med omfattende udsagn om, hvad AI-køresystemer vil gøre eller ej.

Når det endvidere angives, at et AI -køresystem ikke gør nogle særlige ting, kan dette senere blive overhalet af udviklere, der faktisk programmerer computeren til at gøre det. Trin for trin forbedres og udvides AI -drivsystemer gradvist. En eksisterende begrænsning i dag eksisterer muligvis ikke længere i en fremtidig iteration eller version af systemet.

Jeg stoler på, at det giver en tilstrækkelig mængde forbehold til at ligge til grund for det, jeg er ved at fortælle.

Vi er klar til nu at dykke ned i selvkørende biler og de etiske AI-muligheder, der indebærer udforskning af AI og uheldige skævheder.

Lad os bruge et ligetil eksempel. En AI-baseret selvkørende bil er undervejs på gaderne i dit nabolag og ser ud til at køre sikkert. I begyndelsen havde du viet særlig opmærksomhed, hver gang det lykkedes dig at få et glimt af den selvkørende bil. Det autonome køretøj skilte sig ud med sit stativ af elektroniske sensorer, der omfattede videokameraer, radarenheder, LIDAR-enheder og lignende. Efter mange uger med den selvkørende bil, der krydser rundt i dit lokalsamfund, mærker du det nu næsten ikke. For dig er det blot endnu en bil på de allerede befærdede offentlige veje.

For ikke at du tror, ​​det er umuligt eller usandsynligt at blive fortrolig med at se selvkørende biler, har jeg ofte skrevet om, hvordan de lokaliteter, der er inden for rammerne af selvkørende bilprøver, efterhånden har vænnet sig til at se de piftede køretøjer, se min analyse på dette link her. Mange af lokalbefolkningen skiftede til sidst fra mundgabende henført stirrende til nu at udsende en ekspansiv gab af kedsomhed for at være vidne til de bugtende selvkørende biler.

Sandsynligvis er hovedårsagen lige nu til, at de måske bemærker de autonome køretøjer, på grund af irritations- og irritationsfaktoren. De bogførte AI-køresystemer sørger for, at bilerne overholder alle hastighedsgrænser og færdselsregler. For hektiske menneskelige chauffører i deres traditionelle menneske-drevne biler bliver man til tider irriteret, når man sidder fast bag de strengt lovlydige AI-baserede selvkørende biler.

Det er noget, vi alle måske skal vænne os til, med rette eller forkerte.

Tilbage til vores fortælling.

Det viser sig, at to upassende bekymringer begynder at opstå om de ellers uskadelige og generelt velkomne AI-baserede selvkørende biler, specifikt:

en. Hvor AI'en strejfer rundt, er de selvkørende biler for at hente ture blevet en ængstelig bekymring i samfundet som helhed

b. Hvordan AI behandler ventende fodgængere, der ikke har vigepligt, er også et stigende problem

Først roamede AI'en de selvkørende biler gennem hele byen. Enhver, der ønskede at anmode om en tur i den selvkørende bil, havde stort set samme chance for at hylde en. Gradvist begyndte AI'en primært at holde de selvkørende biler i roaming i kun én del af byen. Denne sektion var en større pengeskaber, og AI-systemet var blevet programmeret til at forsøge at maksimere indtægterne som en del af brugen i samfundet.

Medlemmer af lokalsamfundet i de fattige dele af byen var mindre tilbøjelige til at få en tur fra en selvkørende bil. Dette skyldtes, at de selvkørende biler var længere væk og roamede i den højere indtægtsdel af lokaliteten. Når der kom en forespørgsel fra en fjern bydel, ville enhver forespørgsel fra et tættere sted, der sandsynligvis var i den "agterede" del af byen, få en højere prioritet. Til sidst var tilgængeligheden af ​​at få en selvkørende bil et hvilket som helst andet sted end den rigere del af byen næsten umuligt, irriterende for dem, der boede i disse nu ressourcesultede områder.

Du kan hævde, at AI'en stort set landede på en form for proxy-diskrimination (også ofte omtalt som indirekte diskrimination). AI'en var ikke programmeret til at undgå de fattigere kvarterer. I stedet "lærte" den at gøre det via brugen af ​​ML/DL.

Sagen er, at menneskelige chauffører, der deler rideture, var kendt for at gøre det samme, men ikke nødvendigvis udelukkende på grund af vinklen til at tjene penge. Der var nogle af de menneskelige chauffører, der deler rideture, som havde en urimelig bias med hensyn til at samle ryttere op i visse dele af byen. Dette var et noget kendt fænomen, og byen havde indført en overvågningsmetode for at fange menneskelige chauffører, der gør dette. Menneskelige chauffører kan komme i problemer for at udføre ubehagelige udvælgelsesmetoder.

Det blev antaget, at AI'en aldrig ville falde i den samme slags kviksand. Der blev ikke oprettet nogen specialiseret overvågning for at holde styr på, hvor de AI-baserede selvkørende biler var på vej hen. Først efter at medlemmer af lokalsamfundet begyndte at klage, indså byens ledere, hvad der foregik. For mere om disse typer bydækkende problemer, som autonome køretøjer og selvkørende biler vil præsentere, se min dækning på dette link her og som beskriver en Harvard-ledet undersøgelse, som jeg var medforfatter på om emnet.

Dette eksempel på roaming-aspekterne af de AI-baserede selvkørende biler illustrerer den tidligere indikation af, at der kan være situationer, der involverer mennesker med uønskede skævheder, for hvilke kontroller er sat på plads, og at AI'en, der erstatter disse menneskelige chauffører, efterlades skotsk. ledig. Desværre kan AI'en så gradvist blive fast i beslægtede skævheder og gøre det uden tilstrækkelige autoværn på plads.

Et andet eksempel involverer AI, der bestemmer, om de skal stoppe for at vente på fodgængere, der ikke har vigepligt til at krydse en gade.

Du har utvivlsomt kørt og stødt på fodgængere, der ventede på at krydse gaden, og alligevel havde de ikke vigepligten til at gøre det. Det betød, at du havde skøn med hensyn til, om du skulle stoppe og lade dem krydse. Du kan fortsætte uden at lade dem krydse og stadig være fuldt ud inden for de lovlige kørselsregler for at gøre det.

Undersøgelser af, hvordan menneskelige bilister beslutter sig for at stoppe eller ikke stoppe for sådanne fodgængere, har antydet, at nogle gange træffer de menneskelige bilister valget baseret på uønskede skævheder. En menneskelig chauffør kan se på fodgængeren og vælge ikke at stoppe, selvom de ville være stoppet, hvis fodgængeren havde haft et andet udseende, f.eks. baseret på race eller køn. Jeg har undersøgt dette kl linket her.

Forestil dig, at de AI-baserede selvkørende biler er programmeret til at håndtere spørgsmålet om, hvorvidt de skal stoppe eller ej for fodgængere, der ikke har vigepligt. Her er hvordan AI-udviklerne besluttede at programmere denne opgave. De indsamlede data fra byens videokameraer, der er placeret rundt omkring i byen. Dataene viser menneskelige bilister, der stopper for fodgængere, der ikke har vigepligt, og menneskelige bilister, der ikke stopper. Det hele er samlet i et stort datasæt.

Ved at bruge Machine Learning og Deep Learning modelleres dataene beregningsmæssigt. AI-køresystemet bruger derefter denne model til at beslutte, hvornår det skal stoppe eller ikke stoppe. Generelt er tanken, at uanset hvad den lokale skik består af, er det sådan, AI'en vil lede den selvkørende bil.

Til overraskelse for byens ledere og beboerne valgte AI åbenbart at stoppe eller ikke stoppe baseret på fodgængerens udseende, inklusive deres race og køn. Sensorerne i den selvkørende bil ville scanne den afventende fodgænger, føre disse data ind i ML/DL-modellen, og modellen ville udsende til AI, om den skulle stoppe eller fortsætte. Beklageligt havde byen allerede en masse menneskelige chauffører i denne henseende, og AI'en efterlignede nu det samme.

Den gode nyhed er, at dette rejser et problem, som næsten ingen tidligere vidste eksisterede. Den dårlige nyhed var, at siden AI'en blev fanget i at gøre dette, fik den størstedelen af ​​skylden. Dette eksempel illustrerer, at et AI-system blot kan duplikere de allerede eksisterende uønskede skævheder hos mennesker.

Konklusion

Der er et væld af måder at forsøge at undgå at udtænke AI, der enten ude af porten har uønskede skævheder, eller som over tid samler skævheder. En tilgang involverer at sikre, at AI-udviklere er opmærksomme på, at dette sker, og dermed holde dem på tæerne for at programmere AI'en til at afværge sagen. En anden mulighed består i at få AI til at overvåge sig selv for uetisk adfærd (se min diskussion på linket her) og/eller have et andet stykke AI, der overvåger andre AI-systemer for potentielt uetisk adfærd (jeg har dækket dette på linket her).

For at opsummere er vi nødt til at indse, at mennesker kan have uheldige skævheder, og at de på en eller anden måde har brug for at kende deres begrænsninger. På samme måde kan AI have uønskede skævheder, og på en eller anden måde skal vi kende deres begrænsninger.

Til dem af jer, der ivrigt omfavner AI-etik, vil jeg gerne slutte lige nu med en anden berømt linje, som alle allerede må kende. Nemlig, fortsæt med at bruge og dele vigtigheden af ​​etisk kunstig intelligens. Og ved at gøre det ville jeg frækt sige dette: "Forsæt, gør min dag."

Kilde: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/