AI-etik ringer alarmklokker om det truende spøgelse af AI-fordomme i massiv global skala, specielt drevet via truende fuldt autonome systemer

Platon sagde berømt, at en god beslutning er baseret på viden og ikke på tal.

Denne skarpe indsigt virker forbavsende forudseende om nutidens kunstig intelligens (AI).

Du kan se, på trods af de bragende overskrifter, der i øjeblikket proklamerer, at AI på en eller anden måde har nået sansning og legemliggør menneskelig viden og ræsonnement, skal du være opmærksom på, at denne overvurderede AI-hyperbole er snigende fordomme, da vi stadig er afhængige af tal-knas i dagens algoritme-beslutningstagning (ADM). ) som udført af AI-systemer. Selv den berygtede Machine Learning (ML) og Deep Learning (DL) består af computational pattern matching, hvilket betyder, at tal stadig er kernen i den ophøjede brug af ML/DL.

Vi ved ikke, om AI at nå sansning er muligt. Kunne være, måske ikke. Ingen kan med sikkerhed sige, hvordan dette kan opstå. Nogle mener, at vi gradvist vil forbedre vores beregningsmæssige AI-indsats, således at en form for sansning vil opstå spontant. Andre mener, at AI kan gå ind i en slags beregningssupernova og nå sansning stort set af sig selv (typisk omtalt som singulariteten). For mere om disse teorier om fremtiden for AI, se min dækning på linket her.

Så lad os ikke narre os selv og fejlagtigt tro, at nutidig AI er i stand til at tænke som mennesker. Jeg formoder, at spørgsmålet så kommer på banen om Platons bemærkning om, hvorvidt vi kan have gode beslutninger baseret på beregningsmæssig AI frem for på sansende AI. Du vil måske blive overrasket over at vide, at jeg vil påstå, at vi faktisk kan få gode beslutninger, der bliver truffet af daglige AI-systemer.

Den anden side af den mønt er, at vi også kan have dagligdags AI-systemer, der træffer dårlige beslutninger. Rådne beslutninger. Beslutninger, der er fyldt med uønskede skævheder og uligheder. Du er måske klar over, at da den seneste æra af kunstig intelligens gik i gang, var der et stort udbrud af begejstring for, hvad nogle nu kalder AI til gode. Desværre begyndte vi at være vidne til det i hælene af den brusende spænding AI For Bad. For eksempel er forskellige AI-baserede ansigtsgenkendelsessystemer blevet afsløret som indeholdende racemæssige skævheder og kønsbias, som jeg har diskuteret på linket her.

Bestræbelser på at kæmpe imod AI For Bad er aktivt i gang. Udover højrøstet juridiske bestræbelserne på at tøjle uretfærdigheden, er der også et væsentligt skub i retning af at omfavne AI-etik for at rette op på AI-modfærdigheden. Idéen er, at vi bør vedtage og godkende vigtige etiske AI-principper for udviklingen og feltet af AI for at underbyde AI For Bad og samtidig indvarsle og fremme det foretrukne AI til gode.

Min omfattende dækning af AI-etik og etisk AI kan findes på dette link her , dette link her, For blot at nævne nogle få.

Til denne her diskussion vil jeg gerne bringe et særligt bekymrende aspekt om AI op, som dem i AI Ethics arenaen med rette beklager og forsøger at skabe passende bevidsthed om. Den nøgterne og foruroligende sag er faktisk ret ligetil at påpege.

Her er det: AI har potentialet i den virkelige verden til at udbrede AI-prægede skævheder på en alarmerende global skala.

Og når jeg siger "i skala" betyder det beviseligt verdensomspændende massiv skala. Humongøs skala. Skala, der går ud af skalaen.

Før jeg dykker ned i, hvordan denne skalering af AI-prægede skævheder vil finde sted, lad os sørge for, at vi alle har et blik for, hvordan AI kan inkorporere unødige skævheder og uligheder. Husk igen, at dette ikke er af en sansende sort. Det hele er af en beregningsmæssig kaliber.

Du kan være forvirret over, hvordan kunstig intelligens kan præge de samme slags negative skævheder og uligheder, som mennesker gør. Vi har en tendens til at tænke på AI som værende fuldstændig neutral, upartisk, simpelthen en maskine, der ikke har noget af det følelsesmæssige svaj og dårlige tankegang, som mennesker kan have. En af de mest almindelige måder, hvorpå AI falder ind i skævheder og uligheder, sker ved brug af Machine Learning og Deep Learning, delvist som et resultat af at stole på indsamlede data om, hvordan mennesker træffer beslutninger.

Tillad mig et øjeblik at uddybe.

ML/DL er en form for computational pattern matching. Den sædvanlige tilgang er, at du samler data om en beslutningsopgave. Du føder dataene ind i ML/DL-computermodellerne. Disse modeller søger at finde matematiske mønstre. Efter at have fundet sådanne mønstre, hvis det er fundet, vil AI-systemet bruge disse mønstre, når de støder på nye data. Ved præsentationen af ​​nye data anvendes mønstrene baseret på de "gamle" eller historiske data til at gøre en aktuel beslutning.

Jeg tror, ​​du kan gætte, hvor det er på vej hen. Hvis mennesker, der har truffet de mønstrede beslutninger, har inkorporeret uønskede skævheder, er oddsene, at dataene afspejler dette på subtile, men væsentlige måder. Maskinlærings- eller Deep Learning-beregningsmønstermatchningen vil simpelthen forsøge at matematisk efterligne dataene i overensstemmelse hermed. Der er ingen antydning af sund fornuft eller andre sansende aspekter af AI-fremstillet modellering i sig selv.

Desuden er AI-udviklerne måske heller ikke klar over, hvad der foregår. Den mystiske matematik i ML/DL kan gøre det svært at fjerne de nu skjulte skævheder. Du ville med rette håbe og forvente, at AI-udviklerne ville teste for de potentielt begravede skævheder, selvom dette er vanskeligere, end det måske ser ud til. Der er en solid chance for, at selv med relativt omfattende tests, vil der stadig være skævheder indlejret i mønstermatchningsmodellerne for ML/DL.

Du kunne lidt bruge det berømte eller berygtede ordsprog om skrald-ind skrald-ud. Sagen er, at dette er mere beslægtet med biases-in, der snigende bliver infunderet som skævheder nedsænket i AI. Algoritmen beslutningstagning eller ADM af AI bliver aksiomatisk fyldt med uligheder.

Ikke godt.

Dette bringer os til spørgsmålet om AI-fyldte skævheder, når det er på skala.

Lad os først se på, hvordan menneskelige skævheder kan skabe ulighed. En virksomhed, der laver realkreditlån, beslutter sig for at hyre en realkreditlåneagent. Agenten skal gennemgå anmodninger fra forbrugere, der ønsker at få et boliglån. Efter at have vurderet en ansøgning, træffer agenten en beslutning om enten at yde lånet eller afslå lånet. Easy-peasy.

For diskussionens skyld, lad os forestille os, at en menneskelig låneagent kan analysere 8 lån om dagen, hvilket tager omkring en time pr. gennemgang. På en fem-dages arbejdsuge laver agenten omkring 40 låneanmeldelser. På årsbasis laver agenten typisk omkring 2,000 låneanmeldelser, giver eller tager lidt.

Virksomheden ønsker at øge mængden af ​​låneanmeldelser, og virksomheden ansætter således 100 yderligere låneagenter. Lad os antage, at de alle har nogenlunde den samme produktivitet, og at det betyder, at vi nu kan håndtere omkring 200,000 lån om året (med en hastighed på 2,000 låneanmeldelser pr. år pr. agent). Det ser ud til, at vi virkelig har skruet op for vores behandling af låneansøgninger.

Det viser sig, at virksomheden udtænker et AI-system, der i det væsentlige kan lave de samme låneanmeldelser som de menneskelige agenter. AI'en kører på computerservere i skyen. Via cloud-infrastrukturen kan virksomheden nemt tilføje mere computerkraft for at imødekomme enhver mængde af låneanmeldelser, der måtte være nødvendige.

Med den eksisterende AI-konfiguration kan de lave 1,000 lånegennemgange i timen. Dette kan også ske 24×7. Der er ingen ferietid nødvendig for AI. Ingen frokostpauser. AI'en arbejder døgnet rundt uden at tude over at være overanstrengt. Vi vil sige, at med det omtrentlige tempo kan AI'en behandle næsten 9 millioner låneansøgninger om året.

Bemærk, at vi gik fra at have 100 menneskelige agenter, der kunne foretage 200,000 lån om året, og hoppede mange gange over til det meget øgede antal af 9 millioner anmeldelser om året via AI-systemet. Vi har dramatisk opskaleret vores behandling af låneanmodninger. Ingen tvivl om det.

Gør dig klar til kickeren, der måske får dig til at falde ned af stolen.

Antag, at nogle af vores menneskelige agenter træffer deres lånebeslutninger på grundlag af uønskede skævheder. Måske giver nogle racemæssige faktorer en nøglerolle i lånebeslutningen. Måske bruger nogle køn. Andre bruger alder. Og så videre.

Hvor mange af de 200,000 årlige lånegennemgange bliver udført under det uretmæssige blik af negative skævheder og uligheder? Måske 10%, hvilket er omkring 20,000 af låneanmodningerne. Endnu værre, antag, at det er 50 % af låneanmodningerne, i hvilket tilfælde der er ret bekymrende 100,000 årlige tilfælde af lånebeslutninger, der er truffet forkert.

Det er slemt. Men vi mangler endnu at overveje en endnu mere skræmmende mulighed.

Antag, at AI har en skjult bias, der består af faktorer som race, køn, alder og lignende. Hvis 10 % af de årlige låneanalyser er udsat for denne uhygge, har vi 900,000 låneanmodninger, der bliver behandlet forkert. Det er meget mere end hvad de menneskelige agenter overhovedet kunne gøre, primært på grund af volumen aspekter. Disse 100 agenter, hvis alle fuldstændig lavede en urimelig gennemgang, kunne højst gøre dette på de 200,000 årlige låneanmeldelser. AI kunne gøre det samme i meget stor skala af de 9,000,000 årlige anmeldelser.

Yikes!

Dette er virkelig AI-præget bias i et enormt omfang.

Når uønskede skævheder er begravet i et AI-system, vendes den samme skalering, der virkede fordelagtig, nu på hovedet og bliver et monstrøst forførende (og foruroligende) skaleringsresultat. På den ene side kan AI med fordel racet op til at håndtere flere mennesker, der anmoder om boliglån. På overfladen virker det enormt AI til gode. Vi burde klappe os selv på skulderen for formentlig at udvide chancerne for, at mennesker får nødvendige lån. I mellemtiden, hvis AI'en har indlejrede skævheder, vil skaleringen være et enormt råddent resultat, og vi finder os selv beklageligt bundet ind i AI For Bad, i en virkelig massiv skala.

Det ordsprogede tveæggede sværd.

AI kan radikalt øge adgangen til beslutningstagning for dem, der søger de ønskede tjenester og produkter. Ikke mere en flaskehals med menneskelig begrænsning. Fremragende! Den anden kant af sværdet er, at hvis AI'en indeholder ondskab såsom skjulte uligheder, vil den selvsamme massive skalering udsende den uønskede adfærd i en ufattelig skala. Irriterende, uretmæssigt, skammeligt, og vi kan ikke tillade, at samfundet falder i sådan en grim afgrund.

Enhver, der har været forundret over, hvorfor vi er nødt til at slå løs på vigtigheden af ​​AI-etik, burde nu indse, at AI-skaleringsfænomenet er en pokkers vigtig grund til at forfølge etisk AI. Lad os tage et øjeblik til kort at overveje nogle af de vigtigste etiske AI-forskrifter for at illustrere, hvad der burde være et vigtigt fokus for enhver, der laver, arbejder med eller bruger AI.

For eksempel, som anført af Vatikanet i Rom opfordrer til AI-etik og som jeg har dækket indgående kl linket her, disse er deres identificerede seks primære AI-etiske principper:

  • Gennemsigtighed: I princippet skal AI-systemer kunne forklares
  • Inklusion: Der skal tages hensyn til alle menneskers behov, så alle kan få gavn, og alle kan tilbydes de bedst mulige betingelser for at udtrykke sig og udvikle sig.
  • Ansvar: De, der designer og implementerer brugen af ​​AI, skal fortsætte med ansvar og gennemsigtighed
  • Uvildighed: Lad være med at skabe eller handle i overensstemmelse med bias, og dermed sikre retfærdighed og menneskelig værdighed
  • Pålidelighed: AI-systemer skal kunne fungere pålideligt
  • Sikkerhed og privatliv: AI-systemer skal fungere sikkert og respektere brugernes privatliv.

Som anført af det amerikanske forsvarsministerium (DoD) i deres Etiske principper for brugen af ​​kunstig intelligens og som jeg har dækket indgående kl linket her, disse er deres seks primære AI-etiske principper:

  • Ansvarlig: DoD-personale vil udøve passende niveauer af dømmekraft og omhu, mens de forbliver ansvarlige for udvikling, implementering og brug af AI-kapaciteter.
  • Retfærdig: Afdelingen vil tage bevidste skridt for at minimere utilsigtet skævhed i AI-kapaciteter.
  • Sporbar: Afdelingens AI-kapaciteter vil blive udviklet og implementeret, således at relevant personale besidder en passende forståelse af teknologien, udviklingsprocesser og operationelle metoder, der gælder for AI-kapaciteter, herunder med gennemsigtige og auditerbare metoder, datakilder og designprocedure og dokumentation.
  • Pålidelig: Afdelingens AI-kapaciteter vil have eksplicitte, veldefinerede anvendelser, og sikkerheden, sikkerheden og effektiviteten af ​​sådanne kapaciteter vil være genstand for test og forsikring inden for disse definerede anvendelser i hele deres livscyklus.
  • Styrbar: Afdelingen vil designe og konstruere AI-kapaciteter til at opfylde deres tilsigtede funktioner, samtidig med at den har evnen til at opdage og undgå utilsigtede konsekvenser og evnen til at deaktivere eller deaktivere installerede systemer, der viser utilsigtet adfærd.

Jeg har også diskuteret forskellige kollektive analyser af AI-etiske principper, herunder at have dækket et sæt udtænkt af forskere, der undersøgte og kondenserede essensen af ​​adskillige nationale og internationale AI-etiske principper i et papir med titlen "The Global Landscape Of AI Ethics Guidelines" (publiceret i Natur), og at min dækning udforsker kl linket her, som førte til denne keystone-liste:

  • Gennemsigtighed
  • Retfærdighed og Retfærdighed
  • Ikke-ondskab
  • Ansvarlighed
  • Privatliv
  • godgørenhed
  • Frihed & Autonomi
  • Stol
  • Bæredygtighed
  • Værdighed
  • Solidaritet

Som du umiddelbart kan gætte, kan det være ekstremt svært at prøve at fastlægge de detaljer, der ligger til grund for disse principper. Endnu mere er bestræbelsen på at omdanne disse brede principper til noget helt håndgribeligt og detaljeret nok til at blive brugt, når man laver AI-systemer, også en svær nød at knække. Det er let generelt at vinke lidt med hånden om, hvad AI-etiske forskrifter er, og hvordan de generelt skal overholdes, mens det er en meget mere kompliceret situation, når AI-kodningen skal være den veritable gummi, der møder vejen.

AI-etiske principper skal bruges af AI-udviklere, sammen med dem, der styrer AI-udviklingsindsatsen, og endda dem, der i sidste ende udfører og udfører vedligeholdelse på AI-systemer. Alle interessenter gennem hele AI-livscyklussen for udvikling og brug betragtes inden for rammerne af at overholde de etablerede normer for etisk AI. Dette er et vigtigt højdepunkt, da den sædvanlige antagelse er, at "kun kodere" eller dem, der programmerer AI'en, er underlagt AI-etikkens begreber. Vær opmærksom på, at det kræver en landsby at udtænke og udforme AI. For hvilket hele landsbyen skal holde sig på tæerne om AI-etik.

Sådan fungerer AI-Steeped Biases-skalering

Nu hvor jeg er kommet ind på bordet, at AI kan indeholde skævheder, er vi klar til at undersøge nogle af grundene til, at AI-skalering er så påtrængende.

Overvej denne keystone-liste med ti underliggende årsager:

  1. Nemt at replikere
  2. Minimale omkostninger til skalering
  3. Afskyeligt konsekvent
  4. Mangel på selvrefleksion
  5. Blind lydighed
  6. Vipper ikke hånden
  7. Modtager intetanende
  8. Har ikke en tendens til at anspore til provokation
  9. Falsk aura af retfærdighed
  10. Svært at tilbagevise

Jeg vil kort udforske hvert af disse afgørende punkter.

Når du forsøger at skalere op med menneskelig arbejdskraft, er oddsene, at det vil være enormt kompliceret at gøre det. Du skal finde og ansætte folkene. Du skal træne dem til at udføre arbejdet. Du skal betale dem og tage hensyn til menneskelige ønsker og behov. Sammenlign dette med et AI-system. Du udvikler det og tager det i brug. Bortset fra en vis mængde løbende vedligeholdelse af AI, kan du læne dig tilbage og lade den behandle uendeligt.

Det betyder, at AI let kan replikeres. Du kan tilføje mere computerkraft, efterhånden som opgaven og volumen kræver det (du ansætter eller fyrer ikke). Global brug sker med et tryk på en knap og opnås ved den verdensomspændende tilgængelighed af internettet. Opskaleringen er en minimal omkostning i forhold til at gøre det samme med menneskelig arbejdskraft.

Menneskeligt arbejde er notorisk inkonsekvent. Når du har store hold, har du en veritabel æske chokolade, så du aldrig ved, hvad du kan have på hænderne. AI-systemet vil sandsynligvis være meget konsekvent. Den gentager de samme aktiviteter igen og igen, hver gang er i det væsentlige den samme som den sidste.

Normalt ville vi nyde AI-konsistens. Hvis mennesker er tilbøjelige til skævheder, vil vi altid have en del af vores menneskelige arbejde på afveje. AI'en ville, hvis den var rent upartisk i sin konstruktion og beregningsmæssige indsats, være langt mere konsekvent. Problemet er dog, at hvis AI'en har skjulte skævheder, er konsistensen nu smerteligt afskyelig. Oddsene er, at den partiske adfærd vil blive udført konsekvent, igen og igen.

Mennesker ville forhåbentlig have en anelse om selvrefleksion og måske fange sig selv i at tage forudindtagede beslutninger. Jeg siger ikke, at alle ville gøre det. Jeg siger heller ikke, at de, der fanger sig selv, nødvendigvis vil rette op på deres fejl. Under alle omstændigheder ville i det mindste nogle mennesker nogle gange rette sig selv.

Det er usandsynligt, at AI har nogen form for beregningsmæssig selvrefleksion. Det betyder, at AI'en bare bliver ved med at gøre, hvad den gør. Der ville tilsyneladende være nul chance for, at AI'en opdager, at den løber på kant med egenkapitalen. Når det er sagt, har jeg beskrevet nogle bestræbelser på at håndtere dette, såsom at bygge AI Ethics-komponenter inden for AI (se linket her) og udtænke AI, der overvåger anden AI for at skelne uetiske AI-aktiviteter (se linket her).

Mangler enhver form for selvrefleksion, vil AI sandsynligvis også have i det væsentlige blind lydighed over for, hvad den end blev instrueret til at gøre. Mennesker er måske ikke så lydige. Chancerne er, at nogle mennesker, der udfører en opgave, vil stille spørgsmålstegn ved, om de måske bliver guidet ind i uligheds-territorium. De ville have en tendens til at afvise uetiske kommandoer eller måske gå whistleblower-vejen (se min dækning på dette link her). Forvent ikke, at dagligdags moderne AI på en eller anden måde sætter spørgsmålstegn ved dens programmering.

Vi vender derefter til dem, der bruger AI. Hvis du søgte et boliglån og talte med et menneske, kan du være opmærksom på, om mennesket giver dig en retfærdig rystelse. Når de bruger et AI-system, ser de fleste ud til at være mindre mistænksomme. De antager ofte, at AI'en er fair, og ergo bliver ikke så hurtigt ophidset. AI ser ud til at lulle folk ind i en "det er bare en maskine"-trance. Oven i dette kan det være svært at forsøge at protestere mod AI. I modsætning hertil er det meget lettere at protestere mod, hvordan du blev behandlet af en menneskelig agent, og meget mere almindeligt accepteret og antaget som levedygtigt muligt.

Alt sagt, AI, der er gennemsyret af skævheder, har et uærligt ben-up i forhold til mennesker, der er gennemsyret af skævheder, nemlig i forhold til at være i stand til at få AI'en massivt til at implementere disse skævheder i en gigantisk skala, og gøre det uden så let at blive fanget eller have forbrugere indse, hvad der foruroligende finder sted.

På dette tidspunkt i denne diskussion vil jeg vædde på, at du ønsker nogle yderligere eksempler, der kan fremvise gåden med AI-fyldte skævheder i stor skala.

Jeg er glad for at du spurgte.

Der er et særligt og helt sikkert populært sæt eksempler, som ligger mit hjerte nært. Ser du, i min egenskab af ekspert i kunstig intelligens, herunder de etiske og juridiske konsekvenser, bliver jeg ofte bedt om at identificere realistiske eksempler, der viser AI-etiske dilemmaer, så emnets noget teoretiske karakter lettere kan forstås. Et af de mest stemningsfulde områder, der levende præsenterer dette etiske AI-dilemma, er fremkomsten af ​​AI-baserede ægte selvkørende biler. Dette vil tjene som et praktisk use case eller et eksempel til omfattende diskussion om emnet.

Her er så et bemærkelsesværdigt spørgsmål, som er værd at overveje: Belyser fremkomsten af ​​AI-baserede ægte selvkørende biler noget om AI-baserede skævheder i skala, og hvis ja, hvad viser dette?

Tillad mig et øjeblik at pakke spørgsmålet ud.

Først skal du bemærke, at der ikke er en menneskelig chauffør involveret i en ægte selvkørende bil. Husk, at ægte selvkørende biler køres via et AI-køresystem. Der er ikke behov for en menneskelig fører ved rattet, og der er heller ikke en bestemmelse om, at et menneske kan føre køretøjet. For min omfattende og løbende dækning af Autonome Vehicles (AV'er) og især selvkørende biler, se linket her.

Jeg vil gerne yderligere præcisere, hvad der menes, når jeg refererer til ægte selvkørende biler.

Forståelse af niveauerne af selvkørende biler

Som en afklaring er ægte selvkørende biler dem, som AI kører bilen helt alene, og der er ikke nogen menneskelig hjælp under køreopgaven.

Disse førerløse køretøjer betragtes som niveau 4 og niveau 5 (se min forklaring på dette link her), mens en bil, der kræver en menneskelig chauffør til at dele køreindsatsen, normalt betragtes på niveau 2 eller niveau 3. De biler, der deler køreopgaven, beskrives som værende semi-autonome og indeholder typisk en række forskellige automatiserede tilføjelser, der omtales som ADAS (Advanced Driver-Assistance Systems).

Der er endnu ikke en ægte selvkørende bil på niveau 5, som vi endnu ikke engang ved, om dette er muligt at opnå, og heller ikke hvor lang tid det vil tage at komme dertil.

I mellemtiden forsøger niveau 4-indsatsen gradvist at få noget trækkraft ved at gennemgå meget smalle og selektive forsøg på offentlige vejbaner, selvom der er uenighed om, hvorvidt denne test skal tillades i sig selv (vi er alle liv-eller-død marsvin i et eksperiment finder sted på vores motorveje og biveje, hævder nogle, se min dækning på dette link her).

Da semi-autonome biler kræver en menneskelig chauffør, vil vedtagelsen af ​​disse typer biler ikke være markant anderledes end at køre konventionelle køretøjer, så der er ikke meget nyt i sig selv at dække om dem om dette emne (dog, som du vil se på et øjeblik gælder de næste nævnte punkter generelt).

For semi-autonome biler er det vigtigt, at offentligheden skal advares om et foruroligende aspekt, der er opstået for nylig, nemlig at trods de menneskelige chauffører, der fortsætter med at indsende videoer af sig selv falder i søvn ved rattet i en niveau 2 eller niveau 3 bil , er vi alle nødt til at undgå at blive vildledt til at tro, at chaufføren kan fjerne deres opmærksomhed fra køreopgaven, mens han kører en semi-autonom bil.

Du er den ansvarlige part for køretøjets kørselshandlinger, uanset hvor meget automatisering der kan kastes i et niveau 2 eller niveau 3.

Selvkørende biler og AI-fordomme i stor skala

For ægte selvkørende køretøjer på niveau 4 og niveau 5 er der ikke en menneskelig chauffør, der er involveret i køreopgaven.

Alle passagerer vil være passagerer.

AI driver kørslen.

Et aspekt, som man straks skal diskutere, indebærer det faktum, at AI involveret i nutidens AI-køresystemer ikke er væsentlig. Med andre ord er AI'et helt en samling af computerbaseret programmering og algoritmer, og helt sikkert ikke i stand til at ræsonnere på samme måde som mennesker kan.

Hvorfor er denne ekstra vægt på, at AI ikke er følelsesladet?

Fordi jeg vil understrege, at når jeg diskuterer AI-køresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær opmærksom på, at der i disse dage er en løbende og farlig tendens til at antropomorfisere AI. I det væsentlige tildeler folk menneskelignende følsomhed til nutidens AI, på trods af den ubestridelige og uomtvistelige kendsgerning, at der endnu ikke findes sådan en sådan AI.

Med denne afklaring kan du forestille dig, at AI-køresystemet ikke på en eller anden måde "ved" noget om kørselens facetter. Kørsel og alt, hvad det medfører, skal programmeres som en del af den selvkørende bils hardware og software.

Lad os dykke ned i det utal af aspekter, der kommer til at spille om dette emne.

For det første er det vigtigt at indse, at ikke alle AI selvkørende biler er ens. Hver bilproducent og selvkørende teknologivirksomhed tager sin tilgang til at udtænke selvkørende biler. Som sådan er det svært at komme med omfattende udsagn om, hvad AI-køresystemer vil gøre eller ej.

Når det endvidere angives, at et AI -køresystem ikke gør nogle særlige ting, kan dette senere blive overhalet af udviklere, der faktisk programmerer computeren til at gøre det. Trin for trin forbedres og udvides AI -drivsystemer gradvist. En eksisterende begrænsning i dag eksisterer muligvis ikke længere i en fremtidig iteration eller version af systemet.

Jeg stoler på, at det giver en tilstrækkelig mængde forbehold til at ligge til grund for det, jeg er ved at fortælle.

Vi er klar til nu at dykke ned i selvkørende biler og de etiske AI-muligheder, der indebærer udforskningen af ​​AI-prægede skævheder, der promulgeres i stor skala.

Lad os bruge et ligetil eksempel. En AI-baseret selvkørende bil er undervejs på gaderne i dit nabolag og ser ud til at køre sikkert. I begyndelsen havde du viet særlig opmærksomhed, hver gang det lykkedes dig at få et glimt af den selvkørende bil. Det autonome køretøj skilte sig ud med sit stativ af elektroniske sensorer, der omfattede videokameraer, radarenheder, LIDAR-enheder og lignende. Efter mange uger med den selvkørende bil, der krydser rundt i dit lokalsamfund, mærker du det nu næsten ikke. For dig er det blot endnu en bil på de allerede befærdede offentlige veje.

For ikke at du tror, ​​det er umuligt eller usandsynligt at blive fortrolig med at se selvkørende biler, har jeg ofte skrevet om, hvordan de lokaliteter, der er inden for rammerne af selvkørende bilprøver, efterhånden har vænnet sig til at se de piftede køretøjer, se min analyse på dette link her. Mange af lokalbefolkningen skiftede til sidst fra mundgabende henført stirrende til nu at udsende en ekspansiv gab af kedsomhed for at være vidne til de bugtende selvkørende biler.

Sandsynligvis er hovedårsagen lige nu til, at de måske bemærker de autonome køretøjer, på grund af irritations- og irritationsfaktoren. De bogførte AI-køresystemer sørger for, at bilerne overholder alle hastighedsgrænser og færdselsregler. For hektiske menneskelige chauffører i deres traditionelle menneske-drevne biler bliver man til tider irriteret, når man sidder fast bag de strengt lovlydige AI-baserede selvkørende biler.

Det er noget, vi alle måske skal vænne os til, med rette eller forkerte.

Tilbage til vores fortælling.

Det viser sig, at to upassende bekymringer begynder at opstå om de ellers uskadelige og generelt velkomne AI-baserede selvkørende biler, specifikt:

en. Hvor AI'en strejfer rundt, var de selvkørende biler for at hente forlystelser truende som en udtalt bekymring

b. Hvordan AI behandler ventende fodgængere, der ikke har vigepligt, dukkede op som et presserende problem

Først roamede AI'en de selvkørende biler gennem hele byen. Enhver, der ønskede at anmode om en tur i den selvkørende bil, havde stort set samme chance for at hylde en. Gradvist begyndte AI'en primært at holde de selvkørende biler i roaming i kun én del af byen. Denne sektion var en større pengeskaber, og AI-systemet var blevet programmeret til at forsøge at maksimere indtægterne som en del af brugen i samfundet.

Medlemmer af lokalsamfundet i de fattige dele af byen var mindre tilbøjelige til at få en tur fra en selvkørende bil. Dette skyldtes, at de selvkørende biler var længere væk og roamede i den højere indtægtsdel af lokaliteten. Når der kom en forespørgsel fra en fjern bydel, ville enhver forespørgsel fra et tættere sted, der sandsynligvis var i den "agterede" del af byen, få en højere prioritet. Til sidst var tilgængeligheden af ​​at få en selvkørende bil et hvilket som helst andet sted end den rigere del af byen næsten umuligt, irriterende for dem, der boede i disse nu ressourcesultede områder.

Du kan hævde, at AI'en stort set landede på en form for proxy-diskrimination (også ofte omtalt som indirekte diskrimination). AI'en var ikke programmeret til at undgå de fattigere kvarterer. I stedet "lærte" den at gøre det via brugen af ​​ML/DL.

Sagen er, at menneskelige chauffører, der deler rideture, var kendt for at gøre det samme, men ikke nødvendigvis udelukkende på grund af vinklen til at tjene penge. Der var nogle af de menneskelige chauffører, der deler rideture, som havde en urimelig bias med hensyn til at samle ryttere op i visse dele af byen. Dette var et noget kendt fænomen, og byen havde indført en overvågningsmetode for at fange menneskelige chauffører, der gør dette. Menneskelige chauffører kan komme i problemer for at udføre ubehagelige udvælgelsesmetoder.

Det blev antaget, at AI'en aldrig ville falde i den samme slags kviksand. Der blev ikke oprettet nogen specialiseret overvågning for at holde styr på, hvor de AI-baserede selvkørende biler var på vej hen. Først efter at medlemmer af lokalsamfundet begyndte at klage, indså byens ledere, hvad der foregik. For mere om disse typer bydækkende problemer, som autonome køretøjer og selvkørende biler vil præsentere, se min dækning på dette link her og som beskriver en Harvard-ledet undersøgelse, som jeg var medforfatter på om emnet.

Dette eksempel på roaming-aspekterne af de AI-baserede selvkørende biler illustrerer den tidligere indikation af, at der kan være situationer, der involverer mennesker med uønskede skævheder, for hvilke kontroller er sat på plads, og at AI'en, der erstatter disse menneskelige chauffører, efterlades skotsk. ledig. Desværre kan AI'en så gradvist blive fast i beslægtede skævheder og gøre det uden tilstrækkelige autoværn på plads.

Dette viser også de AI-baserede skævheder ved skalaspørgsmål.

I tilfælde af menneskelige chauffører kunne vi have haft nogle få her eller der, der udøvede en form for ulighed. For AI-køresystemet er det normalt en sådan samlet AI for en hel flåde af selvkørende biler. Således kunne vi være begyndt med f.eks. halvtreds selvkørende biler i byen (alle kørt med den samme AI-kode) og gradvist øget til lad os sige 500 selvkørende biler (alle køres med den samme AI-kode). Da alle disse fem hundrede selvkørende biler køres af den samme AI, er de tilsvarende alle underlagt de samme afledte skævheder og uligheder, der er indlejret i AI'en.

Skalering skader os i den forbindelse.

Et andet eksempel involverer AI, der bestemmer, om de skal stoppe for at vente på fodgængere, der ikke har vigepligt til at krydse en gade.

Du har utvivlsomt kørt og stødt på fodgængere, der ventede på at krydse gaden, og alligevel havde de ikke vigepligten til at gøre det. Det betød, at du havde skøn med hensyn til, om du skulle stoppe og lade dem krydse. Du kan fortsætte uden at lade dem krydse og stadig være fuldt ud inden for de lovlige kørselsregler for at gøre det.

Undersøgelser af, hvordan menneskelige bilister beslutter sig for at stoppe eller ikke stoppe for sådanne fodgængere, har antydet, at nogle gange træffer de menneskelige bilister valget baseret på uønskede skævheder. En menneskelig chauffør kan se på fodgængeren og vælge ikke at stoppe, selvom de ville være stoppet, hvis fodgængeren havde haft et andet udseende, f.eks. baseret på race eller køn. Jeg har undersøgt dette kl linket her.

Forestil dig, at de AI-baserede selvkørende biler er programmeret til at håndtere spørgsmålet om, hvorvidt de skal stoppe eller ej for fodgængere, der ikke har vigepligt. Her er hvordan AI-udviklerne besluttede at programmere denne opgave. De indsamlede data fra byens videokameraer, der er placeret rundt omkring i byen. Dataene viser menneskelige bilister, der stopper for fodgængere, der ikke har vigepligt, og menneskelige bilister, der ikke stopper. Det hele er samlet i et stort datasæt.

Ved at bruge Machine Learning og Deep Learning modelleres dataene beregningsmæssigt. AI-køresystemet bruger derefter denne model til at beslutte, hvornår det skal stoppe eller ikke stoppe. Generelt er tanken, at uanset hvad den lokale skik består af, er det sådan, AI'en vil lede den selvkørende bil.

Til overraskelse for byens ledere og beboerne valgte AI åbenbart at stoppe eller ikke stoppe baseret på fodgængerens udseende, inklusive deres race og køn. Sensorerne i den selvkørende bil ville scanne den afventende fodgænger, føre disse data ind i ML/DL-modellen, og modellen ville udsende til AI, om den skulle stoppe eller fortsætte. Beklageligt havde byen allerede en masse menneskelige chauffører i denne henseende, og AI'en efterlignede nu det samme.

Dette eksempel illustrerer, at et AI-system blot kan duplikere de allerede eksisterende uønskede skævheder hos mennesker. Desuden gør den det i stor skala. Enhver menneskelig chauffør kunne nogle gange have lært at gøre denne uheldige form for udvælgelse eller måske personligt valgt til at gøre det, men chancerne er, at hovedparten af ​​de menneskelige chauffører sandsynligvis ikke gør dette i massevis.

I skarp kontrast vil AI-køresystemet, der bliver brugt til at køre selvkørende biler, sandsynligvis afskyeligt konsekvent og sikkert udføre den afledte bias.

Konklusion

Der er et væld af måder at forsøge at undgå at udtænke AI, der har uønskede skævheder, eller som over tid samler skævheder. Ideen er så vidt muligt at fange problemerne, før du går i højt gear og ramper op til skalering. Forhåbentlig slipper fordomme ikke ud af døren, så at sige.

Antag dog, at der vil opstå skævheder på den ene eller anden måde i AI. Når du først er blevet implementeret i massiv skala med AI, kan du ikke bare gøre en af ​​de ofte udråbte teknologiske "fire and forget"-forestillinger. Du skal flittigt holde styr på, hvad AI'en laver, og søge at opdage eventuelle uønskede skævheder, der skal rettes.

Som tidligere påpeget, involverer en tilgang at sikre, at AI-udviklere er opmærksomme på AI-etik og dermed tilskynde dem til at være på tæerne for at programmere AI'en til at afværge disse forhold. En anden mulighed består i at lade AI selvovervåge sig selv for uetisk adfærd og/eller have et andet stykke AI, der overvåger andre AI-systemer for potentielt uetisk adfærd. Jeg har dækket adskillige andre potentielle løsninger i mine skrifter.

En sidste tanke for nu. Efter at have startet denne diskussion med et citat af Platon, kunne det være passende at afslutte diskursen med endnu en skarpsindig udtalelse fra Platon.

Platon sagde, at der ikke er nogen skade i at gentage en god ting.

Letheden ved at gå i skala med AI er bestemt et levedygtigt middel til at opnå en sådan optimistisk ambition, når AI er af AI til gode bred vifte. Vi nyder at gentage en god ting. Når AI er AI For Bad og fyldt med uønskede skævheder og uligheder, kan vi læne os op ad Platons bemærkninger og sige, at der er rigelig skade i at gentage en dårlig ting.

Lad os lytte nøje til Platons kloge ord og udtænke vores AI i overensstemmelse hermed.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- global-skala-især-drevet-via-truende-fuldt-autonome-systemer/