AI-etik og autonome systemer-erektioner hentet fra den seneste Alaska Airlines-flyvning, hvor piloten og co-piloten var uenige før de lettede og brat valgte at taxa tilbage til terminalen og gå hver deres vej

Flyselskaber har været en del i nyhederne på det seneste.

Vi er i sommertiden med flyrejser. Trætte og frustrerede passagerer står over for alle mulige flyafbrydelser og flyselskabers planlægningsforvirring. Fly bliver uventet aflyst. Fly er forsinkede. Passagerer røg. Der har desværre været mange tilfælde af passagerer, der tillader disse irritationer at bryde ud, og vi har set alt for mange virale videoer af konfrontationer fra hinanden og nogle gange knaldende knytnæver.

Sjældnere lærer vi om uenigheder mellem en pilot og en andenpilot, der kan opstå i cockpittet.

Det er noget af en overraskelse.

Faktisk er vi naturligvis overrasket over at tro, at en pilot og en andenpilot ville have nogen form for alvorlig uenighed under enhver fase af en flyvning. Hvis uenigheden vedrører, hvilket mærke kaffe der er bedst, er vores antagelse, at dette ikke vil trænge ind i den arbejdsindsats, der medfører at flyve flyet. De to ville simpelthen trække på skuldrene fra deres mangel på øje-til-øje om et tilsyneladende flyve-irrelevant emne. Deres professionelle opførsel og langvarige pilotuddannelse ville sparke ind, og de ville nitte deres fokus tilbage til flydetaljerne.

Overvej dog, hvornår en faglig uenighed griber ind.

Jeg vil kort dele med jer en nyhed, der er bredt udgivet om et nyligt tilfælde af noget, der skete under en flyvning i USA vedrørende en påstået faglig uenighed i cockpittet.

Dette bliver hovedsageligt citeret heri, så vi kan udforske et relateret emne, der er af stor betydning for fremkomsten af ​​kunstig intelligens (AI). Ser du, der kan være en form for skal vi sige faglig uenighed mellem ikke kun mennesker i en menneske-til-menneske uenighed, men vi kan også have noget lignende opstå midt i adoptionen af ​​AI og ergo resulterende menneske-versus-AI faglige uenigheder . Alle mulige AI-etiske overvejelser opstår. For min omfattende og løbende dækning af AI-etik og etiske AI-spørgsmål, se linket her , linket her, bare for at nævne et par stykker.

Gør dig klar til en fascinerende fortælling.

Som for nylig rapporteret i nyhederne, opstod der tilsyneladende et tilfælde af "faglig uenighed" under en Alaska Airline-flyvning, der skulle fra Washington til San Francisco. Ifølge nyhedsrapporterne var flyet flyttet væk fra gaten og ventede på asfalten på tilladelse til at taxa og tage fly. En storm var i gang og førte til en flyforsinkelse på mere end halvanden time. Det viser sig, at flyet til sidst vendte rundt og gik tilbage til gaten, hvilket nogle af passagererne normalt kunne have antaget var blot en stormrelateret sikkerhedsforanstaltning.

Ifølge forskellige tweets ser det ud til, at piloten og andenpiloten havde en slags ude af syne-fejde under deres tid der i cockpittet og på en eller anden måde kom til den konklusion, at den mest forsigtige tilgang ville være at skrubbe flyvningen og vende tilbage til terminalen . Tweets antydede, at kaptajnen og førstebetjenten tilsyneladende ikke kunne komme overens med hinanden. Flyselskabet udsendte senere en erklæring om, at situationen var uheldig (situationen var ikke eksplicit angivet eller forklaret i sig selv), de to flyveofficerer blev evalueret af ledelsen og anset for egnede til at flyve, besætninger blev byttet, og flyvningen endte med at finde sted og nåede senere til San Francisco.

På en måde, hvis piloten og andenpiloten faktisk havde en faglig uenighed, såsom om flyet var passende klar til at flyve, eller om risikoen for at flyve gennem en storm var inden for et passende sikkerhedsområde, burde disse passagerer aflastes og taknemmelig for, at flyet blev returneret til gaten. Bedre at være sikker end undskyld. At have en ekstra forsinkelse er værd at den formodede reduktion af risici forbundet med en overvejet robust eller ugunstig flyverejse.

Nogle mennesker vil måske blive overrasket over, at en sådan faglig uenighed kunne opstå.

Vi har måske et forkert indtryk af, at alt, hvad der sker i cockpittet, er helt præcist og velskrevet. Al form for menneskelig skøn er tilsyneladende blevet vristet ud af processen. Baseret på krævende og grundigt beregnede diagrammer er en flyvning enten okay at fortsætte, eller også er den ikke. Der kan ikke være nogen uenighed, når hele sættet og caboodlen menes at være baseret på uigendrivelig beregning af fakta og tal.

Det er ikke den fulde sandhed i sagen. Sikker på, der er et væld af protokoller og alle slags checks og balances, men dette presser ikke al tød af menneskelig dømmekraft ud. Piloter og andrepiloter udøver stadig menneskelig dømmekraft. Heldigvis er denne menneskelige dømmekraft finpudset af mange års flyvning. Oddsene er, at en pilot og andenpilot i et kommercielt passagerfly har masser af tidligere flyerfaring og let udnytter deres mange års dybdegående ræsonnement og dømmekraft i forbindelse med at være ved flyvekontrollen.

I betragtning af den bemærkelsesværdige rolle, som menneskelig dømmekraft spiller, kan vi logisk nok forudse, at en pilot og en andenpilot nogle gange vil have faglige uenigheder. Det meste af tiden er der formodentlig meget lidt sådan uenighed. Piloten og andenpiloten til daglige flyvninger vil sandsynligvis være velafstemte overvægten af ​​tiden. Kun når et flyscenarie kan gå uden for de konventionelle grænser, ville vi forvente, at der opstår strammere friktion.

Hvis der er en stærk meningsforskel mellem de to, vil jeg vove at sige, at vi vil have dem til at hash det ud.

Forestil dig en situation, hvor piloten brændende ønsker at fortsætte, men andenpiloten opfatter, at risikoen er for høj. Blot at have andenpiloten kowtow til piloten ville virke uønsket. Copiloten er en check-and-balance til, hvad en pilot måske tænker på at gøre. For dem, der vil have en andenpilot til at holde kæft og udelukkende handler tankeløst i forhold til, hvad piloten dekreterer, ja, det er ikke meget af en tryghed. En andenpilot er ikke blot en ekstra "pilot", der kun kommer ind i billedet, når piloten er fuldstændig uarbejdsdygtig. Det er en misforstået forståelse af værdien af ​​at have en pilot og andenpilot i cockpittet.

Der er en anden vinkel på dette.

Overvej tilfældet med en pilot, der ikke mener, at en flyvning skal fortsætte, og i mellemtiden er andenpiloten ivrig om at komme op i luften. Hvad så? Efter det forventede hierarki formodes piloten konventionelt at vinde over copiloten. Den udpegede rolle som den primære ansvarlige gør piloten til den største af det, der ellers er nogenlunde lige. Normalt har piloten mere overordnet flyvetidskrydsning end andenpiloten, og derfor er andenpiloten hierarkisk formodet at følge pilotens ønsker (når det er inden for rimelighedens grænser).

Under alle omstændigheder tror jeg, at vi alle kan blive enige om, at det at vælge ikke at flyve er et sikkert mindre risikabelt valg end at beslutte at flyve. Når først flyet er oppe i luften, bliver risikoniveauet enormt i forhold til at være på enhver almindelig stabil grund. En sædvanlig kommerciel flyvning, der blot taxerer tilbage til terminalen uden at være kommet i luften, ville være en temmelig mindelig løsning på enhver ophedet bitter debat om at gå i flyvning.

Lad os skifte gear og bruge denne spunky nyhed til et helt andet, men relateret formål.

Vi har gradvist blandt os en udbredelse af AI-baserede autonome systemer. Nogle gange kører AI showet, som det var. AI'en gør alt fra A til Z, og vi kan opfatte dette som AI, der er fuldstændig autonom eller næsten det. I andre tilfælde kan vi have AI, der interagerer med og til en vis grad er programmeret til at være afhængig af at have et menneske-i-løkken.

Jeg vil gerne koncentrere mig om spørgsmålet om et AI-baseret autonomt eller semi-autonomt system, der fra starten har et menneske i løkken. AI'en og mennesket er bevidst stødt sammen og formodes at arbejde sammen med hinanden. De er kohorter i at udføre en bestemt opgave. Det er ikke meningen, at AI alene skal udføre opgaven. AI'en skal interagere med det udpegede menneske-i-løkken.

Jeg tager denne karakterisering op for at skelne fra situationer, hvor mennesket-i-løkken betragtes som en valgfri facet. I bund og grund får AI frit spil. Hvis AI vælger at gøre brug af mennesket, så må det gøre det. Der er ingen krav om, at AI'en skal røre base med eller arbejde hånd i hånd med det udpegede menneske. De analyser, som jeg er ved at fortælle, er bestemt relevante for den slags valgfri interaktionsarrangement, men det er ikke det, jeg specifikt kører efter i denne særlige diskussion.

Okay, så vi har en slags opgave, som et menneske og en AI skal arbejde sammen om, uadskilleligt fra hinanden. I abstrakt forstand har vi et menneske siddende på det ene sæde og et AI-system på det andet ledsagende sæde. Jeg siger det frækt, fordi vi ikke begrænser denne diskussion til for eksempel en robot, der faktisk kan sidde i et sæde. Jeg hentyder metaforisk til forestillingen om, at AI'en et eller andet sted deltager i opgaven, og det samme er mennesket. Fysisk er deres opholdssted ikke særlig afgørende for diskussionen.

Du kan være usikker på, hvornår en sådan omstændighed kan opstå.

Easy-peasy.

Jeg vil senere diskutere fremkomsten af ​​autonome køretøjer og selvkørende biler. På visse niveauer af autonomi formodes AI og mennesket at arbejde sammen. AI'en kan køre bilen og anmode om, at mennesket overtager kørekontrollen. Mennesket kører måske bilen og aktiverer AI'en for at overtage kontrollerne. De skiftes til ved kørekontrollerne.

Derudover har nogle designs, at AI'en i det væsentlige er aktiv hele tiden (eller, medmindre den er slukket), således at AI'en altid er klar. Desuden kan AI'en gribe direkte ind, selv uden at mennesket spørger, afhængigt af den situation, der udspiller sig. Antag for eksempel, at mennesket ser ud til at være faldet i søvn ved rattet. Da mennesket tilsyneladende ikke kan aktivere AI'en (fordi personen sover), kan AI'en være programmeret til at overtage styringen fra mennesket.

Nogle designs bringer AI og mennesker ind i en dobbeltkørselstilgang. AI'en kører, og mennesket kører. Eller, hvis du foretrækker det, er det mennesket, der kører, og AI'en kører også. De kører hver især køretøjet. Jeg sammenligner dette med de specielt riggede biler, som du måske brugte, når du tog føreruddannelse, og der var to sæt kørekontroller i køretøjet, et til elevchaufføren og et til kørelæreren.

Det er blot et eksempel på en indstilling, hvor AI og mennesker kan arbejde sammen om en opgave. Der er alle mulige muligheder. Andre former for autonome køretøjer kan være udtænkt på lignende måde, såsom flyvemaskiner, droner, undervandsfartøjer, overfladeskibe, tog og så videre. Vi behøver ikke kun at overveje køretøjs- og transportindstillinger. Forestil dig det medicinske domæne og operationer, der udføres i fællesskab af en læge og et AI-system. Listen er uendelig.

Jeg får næsten lyst til at henvise til den klassisk urolige joke om et menneske og en AI, der går ind i en bar sammen. Det er ret til grin for dem, der er til AI.

Seriøst, lad os vende tilbage til fokus for et menneske og et AI-system, der arbejder sammen om en given opgave. For det første vil jeg undgå at antropomorfe AI, hvilket er noget, jeg vil lægge vægt på hele vejen igennem. AI'en er ikke sansende. Husk det venligst.

Her er noget at tænke over: Vil et udpeget menneske-i-løkken altid være fuldstændig enig med en co-teamet AI?

For enhver kompleks opgave vil det virke usandsynligt, at mennesket og AI'en helt og altid vil være fuldt i lås og trin. Mennesket vil ved nogle lejligheder muligvis være uenig med AI. Den antagelse kan vi tage hele vejen til banken.

Jeg vil gerne have, at du også overvejer denne måske overraskende mulighed: Vil AI altid være fuldstændig i overensstemmelse med et udpeget menneske-i-løkken?

Igen, for enhver kompleks opgave, ville det virke ret tænkeligt, at AI ikke vil være i overensstemmelse med mennesker ved nogle lejligheder. Hvis du allerede hælder til ideen om, at AI altid skal være forkert, mens mennesker altid skal have ret, ville du gøre klogt i at genoverveje den forhastede konklusion. Forestil dig en bil, der har et menneske og AI, der i fællesskab kører det semi-autonome køretøj. Mennesket styrer mod en murstensvæg. Hvorfor? Vi ved det ikke, måske er mennesket beruset eller er faldet i søvn, men vi ved, at det ikke er en god idé at styrte ind i en murstensvæg, alt andet lige. AI'en kan muligvis opdage den kommende katastrofe og søge at styre væk fra den forestående barriere.

Alt i alt vil vi have den tydelige mulighed for, at AI og mennesket er uenige med hinanden. Den anden måde at sige det samme på er, at mennesker og AI er uenige med hinanden. Bemærk, at jeg ikke ønsker, at sekvenseringen af ​​AI-og-menneske versus menneske-og-AI skal antyde noget om retningen eller plausibiliteten af ​​uenigheden.

De to arbejdere, en menneskelig og en, der er AI, er uenige med hinanden.

Vi kunne på forhånd erklære, at når der sker en uenighed mellem en given AI og et givet menneske, proklamerer vi på forhånd, at mennesket sejrer over AI. Når det er sagt, synes mit illustrative eksempel om bilen, der er på vej ind i en murstensvæg, at afholde os fra, at mennesket altid nødvendigvis vil have ret.

Vi kunne derimod vælge at på forhånd erklære, at når der opstår uenighed, vil vi på forhånd have fastslået, at AI'en er rigtig, og mennesket er forkert. Dette er heller ikke en fornuftig generaliserbar bestemmelse. Forestil dig en bil, hvor AI'en har en indbygget softwarefejl eller fejl, og AI'en forsøger at styre køretøjet af vejen og ned i en grøft. Forudsat at alt andet er lige, burde mennesket være i stand til at overvinde denne AI-kørsel og forhindre køretøjet i at lande i kløften.

Lad os lave en hurtig opsummering af dette:

  • Vil et menneske-i-løkken altid være fuldstændig enig med AI? Svar: Nej.
  • Vil AI altid være fuldstændig i overensstemmelse med et menneske-i-løkken? Svar: Ingen.
  • Vil et menneske-i-løkken altid have ret i forhold til AI? Svar: Ikke nødvendigvis.
  • Vil AI altid have ret i forhold til mennesket-i-løkken? Svar: Ikke nødvendigvis.

Du kan helt sikkert konfigurere AI til som standard at blive betragtet som den "forkerte" eller svagere part og derfor altid henvende dig til mennesket, når der opstår uenighed. Ligeledes kan du konfigurere AI'en til at antage, at AI'en betragtes som "rigtig", når et menneske er uenig med AI'en. Jeg vil gerne præcisere, at vi kan gøre det programmæssigt, hvis vi ønsker det. Jeg påstår dog, at dette generelt ikke altid vil være tilfældet. Der er helt sikkert indstillinger, hvor vi ikke på forhånd ved, om AI'en er "rigtig" eller mennesket har "rigtig" i forhold til at vælge det ene eller det andet om en uenighed relateret til en given opgave.

Jeg har ført dig til et meget vigtigt og meget kompliceret spørgsmål.

Hvad skal vi gøre, når der opstår en professionel uenighed mellem mennesket-i-løkken og AI (eller tilsvarende kan vi formulere dette som værende mellem AI'en og mennesket-i-løkken)?

Forsøg ikke at undvige spørgsmålet.

Nogle vil måske hævde, at dette aldrig ville ske, men som jeg har beskrevet i mit eksempel om bilen, kunne det helt sikkert ske. Nogle vil måske hævde, at et menneske åbenlyst er overlegent og må være vinderen af ​​enhver uenighed. Mit eksempel med bilen og murstensvæggen slår den ned. Der er AI-tilhængere, der måske insisterer på, at AI skal være vinderen, på grund af tilsyneladende overvindelse af menneskelige følelser og hensynsløs tænkning fra disse tilfældige fuzzy-tænkende mennesker. Endnu en gang undergraver mit andet eksempel, at bilen er på vej ned i grøften, denne påstand.

I den virkelige verden vil AI og mennesker være uenige, selv når de to med vilje bringes ind i en teaming-situation for at udføre en fælles opgave. Det vil ske. Vi kan ikke stikke hovedet i sandet og lade som om, det ikke vil ske.

Vi så, at de mennesker, der styrede flyet, tilsyneladende kom ind i en uenighed. Heldigvis var de enige om at være uenige, så det ser ud til. De bragte flyet tilbage til terminalen. De fandt et middel til at håndtere uenigheden. Løsningen på deres uenighed fungerede godt, sammenlignet med hvis de måske var gået til knytnæve i cockpittet eller måske fløjet i luften og fortsatte med at kæmpe med hinanden. Det er et sørgeligt scenarie, der er uholdbart, og vi kan være taknemmelige for, at det ikke fandt sted.

Tillad mig at give min liste over de forskellige måder, hvorpå AI og menneske-i-løkken (eller menneske-i-løkken og AI) uenigheder kan løses:

  • AI og det forenede menneske løser tingene (i mindelighed eller ej)
  • Mennesket råder over AI, som standard
  • AI råder over mennesket som standard
  • En anden forudbestemt fast opløsning råder som standard
  • Tredjepartsmenneske er sløjfet ind, og deres indikation råder over parterne
  • Tredjeparts AI er loopet ind, og dens indikation har forrang over parterne
  • Tredjepartsmenneske erstatter det eksisterende menneske, tingene fortsætter på ny
  • Tredjeparts AI erstatter den eksisterende AI, tingene fortsætter på ny
  • Tredjeparts menneske erstatter den eksisterende AI, tingene fortsætter på ny (nu menneske-til-menneske)
  • Tredjeparts AI erstatter det eksisterende menneske, tingene fortsætter på ny (nu AI-til-AI)
  • Andet

De er rigeligt værd at blive pakket ud.

Før vi kommer ind på noget mere kød og kartofler om de vilde og uldne overvejelser, der ligger til grund for, hvordan man håndterer kunstig intelligens og menneskelige uenigheder, lad os lægge nogle yderligere grundlæggende oplysninger om dybt essentielle emner frem. Vi er nødt til kort at tage et luftigt dyk ned i AI-etik og især fremkomsten af ​​Machine Learning (ML) og Deep Learning (DL).

Du er måske vagt klar over, at en af ​​de højeste stemmer i disse dage inden for AI-feltet og endda uden for AI-området består i at råbe efter et større udseende af etisk AI. Lad os tage et kig på, hvad det vil sige at henvise til AI-etik og etisk AI. Oven i det vil vi undersøge, hvad jeg mener, når jeg taler om Machine Learning og Deep Learning.

Et bestemt segment eller en del af AI-etikken, der har fået meget mediebevågenhed, består af AI, der udviser urimelige skævheder og uligheder. Du er måske klar over, at da den seneste æra af kunstig intelligens gik i gang, var der et stort udbrud af begejstring for, hvad nogle nu kalder AI til gode. Desværre begyndte vi at være vidne til det i hælene af den brusende spænding AI For Bad. For eksempel er forskellige AI-baserede ansigtsgenkendelsessystemer blevet afsløret som indeholdende racemæssige skævheder og kønsbias, som jeg har diskuteret på linket her.

Bestræbelser på at kæmpe imod AI For Bad er aktivt i gang. Udover højrøstet juridiske bestræbelserne på at tøjle uretfærdigheden, er der også et væsentligt skub i retning af at omfavne AI-etik for at rette op på AI-modfærdigheden. Idéen er, at vi bør vedtage og godkende vigtige etiske AI-principper for udviklingen og feltet af AI for at underbyde AI For Bad og samtidig indvarsle og fremme det foretrukne AI til gode.

Hvad angår en beslægtet opfattelse, er jeg en fortaler for at forsøge at bruge AI som en del af løsningen på AI-problemer, bekæmpe ild med ild på den måde at tænke på. Vi kan for eksempel indlejre etiske AI-komponenter i et AI-system, der vil overvåge, hvordan resten af ​​AI gør tingene og dermed potentielt fange i realtid enhver diskriminerende indsats, se min diskussion på linket her. Vi kunne også have et separat AI-system, der fungerer som en type AI Ethics monitor. AI-systemet fungerer som en tilsynsførende til at spore og detektere, når en anden AI går ind i den uetiske afgrund (se min analyse af sådanne muligheder på linket her).

Om et øjeblik vil jeg dele nogle overordnede principper, der ligger til grund for AI-etik, med dig. Der er masser af den slags lister, der flyder rundt her og der. Man kan sige, at der endnu ikke er en enestående liste over universel appel og enighed. Det er den uheldige nyhed. Den gode nyhed er, at der i det mindste er let tilgængelige AI Ethics lister, og de plejer at være ret ens. Alt i alt tyder dette på, at vi ved en form for begrundet konvergens finder vej mod en generel fælleshed af, hvad AI-etik består af.

Lad os først kort dække nogle af de overordnede etiske AI-forskrifter for at illustrere, hvad der burde være en vigtig overvejelse for enhver, der laver, arbejder med eller bruger AI.

For eksempel, som anført af Vatikanet i Rom opfordrer til AI-etik og som jeg har dækket indgående kl linket her, disse er deres identificerede seks primære AI-etiske principper:

  • Gennemsigtighed: I princippet skal AI-systemer kunne forklares
  • Inklusion: Der skal tages hensyn til alle menneskers behov, så alle kan få gavn, og alle kan tilbydes de bedst mulige betingelser for at udtrykke sig og udvikle sig.
  • Ansvar: De, der designer og implementerer brugen af ​​AI, skal fortsætte med ansvar og gennemsigtighed
  • Uvildighed: Lad være med at skabe eller handle i overensstemmelse med bias, og dermed sikre retfærdighed og menneskelig værdighed
  • Pålidelighed: AI-systemer skal kunne fungere pålideligt
  • Sikkerhed og privatliv: AI-systemer skal fungere sikkert og respektere brugernes privatliv.

Som anført af det amerikanske forsvarsministerium (DoD) i deres Etiske principper for brugen af ​​kunstig intelligens og som jeg har dækket indgående kl linket her, disse er deres seks primære AI-etiske principper:

  • Ansvarlig: DoD-personale vil udøve passende niveauer af dømmekraft og omhu, mens de forbliver ansvarlige for udvikling, implementering og brug af AI-kapaciteter.
  • Retfærdig: Afdelingen vil tage bevidste skridt for at minimere utilsigtet skævhed i AI-kapaciteter.
  • Sporbar: Afdelingens AI-kapaciteter vil blive udviklet og implementeret, således at relevant personale besidder en passende forståelse af teknologien, udviklingsprocesser og operationelle metoder, der gælder for AI-kapaciteter, herunder gennemsigtige og auditerbare metoder, datakilder og designprocedure og dokumentation.
  • Pålidelig: Afdelingens AI-kapaciteter vil have eksplicitte, veldefinerede anvendelser, og sikkerheden, sikkerheden og effektiviteten af ​​sådanne kapaciteter vil være genstand for test og forsikring inden for disse definerede anvendelser i hele deres livscyklus.
  • Styrbar: Afdelingen vil designe og konstruere AI-kapaciteter til at opfylde deres tilsigtede funktioner, samtidig med at den har evnen til at opdage og undgå utilsigtede konsekvenser og evnen til at deaktivere eller deaktivere installerede systemer, der viser utilsigtet adfærd.

Jeg har også diskuteret forskellige kollektive analyser af AI-etiske principper, herunder at have dækket et sæt udtænkt af forskere, der undersøgte og kondenserede essensen af ​​adskillige nationale og internationale AI-etiske principper i et papir med titlen "The Global Landscape Of AI Ethics Guidelines" (publiceret i Natur), og at min dækning udforsker kl linket her, som førte til denne keystone-liste:

  • Gennemsigtighed
  • Retfærdighed og Retfærdighed
  • Ikke-ondskab
  • Ansvarlighed
  • Privatliv
  • godgørenhed
  • Frihed & Autonomi
  • Stol
  • Bæredygtighed
  • Værdighed
  • Solidaritet

Som du umiddelbart kan gætte, kan det være ekstremt svært at prøve at fastlægge de detaljer, der ligger til grund for disse principper. Endnu mere er bestræbelserne på at omdanne disse brede principper til noget helt håndgribeligt og detaljeret nok til at blive brugt, når man laver AI-systemer, også en svær nød at knække. Det er let overordnet at lave nogle håndsvingninger om, hvad AI-etiske forskrifter er, og hvordan de generelt skal overholdes, mens det er en meget mere kompliceret situation i AI-kodningen, der skal være den veritable gummi, der møder vejen.

AI-etikprincipperne skal bruges af AI-udviklere sammen med dem, der styrer AI-udviklingsindsatsen, og endda dem, der i sidste ende udfører og udfører vedligeholdelse på AI-systemer. Alle interessenter gennem hele AI-livscyklussen for udvikling og brug betragtes inden for rammerne af at overholde de etablerede normer for etisk AI. Dette er et vigtigt højdepunkt, da den sædvanlige antagelse er, at "kun kodere" eller dem, der programmerer AI'en, er underlagt AI-etikkens begreber. Som tidligere nævnt kræver det en landsby at udtænke og udforme AI, og for hvilken hele landsbyen skal være fortrolig med og overholde AI-etiske forskrifter.

Lad os også sikre os, at vi er på samme side om arten af ​​nutidens AI.

Der er ikke nogen AI i dag, der er sansende. Det har vi ikke. Vi ved ikke, om sansende AI vil være mulig. Ingen kan passende forudsige, om vi vil opnå sansende AI, eller om sansende AI på en eller anden måde mirakuløst spontant vil opstå i en form for computerkognitiv supernova (normalt omtalt som singulariteten, se min dækning på linket her).

Den type AI, som jeg fokuserer på, består af den ikke-sansende AI, som vi har i dag. Hvis vi ville spekulere vildt over sansende AI, denne diskussion kunne gå i en radikal anden retning. En sansende AI ville angiveligt være af menneskelig kvalitet. Du skal overveje, at den sansende AI er den kognitive ækvivalent til et menneske. Mere så, eftersom nogle spekulerer på, at vi måske har superintelligent AI, er det tænkeligt, at sådan AI kan ende med at blive klogere end mennesker (for min udforskning af superintelligent AI som en mulighed, se dækningen her).

Lad os holde tingene mere nede på jorden og overveje nutidens beregningsmæssige ikke-sansende AI.

Indse, at nutidens AI ikke er i stand til at "tænke" på nogen måde på lige fod med menneskelig tænkning. Når du interagerer med Alexa eller Siri, kan samtalekapaciteten virke beslægtet med menneskelige kapaciteter, men virkeligheden er, at den er beregningsmæssig og mangler menneskelig erkendelse. Den seneste æra af AI har gjort omfattende brug af Machine Learning (ML) og Deep Learning (DL), som udnytter computational pattern matching. Dette har ført til AI-systemer, der ser ud som menneskelignende tilbøjeligheder. I mellemtiden er der ikke nogen kunstig intelligens i dag, der har et antydning af sund fornuft og heller ikke noget af den kognitive undren ved robust menneskelig tænkning.

ML/DL er en form for computational pattern matching. Den sædvanlige tilgang er, at du samler data om en beslutningsopgave. Du føder dataene ind i ML/DL-computermodellerne. Disse modeller søger at finde matematiske mønstre. Efter at have fundet sådanne mønstre, hvis det er fundet, vil AI-systemet bruge disse mønstre, når de støder på nye data. Ved præsentationen af ​​nye data anvendes mønstrene baseret på de "gamle" eller historiske data til at gøre en aktuel beslutning.

Jeg tror, ​​du kan gætte, hvor det er på vej hen. Hvis mennesker, der har truffet de mønstrede beslutninger, har inkorporeret uønskede skævheder, er oddsene, at dataene afspejler dette på subtile, men væsentlige måder. Machine Learning eller Deep Learning computational pattern matching vil blot forsøge at matematisk efterligne dataene i overensstemmelse hermed. Der er ingen antydning af sund fornuft eller andre sansende aspekter af AI-fremstillet modellering i sig selv.

Desuden er AI-udviklerne måske heller ikke klar over, hvad der foregår. Den mystiske matematik i ML/DL kan gøre det svært at fjerne de nu skjulte skævheder. Du ville med rette håbe og forvente, at AI-udviklerne ville teste for de potentielt begravede skævheder, selvom dette er vanskeligere, end det måske ser ud til. Der er en solid chance for, at selv med relativt omfattende tests, vil der stadig være skævheder indlejret i mønstermatchningsmodellerne for ML/DL.

Du kunne lidt bruge det berømte eller berygtede ordsprog om skrald-ind skrald-ud. Sagen er, at dette er mere beslægtet med biases-in, der snigende bliver infunderet som skævheder nedsænket i AI. Algoritmebeslutningstagningen (ADM) af AI bliver aksiomatisk fyldt med uligheder.

Ikke godt.

Lad os vende tilbage til vores fokus på uenigheder mellem AI og et menneske.

Jeg har tidligere angivet, at disse er nogle af de uenighedsløsningsstrategier:

  • AI og det forenede menneske løser tingene (i mindelighed eller ej)
  • Mennesket råder over AI, som standard
  • AI råder over mennesket som standard
  • En anden forudbestemt fast opløsning råder som standard
  • Tredjepartsmenneske er sløjfet ind, og deres indikation råder over parterne
  • Tredjeparts AI er loopet ind, og dens indikation har forrang over parterne
  • Tredjepartsmenneske erstatter det eksisterende menneske, tingene fortsætter på ny
  • Tredjeparts AI erstatter den eksisterende AI, tingene fortsætter på ny
  • Tredjeparts menneske erstatter den eksisterende AI, tingene fortsætter på ny (nu menneske-til-menneske)
  • Tredjeparts AI erstatter det eksisterende menneske, tingene fortsætter på ny (nu AI-til-AI)
  • Andet

Tid til at pakke disse ud.

Overvej først, at det hele handler om professionel uenigheder.

En faglig uenighed er løst defineret som en uenighed forbundet med en arbejdsrelateret opgave.

For eksempel kan en uenighed, der opstår mellem en pilot og andenpilot, om hvorvidt man skal fortsætte med en flyvning, der står over for en storm, med rimelighed kunne betegnes som en faglig uenighed. I modsætning hertil kan en voldsom uenighed om, hvilket kaffemærke piloten går ind for versus det mærke, som copiloten foretrækker, let kategoriseres som en ikke-professionel uenighed i denne særlige sammenhæng.

Selvfølgelig, hvis en ikke-faglig uenighed ormer sig ind i en faglig uenighed, kan vi i sidste ende være interesserede i den ikke-faglige uenighed som en formodet kilde eller gnist for den professionelle. Forestil dig, at en pilot og en andenpilot skændes bittert om, hvilket kaffemærke der er bedst, hvilket så desværre smitter af på flyvespecifikke bekymringer (ordspil!), såsom om de skal lette eller ej.

For det andet skal vi huske på omfanget af den faglige uenighed.

Måske piloten og andenpiloten eller i mild uenighed om at fortsætte med at flyve. De er ikke i strid med hinanden og overvejer blot fordele og ulemper ved, om de skal starte. Dette er ikke kaliberen eller omfanget af en professionel uenighed, som vi sædvanligvis overvejer her. Sagen er, at det kan være, at den faglige uenighed er forbigående, og begge parter udarbejder en løsning hjerteligt eller i det mindste rettidigt. Generelt er fokus for faglige uenigheder inden for rammerne dem, der tilsyneladende er uoverskuelige, og de to parter er stadig uenige.

For det tredje skal der normalt være noget seriøst på spil for at disse retningslinjer kan komme i spil.

At vælge at flyve eller ikke flyve er en bestemt liv-eller-død-beslutning, hvis flyvningen er i fare på grund af en storm, eller flyet anses for ikke at være fuldt forberedt til en sådan rejse. Dette er en seriøs forretning. Vi kan stadig anvende retningslinjerne på de mindre virkningsfulde faglige uenigheder, selvom det kan være mere generende, end det er værd.

Okay, vores overvejelser er, at:

  • Uenigheden er primært fagligt orienteret snarere end over noget ikke-fagligt
  • Uenigheden er af vedvarende karakter og ikke blot forbigående eller på anden måde let løst
  • Uenigheden forudsiger alvorlige konsekvenser og har normalt et virkningsfuldt resultat
  • Parterne er i strid med hinanden, og de virker uoverskuelige

Lad os nu se nærmere på hver af mine foreslåede retningslinjer eller tilgange til, hvordan man håndterer sådanne faglige uenigheder.

AI og det forenede menneske løser tingene (i mindelighed eller ej)

Jeg begynder listen med den ligefremme mulighed, at AI og mennesket-i-løkken er i stand til at løse den faglige uenighed indbyrdes. Det ser ud til, at tilfældet med de to mennesker, piloten og copiloten, måske illustrerer denne form for omstændigheder. De besluttede på en eller anden måde at vende tilbage til terminalen og gå hver til sit. Det kan være, at et AI-system og et menneske er i stand til at finde ud af en løsningsmetode, der generelt er tilfredsstillende for begge parter, og sagen er dermed tilfredsstillende afsluttet.

Mennesket råder over AI, som standard

Når vi opsætter AI'en, kan vi programmere en regel, der siger, at mennesket-i-løkken altid skal sejre, når der opstår en professionel uenighed. Dette ville være den eksplicit kodede standard. Vi kan også tillade en form for tilsidesættelse, for en sikkerheds skyld, selvom den stående regel vil være, at det menneskelige sejrer.

AI råder over mennesket som standard

Når vi opsætter AI'en, kan vi programmere en regel, der siger, at AI'en altid skal sejre over mennesket-i-løkken, når der opstår en professionel uenighed. Dette er den eksplicit kodede standard. Vi kan også tillade en form for tilsidesættelse, for en sikkerheds skyld, selvom den stående regel vil være, at AI'en sejrer.

En anden forudbestemt fast opløsning råder som standard

Når vi konfigurerer AI'en, kan vi programmere en regel, der siger, at en anden forudbestemt fast opløsning vil være gældende, når der opstår en professionel uenighed med mennesket-i-løkken. Mennesket-i-løkken har ikke som standard forrang. AI'en har ikke som standard forrang. Der er en anden forudbestemt opløsning. For eksempel er der måske kastet med en mønt, der vil blive brugt til at afgøre, hvilken af ​​de to parter, der anses for at være den rigtige vej at gå. Det ville åbenbart virke ret vilkårligt; et andet eksempel på en tilgang vil således være, at der kommer en specialiseret regel, der beregner en værdi baseret på input fra de to parter og når frem til et resultat som et tiebreak.

Tredjepartsmenneske er sløjfet ind, og deres indikation råder over parterne

Ved en faglig uenighed kan en regel være, at en tredjepart, der er et menneske, bliver påkaldt og loopet ind i rammerne for at træffe en beslutning om at løse uenigheden. AI'en er programmeret til at tage hensyn til, hvad tredjepartsmennesket beslutter. Mennesket, der allerede er i mennesket-i-løkken, er på forhånd blevet instrueret i, at hvis en sådan situation opstår, skal de også henvende sig til tredjemandsmennesket. Som en sidebemærkning kan du sandsynligvis forudse, at mennesket-i-sløjfen kan have angst over at tiltræde det, som tredjepartsmennesket beslutter, hvis beslutningen ikke stemmer overens med mennesket-i-løkken-stilling.

Tredjeparts AI er loopet ind, og dens indikation har forrang over parterne

Ved en faglig uenighed kan en regel være, at en tredjepart, der er et andet AI-system, påkaldes og loopes ind i indstillingen for at træffe en beslutning om at løse uenigheden. Den originale AI er programmeret til at udskyde, hvad end tredjeparts AI beslutter. Mennesket, der allerede er i mennesket-i-løkken, er på forhånd blevet instrueret i, at hvis en sådan situation opstår, skal de også henlægge sig til tredjeparts AI. Som en sidebemærkning kan du sandsynligvis forudse, at mennesket-i-løkken kan have angst over at tiltræde, hvad tredjeparts AI beslutter, hvis beslutningen ikke stemmer overens med mennesket-i-løkken-stilling.

Tredjepartsmenneske erstatter det eksisterende menneske, tingene fortsætter på ny

Ved en faglig uenighed erstattes mennesket-i-løkken af ​​en tredjepart, der er et menneske, og som fremover bliver mennesket-i-løkken. Det menneske, der var det oprindelige menneske-i-løkken til opgaven, betragtes ikke længere som en del af opgaven. Det er et åbent aspekt af, hvad der ellers sker med det nu udskiftede menneske-i-løkken, men vi siger, at de helt sikkert ikke længere har nogen løbende rolle i arbejdsopgaven.

Tredjeparts AI erstatter den eksisterende AI, tingene fortsætter på ny

Ved faglig uenighed erstattes AI'en af ​​en tredjeparts AI, og det bliver den AI, der fremover bruges til den aktuelle arbejdsopgave. Den AI, der oprindeligt blev brugt til opgaven, betragtes ikke længere som en del af opgaven. Det er et åbent aspekt med hensyn til, hvad der ellers sker med den nu erstattede AI, men vi siger, at AI'en med sikkerhed ikke længere har nogen løbende rolle i arbejdsopgaven.

Tredjeparts menneske erstatter den eksisterende AI, tingene fortsætter på ny (nu menneske-til-menneske)

Ved en professionel uenighed erstattes AI'en af ​​et tredjepartsmenneske, for hvem denne person nu bliver den betragtede part, som vil blive brugt til den aktuelle arbejdsopgave. Den AI, der oprindeligt blev brugt til opgaven, betragtes ikke længere som en del af opgaven. Det er et åbent aspekt af, hvad der ellers sker med den nu erstattede AI, men vi siger, at AI'en med sikkerhed ikke længere har nogen løbende rolle i arbejdsopgaven. Kort sagt bliver dette nu en to-parts menneske-til-menneske udført opgave.

Tredjeparts AI erstatter det eksisterende menneske, tingene fortsætter på ny (nu AI-til-AI)

Ved en faglig uenighed erstattes mennesket-i-løkken af ​​en tredjeparts AI, og denne AI bliver fremover udfyldningen for det foregående menneske-i-løkken. Det menneske, der var det oprindelige menneske-i-løkken til opgaven, betragtes ikke længere som en del af opgaven. Det er et åbent aspekt af, hvad der ellers sker med det nu udskiftede menneske-i-løkken, men vi siger, at de helt sikkert ikke længere har nogen løbende rolle i arbejdsopgaven. Kort sagt bliver dette nu en to-parts AI-til-AI til at udføre opgaven.

Andet

Andre variationer kan udtænkes for at klare en faglig uenighed, men vi har heri dækket nogle af hjørnestenene.

Hvordan skal vi beslutte, hvilken af ​​disse tilgange, der vil være den rigtige i en given situation?

En bred vifte af spørgsmål er forbundet med at træffe et sådant valg. Der er teknologiske overvejelser. Der er forretningsmæssige overvejelser. Der er juridiske og etiske overvejelser.

Til en vis grad er det derfor, AI-etik og etisk AI er så afgørende et emne. AI-etikkens forskrifter får os til at forblive på vagt. AI-teknologer kan til tider blive optaget af teknologi, især optimering af højteknologi. De overvejer ikke nødvendigvis de større samfundsmæssige konsekvenser. At have en AI-etik-tankegang og at gøre det integreret i AI-udvikling og -markering er afgørende for at producere passende AI, herunder (måske overraskende eller ironisk nok) vurderingen af, hvordan AI-etik bliver adopteret af virksomheder.

Udover at anvende AI-etiske forskrifter generelt, er der et tilsvarende spørgsmål om, hvorvidt vi skal have love til at regulere forskellige anvendelser af AI. Nye love bliver bandet rundt på føderalt, statsligt og lokalt niveau, der vedrører rækkevidden og arten af, hvordan AI skal udformes. Bestræbelserne på at udarbejde og vedtage sådanne love er gradvist. AI-etik fungerer i det mindste som en overvejet stopklods og vil næsten helt sikkert til en vis grad blive direkte indarbejdet i disse nye love.

Vær opmærksom på, at nogle stejlt hævder, at vi ikke har brug for nye love, der dækker AI, og at vores eksisterende love er tilstrækkelige. Faktisk advarer de om, at hvis vi vedtager nogle af disse AI-love, vil vi dræbe den gyldne gås ved at slå ned på fremskridt inden for AI, der giver enorme samfundsmæssige fordele.

På dette tidspunkt af denne tungtvejende diskussion vil jeg vædde på, at du ønsker nogle illustrative eksempler, der kan fremvise dette emne. Der er et særligt og helt sikkert populært sæt eksempler, som ligger mit hjerte nært. Ser du, i min egenskab af ekspert i kunstig intelligens, herunder de etiske og juridiske konsekvenser, bliver jeg ofte bedt om at identificere realistiske eksempler, der viser AI-etiske dilemmaer, så emnets noget teoretiske karakter lettere kan forstås. Et af de mest stemningsfulde områder, der levende præsenterer dette etiske AI-dilemma, er fremkomsten af ​​AI-baserede ægte selvkørende biler. Dette vil tjene som et praktisk use case eller et eksempel til omfattende diskussion om emnet.

Her er så et bemærkelsesværdigt spørgsmål, som er værd at overveje: Belyser fremkomsten af ​​AI-baserede ægte selvkørende biler noget om AI-og menneskelige uenighedsløsninger, og hvis ja, hvad viser dette?

Tillad mig et øjeblik at pakke spørgsmålet ud.

Først skal du bemærke, at der ikke er en menneskelig chauffør involveret i en ægte selvkørende bil. Husk, at ægte selvkørende biler køres via et AI-køresystem. Der er ikke behov for en menneskelig fører ved rattet, og der er heller ikke en bestemmelse om, at et menneske kan føre køretøjet. For min omfattende og løbende dækning af Autonome Vehicles (AV'er) og især selvkørende biler, se linket her.

Jeg vil gerne yderligere præcisere, hvad der menes, når jeg refererer til ægte selvkørende biler.

Forståelse af niveauerne af selvkørende biler

Som en præcisering er ægte selvkørende biler dem, hvor AI kører bilen helt på egen hånd, og der ikke er nogen menneskelig assistance under køreopgaven.

Disse førerløse køretøjer betragtes som niveau 4 og niveau 5 (se min forklaring på dette link her), mens en bil, der kræver en menneskelig chauffør til at dele køreindsatsen, normalt betragtes på niveau 2 eller niveau 3. De biler, der deler køreopgaven, beskrives som værende semi-autonome og indeholder typisk en række forskellige automatiserede tilføjelser, der omtales som ADAS (Advanced Driver-Assistance Systems).

Der er endnu ikke en ægte selvkørende bil på niveau 5, og vi ved endnu ikke engang, om dette vil være muligt at opnå, og heller ikke hvor lang tid det vil tage at nå dertil.

I mellemtiden forsøger niveau 4-indsatsen gradvist at få noget trækkraft ved at gennemgå meget smalle og selektive forsøg på offentlige vejbaner, selvom der er uenighed om, hvorvidt denne test skal tillades i sig selv (vi er alle liv-eller-død marsvin i et eksperiment finder sted på vores motorveje og biveje, hævder nogle, se min dækning på dette link her).

Da semi-autonome biler kræver en menneskelig chauffør, vil vedtagelsen af ​​disse typer biler ikke være markant anderledes end at køre konventionelle køretøjer, så der er ikke meget nyt i sig selv at dække om dem om dette emne (dog, som du vil se på et øjeblik gælder de næste nævnte punkter generelt).

For semi-autonome biler er det vigtigt, at offentligheden skal advares om et foruroligende aspekt, der er opstået for nylig, nemlig at trods de menneskelige chauffører, der fortsætter med at indsende videoer af sig selv falder i søvn ved rattet i en niveau 2 eller niveau 3 bil , er vi alle nødt til at undgå at blive vildledt til at tro, at chaufføren kan fjerne deres opmærksomhed fra køreopgaven, mens han kører en semi-autonom bil.

Du er den ansvarlige part for køretøjets kørselshandlinger, uanset hvor meget automatisering der kan kastes i et niveau 2 eller niveau 3.

Selvkørende biler og AI-versus-menneskelig uenighed

For ægte selvkørende køretøjer på niveau 4 og niveau 5 er der ikke en menneskelig chauffør, der er involveret i køreopgaven.

Alle passagerer vil være passagerer.

AI driver kørslen.

Et aspekt, som man straks skal diskutere, indebærer det faktum, at AI involveret i nutidens AI-køresystemer ikke er væsentlig. Med andre ord er AI'et helt en samling af computerbaseret programmering og algoritmer, og helt sikkert ikke i stand til at ræsonnere på samme måde som mennesker kan.

Hvorfor er denne ekstra vægt på, at AI ikke er følelsesladet?

Fordi jeg vil understrege, at når jeg diskuterer AI-køresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær opmærksom på, at der i disse dage er en løbende og farlig tendens til at antropomorfisere AI. I det væsentlige tildeler folk menneskelignende følsomhed til nutidens AI, på trods af den ubestridelige og uomtvistelige kendsgerning, at der endnu ikke findes sådan en sådan AI.

Med denne afklaring kan du forestille dig, at AI-køresystemet ikke på en eller anden måde "ved" noget om kørselens facetter. Kørsel og alt, hvad det medfører, skal programmeres som en del af den selvkørende bils hardware og software.

Lad os dykke ned i det utal af aspekter, der kommer til at spille om dette emne.

For det første er det vigtigt at indse, at ikke alle AI selvkørende biler er ens. Hver bilproducent og selvkørende teknologivirksomhed tager sin tilgang til at udtænke selvkørende biler. Som sådan er det svært at komme med omfattende udsagn om, hvad AI-køresystemer vil gøre eller ej.

Når det endvidere angives, at et AI -køresystem ikke gør nogle særlige ting, kan dette senere blive overhalet af udviklere, der faktisk programmerer computeren til at gøre det. Trin for trin forbedres og udvides AI -drivsystemer gradvist. En eksisterende begrænsning i dag eksisterer muligvis ikke længere i en fremtidig iteration eller version af systemet.

Jeg håber, at det giver en tilstrækkelig litani af forbehold til at ligge til grund for det, jeg er ved at fortælle.

For fuldt autonome køretøjer er der muligvis ikke nogen chance for en professionel uenighed mellem et menneske og AI på grund af muligheden for, at der ikke er noget menneske-in-the-loop til at starte med. Aspirationen for mange af nutidens selvkørende bilproducenter er at fjerne den menneskelige chauffør fuldstændigt fra køreopgaven. Køretøjet vil ikke engang indeholde mennesketilgængelige kørekontroller. I så fald vil en menneskelig chauffør, hvis den er til stede, ikke være i stand til at deltage i køreopgaven, da de mangler adgang til nogen kørekontrol.

For nogle helt autonome køretøjer tillader nogle designs stadig, at et menneske kan være i løkken, selvom mennesket slet ikke behøver at være tilgængeligt eller deltage i køreprocessen. Et menneske kan således deltage i kørslen, hvis personen ønsker det. På intet tidspunkt er AI dog afhængig af mennesket til at udføre nogen af ​​køreopgaverne.

I tilfælde af semi-autonome køretøjer er der et hånd-i-hånd forhold mellem den menneskelige fører og AI. Den menneskelige chauffør kan overtage kørekontrollerne fuldstændigt og i det væsentlige stoppe AI fra at deltage i kørslen. Hvis den menneskelige chauffør ønsker at genindsætte AI i kørerollen, kan de gøre det, selvom dette nogle gange tvinger mennesket til at opgive kørekontrollen.

En anden form for semi-autonom drift ville indebære, at den menneskelige chauffør og AI arbejder sammen på en måde. AI'en kører, og mennesket kører. De kører sammen. AI kan udskyde sig til mennesket. Mennesket kan afhænge af AI.

På et tidspunkt kan AI-køresystemet og den menneskelige chauffør i løkken nå et tidspunkt af en "professionel uenighed" om den aktuelle køreopgave.

For at illustrere, hvordan nogle af de førnævnte regler for håndtering af en faglig uenighed kan være udfordrende at implementere, kan du overveje tilfældet med at påkalde et tredjepartsmenneske til at gå ind i sagen og foreslå en beslutning om at løse det uløste problem.

Antag, at en bilproducent eller et selvkørende teknologifirma har sørget for, at eksterne menneskelige operatører har adgang til kørselsstyringen af ​​køretøjer i deres flåde. Den menneskelige operatør sidder i et fjerntliggende kontor eller lignende omgivelser. Via et computersystem er de i stand til at se kørescenen via adgang til kameraer og andre sensorenheder, der er indlæst på den selvkørende bil. For dem er dette næsten som at spille et online videospil, selvom de virkelige omstændigheder naturligvis har potentielt alvorlige konsekvenser.

Et AI-system og en menneskelig chauffør inde i bilen kører et semi-autonomt køretøj ned ad en lang motorvej. Lige pludselig vil AI'en styre i en grøft. Den menneskelige chauffør ønsker ikke at gøre dette. De to tumler over kørekontrollerne.

Hvordan vil dette blive løst?

Vi kunne måske have indført på forhånd, at mennesket altid vinder. Antag dog, at vi valgte ikke at gøre det.

Vi kunne have indført på forhånd, at AI altid vinder. Antag, at vi valgte ikke at gøre det. Alt i alt har vi ikke vedtaget nogen af ​​disse regler, bortset fra at vi besluttede at tillade et tredjepartsmenneske at gribe ind og løse en professionel uenighed af enhver væsentlig karakter.

I dette tilfælde kæmper AI'en og den menneskelige fører ved rattet om kørekontrollerne. Dette er lad os sige formidlet til den eksterne menneskelige operatør (vores tredjeparts menneske). Den eksterne menneskelige operatør undersøger, hvad der foregår, og beslutter sig for at styre væk fra grøften og tilsyneladende afværge, hvad AI forsøgte at gøre. Antag samtidig, at den eksterne menneskelige operatør styrer ind i modkørende trafik, hvilket måske hverken AI'en eller den menneskelige chauffør inde i bilen havde ønsket at gøre.

Pointen er, at måden, hvorpå denne regel er blevet implementeret, er, at den menneskelige tredjepartsoperatør er i stand til fuldstændigt at tilsidesætte både AI'en og mennesket-i-løkken. Om dette kommer til at give et godt resultat er bestemt ikke sikkert.

Jeg vil bruge dette eksempel til at fremhæve nogle tilføjede indsigter om disse spørgsmål.

Du kan ikke gøre den frække antagelse, at bare fordi en af ​​disse regler er indført, er resultatet af den løste uenighed nødvendigvis et garanteret godt resultat. Det er det måske ikke. Der er ikke nogen jernbeklædt, altid rigtige regel, der kan vælges.

Dernæst kan nogle af disse regler muligvis ikke implementeres.

Overvej eksemplet med den eksterne menneskelige operatør, der griber ind, når AI og den menneskelige chauffør skændes om kørekontrollerne. Det kan tage mange sekunder for den eksterne menneskelige operatør at finde ud af, hvad der foregår. På det tidspunkt kunne køretøjet allerede være havnet i grøften eller haft et andet negativt resultat. Antag også, at køretøjets placering udelukker fjernadgang, såsom at være et sted, hvor der ikke er nogen elektronisk netværksforbindelse. Eller måske fungerer køretøjets netværksfunktioner ikke i det pågældende øjeblik.

Som du kan se, kan reglen se dandy ud på papiret, selvom det kan være en meget vanskelig eller meget tilfældig tilgang at sætte reglen i brug. Se min dækning med kritiske øjne på fjernoperatøren af ​​autonome køretøjer og selvkørende biler på linket her.

Jeg vil gerne kort dække et andet relateret emne, som jeg vil dække mere i dybden i en kommende analyse.

En af de stigende bekymringer omkring selvkørende køretøjer og selvkørende biler, der er semi-autonome, er den såkaldte Hot Potato Syndrome.

Her er aftalen.

Et AI-køresystem og et menneske kører sammen. Der opstår en alvorlig knibe. AI'en er blevet programmeret til at slippe ud af køreopgaven og overdrage tingene til mennesket, når et frygteligt øjeblik indtræffer. Dette virker måske "fornuftigt", idet vi synes at påberåbe os reglen om, at mennesket er standard "vinderen" i enhver potentiel faglig uenighed.

Men AI, der dropper ud, kan være til mere ondsindede eller betragtes som lumske formål. Det kan være, at bilproducenten eller det selvkørende teknologifirma ikke ønsker, at deres AI skal betragtes som "den skyld, der er skyld i", når et biluheld opstår. For tilsyneladende at undgå at blive fastklemt på den måde, overdrager AI'en pludselig styringen til mennesket. Voila, mennesket er nu formodentlig fuldstændig ansvarlig for køretøjet.

Kickeren er, at antag, at AI'en udfører denne overdragelse med lad os sige, at der er et sekund tilbage, før et nedbrud opstår.

Ville mennesket virkelig have tid til at afværge styrtet?

Sandsynligvis ikke.

Antag, at AI udfører overdragelsen med et par millisekunder eller nanosekunder tilbage. Jeg tør påstå, at mennesket i det væsentlige ikke har nogen chance for at gøre noget for at afværge styrtet.

Fra bilproducentens eller selvkørende bilfirmas perspektiv kan de forsøge at opføre sig, som om deres hænder var rene, når sådan et biluheld opstår. Bilen blev ført af et menneske. AI'en kørte ikke bilen. Den eneste "logiske" konklusion synes at være, at mennesket må være skyld i, og AI'en skal være fuldstændig ulastelig.

Det er et lort.

Jeg vil diskutere dette mere i dybden i en kommende klumme.

Konklusion

Der vil opstå faglige uenigheder.

Det er svært at forestille sig en kompleks opgave, hvor to parter udfører opgaven i fællesskab, og som der aldrig nogensinde ville være nogen faglige uenigheder om. Dette virker som et fantasiland eller i det mindste en stor sjældenhed.

I dag har vi masser af menneske-til-menneske tilfælde af faglig uenighed, som dagligt løses fredeligt og fornuftigt på den ene eller anden måde. Faktisk opretter vi ofte situationer med vilje for at fremme og overflade faglige uenigheder. Du kan hævde, at dette viser den berømte visdom, at nogle gange er to hoveder bedre end ét.

Efterhånden som AI bliver mere udbredt, vil vi have masser af AI-til-menneske eller menneske-til-AI to-parts opgaveudøvere, og der vil være faglige uenigheder der vil ske. Den dovne tilgang er altid at holde sig til mennesket. Dette er måske ikke den mest egnede tilgang. AI kan være det bedre valg. Eller en af ​​de andre førnævnte regler kan være en mere fornuftig tilgang.

Der er den vismandslinje, der ofte gentoges, at vi alle generelt burde være i stand til at blive enige om at være uenige, selvom når det kommer til stykket, nogle gange skal en uenighed løses utvetydigt, ellers vil sagen føre til en uovertruffen katastrofe. Vi kan ikke bare lade en uenighed ligge på vinstokken. Tid kan være af essensen, og liv kan være på spil.

Der er et klart krav til nogle forsigtige midler til at løse uenigheder, selvom det ikke nødvendigvis er behageligt, herunder når AI og et menneske-i-løkken ikke ser øje-til-øje eller byte-til-byte.

Jeg stoler på, at du ikke vil være uenig i den helt behagelige påstand.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- piloten-og-co-piloten-uenige-inden-at-starte-og-brat-valgte-at-taxi-tilbage-til-terminalen-og-gå hver sin vej/