AI-etik og AI-lov, der præciserer, hvad der i virkeligheden er pålidelig AI

Tillid er alt, siger man.

Den kendte filosof Lao Tzu sagde, at de, der ikke stoler nok, ikke vil blive stole på. Ernest Hemingway, en værdsat romanforfatter, udtalte, at den bedste måde at finde ud af, om du kan stole på nogen, er ved at stole på dem.

I mellemtiden ser det ud til, at tillid er både værdifuld og skør. Den tillid, man har, kan falde sammen som et korthus eller pludselig briste som en sprunget ballon.

Den antikke græske tragedier Sofokles hævdede, at tilliden dør, men mistilliden blomstrer. Den franske filosof og matematiker Descartes hævdede, at det er klogt aldrig at stole helt på dem, der har bedraget os én gang. Den ekstraordinære milliardær-business-investor Warren Buffett formanede, at det tager tyve år at opbygge et troværdigt omdømme og fem minutter at ødelægge det.

Du kan blive overrasket over at vide, at alle disse forskellige synspunkter og provokerende meninger om tillid er afgørende for fremkomsten af ​​kunstig intelligens (AI).

Ja, der er noget, der ivrigt omtales som pålidelig AI der bliver ved med at få en masse opmærksomhed i disse dage, inklusive håndsvingende catcalls fra AI-området og også larmende udbrud fra dem uden for AI-riget. Den overordnede opfattelse indebærer, hvorvidt samfundet vil være villig til at stole på AI-systemer som f.eks.

Formentlig, hvis samfundet ikke vil eller kan stole på AI, er oddsene, at AI-systemer ikke vil få trækkraft. AI, som vi kender det i øjeblikket, vil blive skubbet til side og blot samle støv. Chokerende nok kunne AI ende på skrammelbunken, historisk set henvist til intet andet end et desperat prøvet, men spektakulært mislykket højteknologisk eksperiment. Enhver indsats for at puste nyt liv i AI vil potentielt stå over for en enorm kamp op ad bakke og blive stoppet af alle mulige indvendinger og direkte protester. Tilsyneladende på grund af manglende tillid til AI.

Hvad skal det være, skal vi stole på AI, eller skal vi ikke stole på AI?

I det væsentlige vil vi virkelig have pålidelig AI?

Det er tidligere og uafklarede spørgsmål. Lad os pakke den ud.

AI-etik og kampen for pålidelig AI

Mange inden for AI tror på, at udviklerne af AI-systemer kan opnå tillid til AI ved at udtænke AI, der er pålideligt, på passende vis. Essensen er, at du ikke kan håbe på at vinde tillid, hvis AI ikke tilsyneladende er troværdig, når du er i gang. Ved at udforme AI-systemer på en måde, der opfattes som værende troværdig, er der en solid chance for, at folk vil acceptere AI og anvende AI-anvendelser.

En betænkelighed, der allerede nager ved denne troværdige AI-betragtning, er, at vi måske allerede er i en offentlig tillidsunderskud når det kommer til AI. Man kan sige, at den kunstige intelligens, vi allerede har set, har gravet et hul og slynget tilliden i massive mængder. I stedet for at starte på et tilstrækkeligt grundlag for troværdighed, bliver AI på forbløffende vis nødt til at klatre ud af underskuddet og gribe efter hver ønsket ounce ekstra tillid, der vil være nødvendig for at overbevise folk om, at AI faktisk er troværdig.

Ind i denne udfordring kommer AI Ethics og AI Law.

AI Ethics og AI Law kæmper voldsomt med at finde ud af, hvad der skal til for at gøre AI troværdig. Nogle tyder på, at der er en formel eller jernbeklædte love, der vil få AI ind i den troværdige himle. Andre angiver, at det vil kræve hårdt arbejde og konsekvent og utrættelig overholdelse af AI-etik og AI-lovens principper for at opnå samfundets roste tillid.

Den nutidige gåde om tillid til AI er ikke særlig ny i sig selv.

Du kan nemt gå tilbage til slutningen af ​​1990'erne og spore fremkomsten af ​​et eftertragtet ønske om "trusted computing" fra de dage. Dette var en storstilet tech-industri indsats for at skelne, om computere alle fortalte kunne fremstilles på en måde, der ville blive tolket som troværdig af samfundet.

Nøglespørgsmål bestod af:

  • Kunne computerhardware laves sådan, at det var troværdigt?
  • Kunne softwaren være lavet sådan, at den var troværdig?
  • Kunne vi etablere globale netværkscomputere, der ville være troværdige?
  • Og så videre.

Den fremherskende stemning dengang, og som fortsætter den dag i dag, er, at pålidelig databehandling forbliver en type hellig gral, der desværre stadig ikke er helt inden for vores rækkevidde (som bemærket i et papir med titlen "Trustworthy AI" i Kommunikation af ACM). Du kan overbevisende argumentere for, at AI er endnu en komponent i computersikkerhedsindkapslingen, men alligevel gør AI tillidsforfølgelsen endnu mere udfordrende og usikker. AI er blevet den potentielle spoiler i kampen for at opnå troværdig databehandling. Muligvis det svageste led i kæden, sådan at sige.

Lad os tage et hurtigt kig på, hvorfor AI har fået vores skælven til at være mindre end troværdig. Derudover vil vi udforske principperne for AI-etik, som man håber vil hjælpe med at understøtte den allerede semi-undervands-opfattede tillid (eller boblende mistillid) til nutidens AI. For min løbende og omfattende dækning af AI-etik, se linket her , linket her, For blot at nævne nogle få.

Et bestemt segment eller en del af AI-etikken, der har fået meget mediebevågenhed, består af AI, der udviser urimelige skævheder og uligheder. Du er måske klar over, at da den seneste æra af kunstig intelligens gik i gang, var der et stort udbrud af begejstring for, hvad nogle nu kalder AI til gode. Desværre begyndte vi at være vidne til det i hælene af den brusende spænding AI For Bad. For eksempel er forskellige AI-baserede ansigtsgenkendelsessystemer blevet afsløret som indeholdende racemæssige skævheder og kønsbias, som jeg har diskuteret på linket her.

Bestræbelser på at kæmpe imod AI For Bad er aktivt i gang. Udover højrøstet juridiske bestræbelserne på at tøjle uretfærdigheden, er der også et væsentligt skub i retning af at omfavne AI-etik for at rette op på AI-modfærdigheden. Idéen er, at vi bør vedtage og godkende vigtige etiske AI-principper for udviklingen og feltet af AI for at underbyde AI For Bad og samtidig indvarsle og fremme det foretrukne AI til gode.

Hvad angår en beslægtet opfattelse, er jeg en fortaler for at forsøge at bruge AI som en del af løsningen på AI-problemer, bekæmpe ild med ild på den måde at tænke på. Vi kan for eksempel indlejre etiske AI-komponenter i et AI-system, der vil overvåge, hvordan resten af ​​AI gør tingene og dermed potentielt fange i realtid enhver diskriminerende indsats, se min diskussion på linket her. Vi kunne også have et separat AI-system, der fungerer som en type AI Ethics monitor. AI-systemet fungerer som en tilsynsførende til at spore og detektere, når en anden AI går ind i den uetiske afgrund (se min analyse af sådanne muligheder på linket her).

Om et øjeblik vil jeg dele nogle overordnede principper, der ligger til grund for AI-etik, med dig. Der er masser af den slags lister, der flyder rundt her og der. Man kan sige, at der endnu ikke er en enestående liste over universel appel og enighed. Det er den uheldige nyhed. Den gode nyhed er, at der i det mindste er let tilgængelige AI Ethics lister, og de plejer at være ret ens. Alt i alt tyder dette på, at vi ved en form for begrundet konvergens finder vej mod en generel fælleshed af, hvad AI-etik består af.

Lad os først kort dække nogle af de overordnede etiske AI-forskrifter for at illustrere, hvad der burde være en vigtig overvejelse for enhver, der laver, arbejder med eller bruger AI.

For eksempel, som anført af Vatikanet i Rom opfordrer til AI-etik og som jeg har dækket indgående kl linket her, disse er deres identificerede seks primære AI-etiske principper:

  • Gennemsigtighed: I princippet skal AI-systemer kunne forklares
  • Inklusion: Der skal tages hensyn til alle menneskers behov, så alle kan få gavn, og alle kan tilbydes de bedst mulige betingelser for at udtrykke sig og udvikle sig.
  • Ansvar: De, der designer og implementerer brugen af ​​AI, skal fortsætte med ansvar og gennemsigtighed
  • Uvildighed: Lad være med at skabe eller handle i overensstemmelse med bias, og dermed sikre retfærdighed og menneskelig værdighed
  • Pålidelighed: AI-systemer skal kunne fungere pålideligt
  • Sikkerhed og privatliv: AI-systemer skal fungere sikkert og respektere brugernes privatliv.

Som anført af det amerikanske forsvarsministerium (DoD) i deres Etiske principper for brugen af ​​kunstig intelligens og som jeg har dækket indgående kl linket her, disse er deres seks primære AI-etiske principper:

  • Ansvarlig: DoD-personale vil udøve passende niveauer af dømmekraft og omhu, mens de forbliver ansvarlige for udvikling, implementering og brug af AI-kapaciteter.
  • Retfærdig: Afdelingen vil tage bevidste skridt for at minimere utilsigtet skævhed i AI-kapaciteter.
  • Sporbar: Afdelingens AI-kapaciteter vil blive udviklet og implementeret, således at relevant personale besidder en passende forståelse af teknologien, udviklingsprocesser og operationelle metoder, der gælder for AI-kapaciteter, herunder gennemsigtige og auditerbare metoder, datakilder og designprocedure og dokumentation.
  • Pålidelig: Afdelingens AI-kapaciteter vil have eksplicitte, veldefinerede anvendelser, og sikkerheden, sikkerheden og effektiviteten af ​​sådanne kapaciteter vil være genstand for test og forsikring inden for disse definerede anvendelser i hele deres livscyklus.
  • Styrbar: Afdelingen vil designe og konstruere AI-kapaciteter til at opfylde deres tilsigtede funktioner, samtidig med at den har evnen til at opdage og undgå utilsigtede konsekvenser og evnen til at deaktivere eller deaktivere installerede systemer, der viser utilsigtet adfærd.

Jeg har også diskuteret forskellige kollektive analyser af AI-etiske principper, herunder at have dækket et sæt udtænkt af forskere, der undersøgte og kondenserede essensen af ​​adskillige nationale og internationale AI-etiske principper i et papir med titlen "The Global Landscape Of AI Ethics Guidelines" (publiceret i Natur), og at min dækning udforsker kl linket her, som førte til denne keystone-liste:

  • Gennemsigtighed
  • Retfærdighed og Retfærdighed
  • Ikke-ondskab
  • Ansvarlighed
  • Privatliv
  • godgørenhed
  • Frihed & Autonomi
  • Stol
  • Bæredygtighed
  • Værdighed
  • Solidaritet

Som du umiddelbart kan gætte, kan det være ekstremt svært at prøve at fastlægge de detaljer, der ligger til grund for disse principper. Endnu mere er bestræbelserne på at omdanne disse brede principper til noget helt håndgribeligt og detaljeret nok til at blive brugt, når man laver AI-systemer, også en svær nød at knække. Det er let overordnet at lave nogle håndsvingninger om, hvad AI-etiske forskrifter er, og hvordan de generelt skal overholdes, mens det er en meget mere kompliceret situation i AI-kodningen, der skal være den veritable gummi, der møder vejen.

AI-etikprincipperne skal bruges af AI-udviklere sammen med dem, der styrer AI-udviklingsindsatsen, og endda dem, der i sidste ende udfører og udfører vedligeholdelse på AI-systemer. Alle interessenter gennem hele AI-livscyklussen for udvikling og brug betragtes inden for rammerne af at overholde de etablerede normer for etisk AI. Dette er et vigtigt højdepunkt, da den sædvanlige antagelse er, at "kun kodere" eller dem, der programmerer AI'en, er underlagt AI-etikkens begreber. Som tidligere nævnt kræver det en landsby at udtænke og udforme AI, og for hvilken hele landsbyen skal være fortrolig med og overholde AI-etiske forskrifter.

Lad os også sikre os, at vi er på samme side om arten af ​​nutidens AI.

Der er ikke nogen AI i dag, der er sansende. Det har vi ikke. Vi ved ikke, om sansende AI vil være mulig. Ingen kan passende forudsige, om vi vil opnå sansende AI, eller om sansende AI på en eller anden måde mirakuløst spontant vil opstå i en form for computerkognitiv supernova (normalt omtalt som singulariteten, se min dækning på linket her).

Den type AI, som jeg fokuserer på, består af den ikke-sansende AI, som vi har i dag. Hvis vi ville spekulere vildt over sansende AI, denne diskussion kunne gå i en radikal anden retning. En sansende AI ville angiveligt være af menneskelig kvalitet. Du skal overveje, at den sansende AI er den kognitive ækvivalent til et menneske. Mere så, eftersom nogle spekulerer på, at vi måske har superintelligent AI, er det tænkeligt, at sådan AI kan ende med at blive klogere end mennesker (for min udforskning af superintelligent AI som en mulighed, se dækningen her).

Lad os holde tingene mere nede på jorden og overveje nutidens beregningsmæssige ikke-sansende AI.

Indse, at nutidens AI ikke er i stand til at "tænke" på nogen måde på lige fod med menneskelig tænkning. Når du interagerer med Alexa eller Siri, kan samtalekapaciteten virke beslægtet med menneskelige kapaciteter, men virkeligheden er, at den er beregningsmæssig og mangler menneskelig erkendelse. Den seneste æra af AI har gjort omfattende brug af Machine Learning (ML) og Deep Learning (DL), som udnytter computational pattern matching. Dette har ført til AI-systemer, der ser ud som menneskelignende tilbøjeligheder. I mellemtiden er der ikke nogen kunstig intelligens i dag, der har et antydning af sund fornuft og heller ikke noget af den kognitive undren ved robust menneskelig tænkning.

ML/DL er en form for computational pattern matching. Den sædvanlige tilgang er, at du samler data om en beslutningsopgave. Du føder dataene ind i ML/DL-computermodellerne. Disse modeller søger at finde matematiske mønstre. Efter at have fundet sådanne mønstre, hvis det er fundet, vil AI-systemet bruge disse mønstre, når de støder på nye data. Ved præsentationen af ​​nye data anvendes mønstrene baseret på de "gamle" eller historiske data til at gøre en aktuel beslutning.

Jeg tror, ​​du kan gætte, hvor det er på vej hen. Hvis mennesker, der har truffet de mønstrede beslutninger, har inkorporeret uønskede skævheder, er oddsene, at dataene afspejler dette på subtile, men væsentlige måder. Machine Learning eller Deep Learning computational pattern matching vil blot forsøge at matematisk efterligne dataene i overensstemmelse hermed. Der er ingen antydning af sund fornuft eller andre sansende aspekter af AI-fremstillet modellering i sig selv.

Desuden er AI-udviklerne måske heller ikke klar over, hvad der foregår. Den mystiske matematik i ML/DL kan gøre det svært at fjerne de nu skjulte skævheder. Du ville med rette håbe og forvente, at AI-udviklerne ville teste for de potentielt begravede skævheder, selvom dette er vanskeligere, end det måske ser ud til. Der er en solid chance for, at selv med relativt omfattende tests, vil der stadig være skævheder indlejret i mønstermatchningsmodellerne for ML/DL.

Du kunne lidt bruge det berømte eller berygtede ordsprog om skrald-ind skrald-ud. Sagen er, at dette er mere beslægtet med biases-in, der snigende bliver infunderet som skævheder nedsænket i AI. Algoritmebeslutningstagningen (ADM) af AI bliver aksiomatisk fyldt med uligheder.

Ikke godt.

Lad os knytte dette til spørgsmålet om pålidelig AI

Vi ser bestemt ikke ud til at være villige til at stole på AI, der viser negative skævheder og diskriminerende handlinger. Vores overbevisning i så fald ville være, at en sådan AI bestemt ikke er troværdig, så vi ville hælde til aktivt at mistro AI'en. Uden at gå overbord med en antropomorf sammenligning (jeg vil sige mere om AI-antropomorfisering om et øjeblik), ville et menneske, der udviste uønskede skævheder, også blive vurderet som ikke særligt troværdigt.

Graver i tillid og troværdighed

Måske burde vi tage et kig på, hvad vi mener, når vi hævder, at vi gør eller ikke stoler på nogen eller noget. Overvej først flere dagligdags ordbogsdefinitioner af tillid.

Eksempler på, hvad tillid definitionsmæssigt betyder, er:

  • Sikker afhængighed af karakter, evner, styrke eller sandhed hos nogen eller noget (Merriam-Webster online ordbog).
  • Tillid til en persons eller tings integritet, styrke, evner, sikkerhed osv (Dictionary.com)
  • Fast tro på pålideligheden, sandheden, evnen eller styrken hos nogen eller noget (Oxford Languages ​​online ordbog).

Jeg vil gerne påpege, at alle disse definitioner refererer til "nogen" og ligeledes henviser til "noget" som værende potentielt troværdige. Dette er bemærkelsesværdigt, da nogle måske insisterer på, at vi kun stoler på mennesker, og at tillidshandlingen udelukkende er forbeholdt menneskeheden som vores mål for troværdighed. Ikke så. Du kan stole på din køkkenbrødrister. Hvis det ser ud til at være pålideligt at lave din toast og arbejder rutinemæssigt for at gøre det, kan du med sikkerhed have en anelse om tillid til, om brødristeren faktisk er troværdig.

I den samme tankegang kan AI også være genstand for vores tillidssynspunkt. Chancerne er, at tillid forbundet med kunstig intelligens vil være meget mere kompliceret end at sige en hverdagsagtig brødrister. En brødrister kan normalt kun udføre en håndfuld handlinger. Et AI-system er sandsynligvis meget mere komplekst og ser ud til at fungere mindre gennemsigtigt. Vores evne til at vurdere og konstatere troværdigheden af ​​AI er bundet til at være meget sværere og byde på særskilte udfordringer.

Udover blot at være mere kompleks, siges et typisk AI-system at være ikke-deterministisk og potentielt selvregulerende eller selvjusterende. Vi kan kort udforske den forestilling.

En deterministisk maskine har en tendens til at gøre de samme ting igen og igen, forudsigeligt og med et gennemskueligt mønster af, hvordan den fungerer. Du kan sige, at en almindelig brødrister toasts nogenlunde på samme måde og har ristekontroller, der modererer risten, som alle generelt er forudsigelige af den person, der bruger brødristeren. I modsætning hertil er komplekse AI-systemer ofte udtænkt til at være ikke-deterministiske, hvilket betyder, at de kan gøre helt andre ting ud over, hvad du ellers havde forventet. Dette kunne delvist også forstærkes yderligere, hvis AI'en er skrevet for at selvjustere sig selv, et aspekt, der med fordel kan tillade AI'en at forbedre sig i tilfælde af ML/DL, men som også foruroligende kan få AI'en til at vakle eller komme ind i rækken af AI dårligdom. Du ved måske ikke, hvad der ramte dig, på en måde, da du blev overrumplet af AI'ens handlinger.

Hvad kan vi gøre for at prøve at bringe AI tættere på troværdighed?

Én tilgang består i at forsøge at sikre, at de, der bygger og opretter AI, overholder et sæt AI-etiske forskrifter. Som nævnt af disse AI-forskere: "Tillid er en holdning om, at en agent vil opføre sig som forventet og kan stole på for at nå sit mål. Tillid bryder sammen efter en fejl eller misforståelse mellem agenten og den tillidsfulde person. Den psykologiske tillidstilstand i AI er en ny egenskab ved et komplekst system, der normalt involverer mange cyklusser af design, træning, implementering, måling af ydeevne, regulering, redesign og genoptræning" (angivet i Kommunikation af ACM, "Trust, Regulation, and Human-in-the-Loop AI Within the European Region" af Stuart Middleton, Emmanuel Letouze, Ali Hossaini og Adriane Chapman, april 2022).

Essensen er, at hvis vi kan få AI-udviklere til at overholde Ethical AI, vil de forhåbentlig ende med at producere troværdig AI. Dette er alt sammen godt og vel, men det virker noget upraktisk på en reel basis, selvom det absolut er en vej, der er værd at forfølge.

Her er hvad jeg mener.

Antag, at der udføres en flittig indsats af AI-udviklere, der laver et AI-system til et eller andet formål, som vi generelt vil kalde X. De sørger omhyggeligt for, at AI'en overholder AI-etikkens gennemsigtighedsregler. De sikrer nøje, at privatlivets fred er passende indbygget i AI. For næsten alle de sædvanlige AI-etiske principper sikrer AI-byggere udtømmende, at AI'en opfylder den givne forskrift.

Skal du nu stole på den AI?

Tillad mig at hjælpe med at gennemsyre dine tanker om det åbne spørgsmål.

Det viser sig, at cyberskurke formåede at infiltrere AI'en og snigende få AI'en til at udføre X og alligevel også fodre cyberhackere med alle de data, som AI'en indsamler. Ved at gøre det undergraver disse ondsindede på snigende måde privatlivets fred. Du er lykkeligt uvidende om, at dette sker under AI-hjelmen.

Med den tilføjede information vil jeg stille dig det samme spørgsmål igen.

Har du tillid til den AI?

Jeg tør godt sige, at de fleste mennesker med det samme ville erklære, at de helt sikkert gør det ikke stol på denne særlige AI. De kunne have stolet på det tidligere. De vælger nu ikke længere at betragte AI'en som troværdig.

Et par nøgleindsigter baseret på dette simple eksempel er værd at overveje:

  • Tillidsdynamik. Selv de bedste intentioner om at dække alle grundlaget for at sikre, at AI-etik er indbygget i et AI-system, er ingen garanti for, hvad AI'en kan vise sig at være eller blive. Når AI er taget i brug, kan udenforstående potentielt underminere de etiske AI-tilskud.
  • Underbyder tillid indefra. Handlingen med at underbyde troværdigheden behøver ikke nødvendigvis at være udenforstående. En insider, der udfører regelmæssig vedligeholdelse af AI-systemet, kan fejle og svække AI'en i retning af at være mindre troværdig. Denne AI-udvikler er måske uden anelse om, hvad de har lavet.
  • Utilsigtede kompromiser af tillid. En selvjusterende eller selvregulerende AI kan på et tidspunkt justere sig selv og bevæge sig ind i det utroværdige territorium. Måske forsøger AI at styrke AI'ens gennemsigtighed og kompromitterer alligevel samtidig og uhensigtsmæssigt privatlivsfacetterne.
  • Spredning af tillid. At forsøge at opnå alle AI-etikkens principper til den samme yderste grad af troværdighed er normalt ikke umiddelbart levedygtigt, da de ofte har krydsformål eller har andre iboende potentielle konflikter. Det er et ret idealiseret perspektiv at tro, at alle de etiske AI-forskrifter er drømmeagtigt tilpasset og alle opnåelige i en lige så maksimerbar grad.
  • Tillid kan være dyrt at opnå. Omkostningerne ved at forsøge at opnå et førsteklasses udseende af pålidelig AI ved at udføre de forskellige omfattende og udtømmende trin og overholde litanien af ​​AI-etiske principper vil være relativt høje. Du kan sagtens argumentere for, at omkostningerne ville være uoverkommelige i forhold til at få nogle AI-systemer i brug, som ellers har vigtig værdi for samfundet, selvom AI'en var, skal vi sige, mindre end ideel ud fra et ønske om troværdighed.
  • Og så videre.

Misfortolk ikke de foregående bemærkninger for at antyde, at vi på en eller anden måde bør afværge bestræbelserne på grundigt at opbygge og anvende pålidelig AI. Du ville summarisk smide barnet ud med badevandet, som det var. Den korrekte fortolkning er, at vi er nødt til at udføre disse tillidsfulde aktiviteter for at få AI til en troværdig overvejelse, og alligevel er det alene ikke en kur-alle eller en sølvkugle.

Multi-prong stier til pålidelig AI

Der er vigtige yderligere flerstrengede måder at stræbe mod troværdig AI.

For eksempel, som jeg tidligere har dækket i mine spalter, har et utal af nye love og regler vedrørende AI til formål at drive AI-skabere til at udtænke pålidelig AI, se linket her , linket her.

Disse juridiske autoværn er afgørende som et overordnet middel til at sikre, at de, der udtænker AI, holdes fuldt ansvarlige for deres AI. Uden sådanne potentielle juridiske midler og lovlige sanktioner, vil de, der pell-mell rush AI ind på markedet, sandsynligvis fortsætte med at gøre det med ringe om nogen seriøs hensyntagen til at opnå troværdig AI. Jeg kan især tilføje, at hvis disse love og regler er dårligt udtænkt eller utilstrækkeligt implementeret, kan de desværre undergrave forfølgelsen af ​​troværdig AI, måske ironisk nok og mærkeligt nok fremme upålidelig AI frem for troværdig AI (se mine spaltediskussioner for yderligere forklaring).

Jeg har også været en ihærdig fortaler for det, jeg brændende har omtalt som AI guardian angel bots (se min dækning på linket her). Dette er en kommende metode eller tilgang til at forsøge at bekæmpe ild med ild, nemlig at bruge AI til at hjælpe os med at håndtere anden AI, som måske er troværdig eller ikke.

For det første vil noget baggrundskontekst være nyttig.

Antag, at du vælger at stole på et AI-system, som du er usikker på om dets troværdighed. Et centralt problem kunne være, at du er alene i dine forsøg på at finde ud af, om AI'en er til at stole på eller ej. AI'en er potentielt beregningsmæssigt hurtigere end dig og kan drage fordel af dig. Du har brug for nogen eller noget på din side til at hjælpe.

Et perspektiv er, at der altid bør være et menneske-i-løkken, der vil tjene til at hjælpe dig, når du gør brug af et AI-system. Dette er dog en problematisk løsning. Hvis AI'en fungerer i realtid, hvilket vi vil diskutere et øjeblik, når det kommer til fremkomsten af ​​AI-baserede selvkørende biler, er det måske ikke tilstrækkeligt at have et menneske-i-løkken. AI'en kunne handle i realtid, og på det tidspunkt, hvor et udpeget menneske-i-løkken kommer ind i billedet for at finde ud af, om AI'en fungerer korrekt, kan et katastrofalt resultat allerede have fundet sted.

Som en sidebemærkning, bringer dette en anden faktor op om tillid. Vi tildeler normalt et tillidsniveau baseret på den kontekst eller omstændighed, vi står over for. Du stoler måske fuldt ud på, at dit lille barns søn eller datter er tro mod dig, men hvis du er ude at vandre og beslutter dig for at stole på, at det lille barn fortæller dig, om det er sikkert at træde på kanten af ​​en klippe, tror jeg, du ville være klog. at overveje, om det lille barn kan give den slags råd på liv eller død. Barnet kan gøre det oprigtigt og oprigtigt og ikke desto mindre være ude af stand til at give sådanne råd tilstrækkeligt.

Den samme forestilling er forbundet med tillid, når det kommer til AI. Et AI-system, som du bruger til at spille dam eller skak, er sandsynligvis ikke involveret i nogen liv-eller-død overvejelser. Du kan være mere tryg ved din tillidsopgave. En AI-baseret selvkørende bil, der tønder ned ad en motorvej ved høje hastigheder, kræver et meget mere anstrengende niveau af tillid. Den mindste klap fra AI-køresystemet kan føre direkte til din død og andres død.

I et offentliggjort interview med Beena Ammanath, administrerende direktør for Global Deloitte AI Institute og forfatter til bogen Troværdig AI, en lignende vægt på at overveje de kontekstuelle facetter af, hvor AI troværdighed kommer til at spille: "Hvis du bygger en AI-løsning, der udfører patientdiagnosticering, er retfærdighed og bias super vigtigt. Men hvis du bygger en algoritme, der forudsiger jetmotorfejl, er retfærdighed og bias ikke så vigtig. Troværdig AI er virkelig en struktur, der skal få dig i gang med at tænke over dimensionerne af tillid i din organisation" (VentureBeat22. marts 2022).

Når du diskuterer troværdig AI, kan du fortolke dette emne på mange forskellige måder.

For eksempel: pålidelig AI er noget, som vi alle ser som et ønskværdigt og stræbende mål, nemlig at vi skulle ønske at udtænke og udbrede troværdig AI. Der er en anden brug af slagordet. En noget alternativ anvendelse er det pålidelig AI er en tilstand af tilstand eller måling, sådan at nogen kan hævde, at de har lavet et AI-system, der er et eksempel på troværdig AI. Du kan også bruge sætningen pålidelig AI at foreslå en metode eller tilgang, der kan bruges til at opnå AI-pålidelighed. Etc.

På en relateret note, jeg stoler på, at du indser, at ikke al AI er ens, og at vi skal være opmærksomme på ikke at komme med generelle udtalelser om al AI. Et bestemt AI-system vil sandsynligvis være væsentligt forskelligt fra et andet AI-system. Et af disse AI-systemer kan være yderst troværdigt, mens det andet kan være marginalt troværdigt. Vær forsigtig med på en eller anden måde at antage, at AI er en monolit, der enten er fuldstændig troværdig eller fuldstændig ikke troværdig.

Dette er simpelthen ikke tilfældet.

Jeg vil herefter kort dække noget af min igangværende forskning om pålidelig AI, som du måske finder af interesse, og dækker den opståede rolle af AI guardian angel bots.

Sådan går det.

Du ville være bevæbnet med et AI-system (en AI guardian angel bot), der er udviklet til at måle troværdigheden af ​​et andet AI-system. AI guardian angel bot har som et altafgørende fokus på din sikkerhed. Tænk på dette, som om du har midlerne til at overvåge den AI, du stoler på, ved at have et andet AI-system i din veritable lomme, måske kørende på din smartphone eller andre sådanne enheder. Din legendariske AI-værge kan beregne på et grundlag, som den AI, du stoler på, også gør, arbejder med høje hastigheder og beregner den aktuelle situation i realtid, langt hurtigere end et menneske-i-løkken kunne gøre det.

Du tænker måske ved et første øjekast, at den AI, du allerede stoler på, burde have noget interne AI autoværn, der gør det samme som denne separat beregnende AI skytsengel bot. Ja, det ville bestemt være ønsket. En betænkelighed er, at AI-værnet, der er indbygget i et AI-system, kan være integreret og skadeligt tilpasset AI'en i sig selv, således at det formodede AI-værn ikke længere er i stand til på en måde uafhængigt at verificere eller validere AI'en.

Den modstridende idé er, at din AI guardian angel bot er en uafhængig eller tredjeparts AI-mekanisme, der er forskellig fra den AI, du stoler på. Den sidder uden for den anden AI, forbliver dedikeret til dig og ikke dedikeret til den AI, der overvåges eller vurderes.

En ligetil måde at tænke over dette på kan udtrykkes via følgende forenklede ligningslignende udsagn. Vi kan sige, at "P" potentielt ønsker at stole på "R" til at udføre en bestemt opgave "X":

Dette ville være følgende, når kun personer er involveret:

  • Person P stoler på, at person R udfører opgave X.

Når vi vælger at stole på AI, omformes udsagnet til dette:

  • Person P stoler på, at AI-instans-R udfører opgave X.

Vi kan tilføje AI guardian angel bot ved at sige dette:

  • Person P stoler på, at AI instance-R udfører opgave X som overvåget af AI guardian angel bot instance-Z

AI guardian angel bot vurderer utrætteligt og ubønhørligt den AI, som du stoler på. Som sådan kan din praktiske AI-værge advare dig om, at tilliden til denne anden AI er uberettiget. Eller AI-vogteren kan interagere elektronisk med den anden AI for at forsøge at sikre, at enhver afvigelse væk fra at være troværdig hurtigt rettes op, og så videre (se min dækning om sådanne detaljer på linket her).

The Trusty Trust Reservoir Metafor

Da vi diskuterer forskellige niveauer af tillid, kan du måske finde en praktisk metafor om troværdighed ved at opfatte tillid som en type reservoir.

Du har en vis grad af tillid til en bestemt person eller ting i en bestemt omstændighed på et bestemt tidspunkt. Tillidsniveauet vil stige eller falde, afhængigt af hvad der ellers sker relateret til den pågældende person eller ting. Tilliden kan være på et nulniveau, når du ikke har nogen som helst tillid til personen eller tingen. Tilliden kan være negativ, når du vover dig ud i at have mistillid til den pågældende person eller ting.

I tilfælde af AI-systemer vil dit tillidsreservoir for den bestemte AI, som du stoler på i en bestemt situation, stige eller falde, afhængigt af, at du måler AI'ens troværdighed. Til tider er du måske udmærket klar over dette varierende niveau af tillid om AI, mens du i andre tilfælde måske er mindre opmærksom og mere ved at dømme om troværdigheden.

Måder, som vi har diskuteret heri midlerne til at øge tillidsniveauet for AI, omfatter:

  • Overholdelse af AI-etik. Hvis den AI, som du stoler på, blev udtænkt ved at forsøge at overholde de korrekte AI-etiske forskrifter, ville du formentlig bruge denne forståelse til at øge niveauet af dit tillidsreservoir for det pågældende AI-system. Som en sidebemærkning er det også muligt, at du kan generalisere til andre AI-systemer med hensyn til deres troværdighed, på samme måde, selvom dette til tider kan være en vildledende form af det, jeg kalder AI har tillid til, at aura spreder sig (vær forsigtig med at gøre dette!).
  • Brug en Human-In-The-Loop. Hvis AI'en har et menneske-in-the-loop, kan du positivt bidrage til din opfattede tillid til AI'en.
  • Etablere love og regler. Hvis der er love og regler forbundet med denne særlige type AI, kan du måske også øge dit tillidsniveau.
  • Ansæt en AI Guardian Angel Bot. Hvis du har en AI guardian angel bot parat, vil dette også øge dit tillidsniveau yderligere.

Som tidligere nævnt kan tillid være ret skørt og falde fra hinanden på et øjeblik (dvs. tillidsreservoiret dumper hurtigt og pludselig al den opbyggede tillid ud).

Forestil dig, at du er inde i en AI-baseret selvkørende bil, og AI-kørslen foretager pludselig et radikalt højresving, hvilket får hjulene til at hvine og næsten tvinger det selvkørende køretøj til at vælte i fare. Hvad ville der ske med dit tillidsniveau? Det ser ud til, at selvom du tidligere holdt AI'en på et øget tillidsniveau, ville du dramatisk og brat falde dit tillidsniveau, fornuftigt nok.

På dette tidspunkt i denne tungtvejende diskussion vil jeg vædde på, at du ønsker yderligere illustrative eksempler, der kan vise arten og omfanget af pålidelig AI. Der er et særligt og helt sikkert populært sæt eksempler, der ligger mit hjerte nært. Ser du, i min egenskab af ekspert i kunstig intelligens, herunder de etiske og juridiske konsekvenser, bliver jeg ofte bedt om at identificere realistiske eksempler, der viser AI-etiske dilemmaer, så emnets noget teoretiske karakter lettere kan forstås. Et af de mest stemningsfulde områder, der levende præsenterer dette etiske AI-dilemma, er fremkomsten af ​​AI-baserede ægte selvkørende biler. Dette vil tjene som en praktisk use case eller et eksempel til omfattende diskussion om emnet.

Her er så et bemærkelsesværdigt spørgsmål, som er værd at overveje: Belyser fremkomsten af ​​AI-baserede ægte selvkørende biler noget om jagten på pålidelig AI, og hvis ja, hvad viser dette?

Tillad mig et øjeblik at pakke spørgsmålet ud.

Først skal du bemærke, at der ikke er en menneskelig chauffør involveret i en ægte selvkørende bil. Husk, at ægte selvkørende biler køres via et AI-køresystem. Der er ikke behov for en menneskelig fører ved rattet, og der er heller ikke en bestemmelse om, at et menneske kan føre køretøjet. For min omfattende og løbende dækning af Autonome Vehicles (AV'er) og især selvkørende biler, se linket her.

Jeg vil gerne yderligere præcisere, hvad der menes, når jeg refererer til ægte selvkørende biler.

Forståelse af niveauerne af selvkørende biler

Som en præcisering er ægte selvkørende biler dem, hvor AI kører bilen helt på egen hånd, og der ikke er nogen menneskelig assistance under køreopgaven.

Disse førerløse køretøjer betragtes som niveau 4 og niveau 5 (se min forklaring på dette link her), mens en bil, der kræver en menneskelig chauffør til at dele køreindsatsen, normalt betragtes på niveau 2 eller niveau 3. De biler, der deler køreopgaven, beskrives som værende semi-autonome og indeholder typisk en række forskellige automatiserede tilføjelser, der omtales som ADAS (Advanced Driver-Assistance Systems).

Der er endnu ikke en ægte selvkørende bil på niveau 5, og vi ved endnu ikke engang, om dette vil være muligt at opnå, og heller ikke hvor lang tid det vil tage at nå dertil.

I mellemtiden forsøger niveau 4-indsatsen gradvist at få noget trækkraft ved at gennemgå meget smalle og selektive forsøg på offentlige vejbaner, selvom der er uenighed om, hvorvidt denne test skal tillades i sig selv (vi er alle liv-eller-død marsvin i et eksperiment finder sted på vores motorveje og biveje, hævder nogle, se min dækning på dette link her).

Da semi-autonome biler kræver en menneskelig chauffør, vil vedtagelsen af ​​disse typer biler ikke være markant anderledes end at køre konventionelle køretøjer, så der er ikke meget nyt i sig selv at dække om dem om dette emne (dog, som du vil se på et øjeblik gælder de næste nævnte punkter generelt).

For semi-autonome biler er det vigtigt, at offentligheden skal advares om et foruroligende aspekt, der er opstået for nylig, nemlig at trods de menneskelige chauffører, der fortsætter med at indsende videoer af sig selv falder i søvn ved rattet i en niveau 2 eller niveau 3 bil , er vi alle nødt til at undgå at blive vildledt til at tro, at chaufføren kan fjerne deres opmærksomhed fra køreopgaven, mens han kører en semi-autonom bil.

Du er den ansvarlige part for køretøjets kørselshandlinger, uanset hvor meget automatisering der kan kastes i et niveau 2 eller niveau 3.

Selvkørende biler og pålidelig kunstig intelligens

For ægte selvkørende køretøjer på niveau 4 og niveau 5 er der ikke en menneskelig chauffør, der er involveret i køreopgaven.

Alle passagerer vil være passagerer.

AI driver kørslen.

Et aspekt, som man straks skal diskutere, indebærer det faktum, at AI involveret i nutidens AI-køresystemer ikke er væsentlig. Med andre ord er AI'et helt en samling af computerbaseret programmering og algoritmer, og helt sikkert ikke i stand til at ræsonnere på samme måde som mennesker kan.

Hvorfor er denne ekstra vægt på, at AI ikke er følelsesladet?

Fordi jeg vil understrege, at når jeg diskuterer AI-køresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær opmærksom på, at der i disse dage er en løbende og farlig tendens til at antropomorfisere AI. I det væsentlige tildeler folk menneskelignende følsomhed til nutidens AI, på trods af den ubestridelige og uomtvistelige kendsgerning, at der endnu ikke findes sådan en sådan AI.

Med denne afklaring kan du forestille dig, at AI-køresystemet ikke på en eller anden måde "ved" noget om kørselens facetter. Kørsel og alt, hvad det medfører, skal programmeres som en del af den selvkørende bils hardware og software.

Lad os dykke ned i det utal af aspekter, der kommer til at spille om dette emne.

For det første er det vigtigt at indse, at ikke alle AI selvkørende biler er ens. Hver bilproducent og selvkørende teknologivirksomhed tager sin tilgang til at udtænke selvkørende biler. Som sådan er det svært at komme med omfattende udsagn om, hvad AI-køresystemer vil gøre eller ej.

Når det endvidere angives, at et AI -køresystem ikke gør nogle særlige ting, kan dette senere blive overhalet af udviklere, der faktisk programmerer computeren til at gøre det. Trin for trin forbedres og udvides AI -drivsystemer gradvist. En eksisterende begrænsning i dag eksisterer muligvis ikke længere i en fremtidig iteration eller version af systemet.

Jeg stoler på, at det giver en tilstrækkelig mængde forbehold til at ligge til grund for det, jeg er ved at fortælle.

Vi er klar til nu at dykke ned i selvkørende biler og pålidelig kunstig intelligens.

Tillid er alt, især i tilfælde af AI-baserede selvkørende biler.

Samfundet ser ud til at være forsigtigt med at se fremkomsten af ​​selvkørende biler. På den ene side er der et stort håb om, at fremkomsten af ​​ægte selvkørende biler beviseligt vil reducere antallet af årlige bilrelaterede dødsfald. Alene i USA er der omkring 40,000 årlige dødsfald og omkring 2.5 millioner tilskadekomne på grund af bilulykker, se min samling af statistikker på linket her. Mennesker drikker og kører. Mennesker kører, mens de er distraheret. Opgaven med at køre bil ser ud til at bestå i gentagne og fejlfrit at kunne fokusere på kørslen og undgå at komme ud i biluheld. Som sådan kan vi drømmende håbe, at AI-køresystemer vil guide selvkørende biler gentagne gange og fejlfrit. Du kan opfatte selvkørende biler som en tobil, der består i at reducere antallet af dødsfald og kvæstelser i bilulykker sammen med potentielt at gøre mobilitet tilgængelig på et meget bredere og tilgængeligt grundlag.

Men bekymringen tårner sig i mellemtiden op over samfundets opfattelser af, om selvkørende biler vil være sikre nok til at være på vores offentlige veje som helhed.

Hvis selv en selvkørende bil kommer ud i et styrt eller en kollision, der fører til et enkelt dødsfald eller alvorlig skade, kan du sandsynligvis forudse, at nutidens noget opbyggede tillid til disse AI-baserede førerløse biler vil falde brat. Vi så dette ske, da den nu berygtede hændelse fandt sted i Arizona, der involverede en noget (ikke rigtig) selvkørende bil, der kørte ind i og dræbte en fodgænger (se min dækning kl. dette link her).

Nogle eksperter påpeger, at det er uretfærdigt og upassende at basere tilliden til AI-selvkørende biler på den facet, at kun et sådant næste dødsfremkaldende sammenstød eller kollision kan underminere de i forvejen relativt kollisionsfrie offentlige vejbaner. Derudover, på et yderligere uretfærdigt grundlag, er oddsene, at uanset hvilket særligt AI-selvkørende bilmærke eller -model måske bliver involveret i en sørgelig hændelse, vil samfundet utvivlsomt give alle selvkørende bilmærker skylden.

Helheden af ​​selvkørende biler kan blive udtværet summarisk, og branchen som helhed kan lide et kæmpe modreaktion, der kan føre til en mulig lukning af alle forsøg på offentlige vejbaner.

En bidragyder til et sådant tilbageslag findes i de useriøse proklamationer fra åbenhjertige selvkørende bilfortalere om, at alle førerløse biler vil være ubrydelige. Denne idé om at være uncrashable er ikke kun direkte forkert (se linket her), er det snigende ved at sætte den selvkørende bilindustri op til et helt ude af spidsen sæt forventninger. Disse besynderlige og uopnåelige udtalelser om, at der ikke vil være nogen dødsfald på grund af selvkørende biler, giver næring til den misforståelse, at enhver førerløs bilulykke er et sikkert tegn på, at hele sættet og kaboodlen er for intet.

Der er en tydelig tristhed at indse, at fremskridtene hen imod selvkørende biler og den tom-ad-gangen ophobning af samfundsmæssig tillid kunne forsvinde på et øjeblik. Det bliver et forbandet udstillingsvindue om tillidens skørhed.

Konklusion

Mange bilproducenter og selvkørende teknologivirksomheder overholder generelt AI-etiske principper og gør det for at forsøge at opbygge troværdig AI i form af sikre og pålidelige AI-baserede selvkørende biler. Vær opmærksom på, at nogle af disse firmaer er stærkere og mere hengivne til de etiske AI-forskrifter end andre. Der er også lejlighedsvis udkants- eller nybegyndere selvkørende bil-relaterede startups, der ser ud til at tilsidesætte en stor del af AI Ethics hjørnesten (se min anmeldelse på linket her).

På andre fronter er nye love og regler, der dækker selvkørende biler, efterhånden kommet på de juridiske bøger. Om de har de nødvendige tænder til at bakke dem op er en anden sag, ligesom om håndhævelsen af ​​disse love bliver taget alvorligt eller overset (se mine spalter for analyser om dette).

Der er også den højteknologiske vinkel på dette. Jeg har forudsagt, at vi gradvist vil se varianter af AI skytsengle-bots, der vil komme i forgrunden i arenaen for autonome køretøjer og selvkørende biler. Vi er der ikke endnu. Dette vil blive mere udbredt, når populariteten af ​​selvkørende biler bliver mere udbredt.

Dette sidste punkt bringer en berømt linje om tillid op, som du utvivlsomt allerede kender udenad.

Stol på, men bekræft.

Vi kan tillade os selv at udvide vores tillid, måske generøst. I mellemtiden bør vi også se på som en høg for at sikre, at den tillid, vi skaber, bekræftes af både ord og handlinger. Lad os sætte lidt tillid til AI, men verificere i det uendelige, at vi stoler korrekt og med åbne øjne.

Det kan du stole på mig.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/