AI-etik Forsigtigt at vurdere, om det er klogt eller nytteløst at tilbyde AI-fordomme, at jagt dusører for at fange og nappe etisk onde, fuldt autonome systemer

Ønskede: AI bias jægere.

Det kunne være en moderne annonce, som du vil begynde at se dukke op på sociale mediekanaler og optræde i forskellige online jobopslag. Dette er et relativt nyt koncept eller en rolle. Det fører kontroverser med sig. Nogle ivrige troende hævder brændende, at det giver rigelig mening og burde have foregået hele tiden, mens andre temmelig nervøst laver nogle alvorlige hovedskraber og ikke så sikre på, at det er en god idé.

Kernen i rollen består i at fjerne AI med skjulte skævheder eller indlejrede diskriminerende praksisser. Til undsætning kommer de ivrige og i det hele taget tidligere AI skævvridende jægere. De ville formentlig være computerkyndige dusørjægere. Mere så, forhåbentlig, gennemsyret af dybden af ​​AI-kapaciteter.

Har pistol, vil rejse og kan via AI-dygtig skarp skydefærdighed klare at afsløre disse ubehagelige og uheldige AI-fordomme.

Dette rejser en række vanskelige spørgsmål om sensibiliteten i at forfølge en sådan taktik, når det kommer til at opdage AI-fordomme. Som jeg vil diskutere et øjeblik, skal du vide, at fremkomsten af ​​AI også har bragt fremkomsten af ​​AI-bias med sig. En strøm af AI-fordomme. For min løbende og omfattende dækning af AI-etik og etisk AI, se linket her , linket her, For blot at nævne nogle få.

Hvordan skal vi opdage, at et bestemt AI-system har skævheder?

Du kan betro de AI-udviklere, der udtænkte AI'en, til at gøre det. Sagen er den, at de kan være så fast i fordomme, at de ikke selv kan genkende skævhederne i deres opdigtede AI. Det hele ser godt ud for dem. Eller de er måske så begejstrede for AI og har en følelse af selvstolthed over det, at det ville være svært og en reel nedtur at skulle tage et kritisk blik for at undersøge det for skævheder. Mange andre sådanne grunde kan synes at underbyde, at AI-udviklerne påtager sig denne opgave, herunder mangel på færdigheder til at finde ud af de indlejrede skævheder, mangel på tid i et projekt til at gøre det osv.

Okay, så gå videre og hyr eksterne konsulenter til at gøre det beskidte arbejde for dig, som det var. Det viser sig, at konsulenter gladeligt vil undersøge din AI for skævheder og opkræve dig en pæn krone for at gøre det (masser og masser af øre). Indse, at du skal betale for, at de kommer i gang med dit AI-system. Så skal du have dem til at rode rundt, hvilket kan tage et utal af dyre arbejdstimer. Brug af konsulenter er en mulighed, hvis du har budget til det.

Ind i det potentielle "gab" for, hvordan man finder disse lumske AI-fordomme, kommer de heroiske og overvældende AI-fordomme dusørjægere.

Du betaler dem normalt ikke på forhånd. De forsøger at finde AI-fordomme på deres egen tid og må betale deres egne regninger, mens de gør det. Kun hvis de med succes finder skævheder, bliver de betalt. Jeg formoder, at du let kunne hævde, at på en passende måde at tænke på, er det den konventionelle definition af en dusørjæger. Bliv betalt, hvis det lykkes. Bliv ikke betalt, hvis du ikke lykkes. Periode, slutningen af ​​historien.

Bounty-programmer har eksisteret siden i det mindste romernes tid, og derfor kan vi antage, at de virker, efter at have holdt ud som en praksis i alle disse år.

Her er et fascinerende stykke historisk trivia til dig. Efter sigende proklamerede en postet besked under Romerriget i byen Pompeji, at dusørjægere var nødvendige for at finde en kobbergryde, der forsvandt i en lille butik. Belønningen for genvindingen af ​​kobberpotten var en imponerende præmie på femogtres bronzemønter. Beklager at sige, at vi ikke ved, om nogen dusørjæger fandt kobberpotten og gjorde krav på bronzemønterne, men vi ved, at dusørjagten helt sikkert har fortsat siden de gamle tider.

I mere moderne tid er du måske klar over, at der i 1980'erne var nogle bemærkelsesværdige gaver til at finde computerfejl eller fejl i hyldevarepakker, og så i 1990'erne tilbød Netscape markant en dusør for at finde fejl i deres webbrowser (blev et af de mest fremtrædende firmaer på den tid til at gøre det). Google og Facebook havde hver valgt dusørjagt efter fejl, der startede i henholdsvis 2010 og 2013 år. Et par år senere, i 2016, kom selv det amerikanske forsvarsministerium (DoD) i gang ved at have en "Hack the Pentagon" dusørindsats (bemærk, at den offentligt fokuserede dusør var for fejl fundet på forskellige DoD-relaterede websteder og ikke i forsvarets missionskritiske systemer).

Lad os grave dybere ned i bug bounty-emnet. Jeg er klar over, at jeg hovedsageligt sigter på at tale om AI-bias i dusørjagt i denne diskussion, men der er nogle ret relevante paralleller til bug-bounty-arenaen.

Nogle er beviseligt forundrede over, at enhver virksomhed ønsker at tilbyde en dusør for at finde fejl (eller i dette tilfælde AI-fordomme) i deres systemer.

På overfladen virker dette som en "du beder om det" slags strategi. Hvis du lader verden vide, at du byder velkommen til dem, der måske forsøger at finde huller i din software, ser det ud til at være ensbetydende med at bede indbrudstyve om at gå videre og prøve at bryde ind i dit hus. Selvom du allerede mener, at du har et ret godt tyverialarmsystem, og at ingen burde være i stand til at komme ind i dit sikrede hjem, så forestil dig at spørge og faktisk bede indbrudstyvene om at alle kommer ned til dit bosted og se, om de kan knække ind i det. Åh, de problemer, vi væver for os selv.

Det samme kunne siges om at bede dusørjægere om at finde skævheder i din AI.

For det første betyder det måske, at du allerede tror eller ligefrem ved, at din AI har skævheder. Det er en chokerende direkte underforstået indrømmelse, som få synes villige til at give og potentielt kan give bagslag.

For det andet ved du ikke med sikkerhed, hvad de dusørjægere kan gøre. De kunne vælge at fortælle hele verden, at de fandt skævheder i din AI. Man går ud fra, at dette kan miste dusøren, selvom nogle måske kan nyde opmærksomheden eller sigte mod at styrke deres status for at få konsulentkoncerter og andre indtægtsgenererende muligheder. Det kunne måske være helt altruistisk. Det kan være en form for AI-aktivisme. Jeg kan blive ved.

For det tredje kunne der være et lusket twist til hele affæren. En dusørjæger, der hævder at være på udkig efter AI-fordomme, søger måske djævelsk rundt for at finde måder at angribe dit AI-system på. Det hele er en skænderi for i sidste ende at foretage et alvorligt cyberangreb. Du har måske antaget, at de forsøgte at hjælpe, mens de har fejl i deres hjerter. Trist, men muligt.

For det fjerde kan vi blive endnu mere lumsk fordrejet i denne sag. En dusørjæger finder nogle pinlige og potentielt retssagsfremmende AI-fordomme. Dusøren er et beløb af dollars, som vi vil kalde X. I stedet for at gøre krav på dusøren, laver dusørjægeren en slags mærkelig ransomware-provokation. Hvis du betaler dusørjægeren et beløb på ti gange X eller måske himlens grænse, vil de fortælle dig om AI-biaserne. Du har indtil søndag aften ved midnat til at svare. Efter det tidspunkt vil AI-fordomme blive afsløret, så alle kan se. Yikes, en skrækkelig knibe at stå i.

For det femte er de seneste de såkaldte "hack to return" cyberskurke, som efter at have stjålet en masse onlinedej beslutter sig for at omvende sig og returnere noget af det dårligt skaffede bytte, som de greb. Virksomheden, der får sine penge delvist tilbage, er så villig til at betragte det resterende stjålne beløb som en efterfølgende dusør, der belønnes til tyvene. Det ser ud til, at alle "vinder" ved, at hovedparten af ​​midlerne bliver givet tilbage, og i mellemtiden bliver cyberskurkene ikke lovligt forfulgt, plus at de får pirat-dusøren til at starte. Er dette forsigtigt eller en snigende videreførelse af uretmæssige handlinger?

Jeg er klar over, at nogle af jer måske siger, at ingen burde udgive AI, der har nogen fordomme i sig. Det ser ud til at løse hele dette dilemma om, hvorvidt man skal bruge AI-fordommer dusørjægere eller ej. Bare lad være med at få dig selv i en bounty situation. Sørg for, at dine AI-udviklere gør det rigtige og tillader ikke AI-bias i deres AI-systemer. Brug måske konsulenter til at lave et dobbelttjek. Gør i bund og grund, hvad du skal gøre for at undgå nogensinde at tænke på eller bede disse AI-bias dusørjægere om at komme til bordet.

Ja, det ville virke helt fornuftigt. Problemet er, at det også er lidt drømmende. Kompleksiteten af ​​mange AI-systemer er så stor, at det vil være besværligt at forsøge at sikre, at der ikke opstår en eneste unse AI-fordomme. Oven i det er nogle AI-systemer bevidst udtænkt til at justere og "lære", mens de går. Dette betyder, at den AI, som du udtænkte, som i første omgang foregiver, at den var ren og uden skævheder, på et eller andet tidspunkt i fremtiden kan trække sig mod at legemliggøre fordomme (det mener jeg ikke på en antropomorf måde, som jeg vil forklare yderligere, mens vi gå med på dette emne).

De, der går ind for dusørjagt efter softwarefejl, er tilbøjelige til at hævde, at det giver mening at tilbyde sådanne dusører. Vi kan overveje deres begrundelse og se, om det også gælder for AI-fordomme.

Tilhængere af bug bounties understreger, at i stedet for at forsøge at lade som om, at der ikke er nogen huller i dit system, hvorfor så ikke opfordre til at finde huller ved at gøre det på en "kontrolleret" måde? I modsætning hertil, uden sådan en dusørindsats, kunne du bare håbe og bede om, at ingen tilfældigt finder et hul, men hvis du i stedet tilbyder en dusør og fortæller dem, der finder et hul, at de vil blive belønnet, tilbyder det en mulighed for derefter at shore-up hullet på egen hånd og så forhindrer andre i hemmeligt at finde det på et senere tidspunkt.

Det samme kunne siges i tilfælde af brug af AI-bias. Hvis du tilbyder en tilstrækkelig dusør, vil dusørjægerne forhåbentlig gøre dig opmærksom på opdagelsen af ​​AI-fordomme. Du kan så klare AI-biaserne på en forholdsvis rolig og afmålt måde. Dette kan forhindre et meget større og mere skræmmende problem senere, nemlig at en anden finder AI-fordomme i din AI og skriger om det til den høje himmel.

Generelt vil en virksomhed, der ønsker at aktivere bugs dusørjagtindsats, indføre en Vulnerability Disclosure Policy (VDP). VDP angiver, hvordan fejlene skal findes og rapporteres til firmaet, sammen med hvordan belønningen eller dusøren vil blive givet til jægeren. Normalt vil VDP kræve, at jægeren ender med at underskrive en fortrolighedserklæring (NDA), således at de ikke vil afsløre for andre, hvad de fandt.

Forestillingen om at bruge en NDA med dusørjægere har en vis kontrovers. Selvom det måske giver mening for virksomheden, der tilbyder dusøren, at ville beholde mor på de fundne eksponeringer, siges det også at kvæle den generelle bevidsthed om sådanne fejl. Formodentlig, hvis softwarefejl får lov til at blive talt om, vil det potentielt hjælpe andre systemers sikkerhed hos andre firmaer, som så vil styrke deres eksponeringer. Nogle dusørjægere vil ikke underskrive en NDA, dels på grund af offentlighedens ønske og dels på grund af forsøg på at holde deres egen identitet skjult. Husk også, at NDA-aspektet normalt ikke opstår, før jægeren hævder, at de har fundet en fejl, snarere end at kræve det på forhånd.

Nogle VDP'er bestemmer, at NDA kun er for en begrænset periode, hvilket giver virksomheden mulighed for først at finde en løsning på det tilsyneladende hul og derefter bagefter for at give mulighed for bredere offentliggørelse om det. Når først hullet er blevet tilstoppet, tillader firmaet en løsning af NDA, så resten af ​​verden kan vide om fejlen. Den typiske tid til opløsning for dusørjagtede bugs er angiveligt omkring 15-20 dage, når et firma ønsker at tilslutte det med det samme, mens det i andre tilfælde kan strække sig til 60-80 dage. Med hensyn til betaling til dusørjægeren, den såkaldte time-to-pay, efter hullet er blevet verificeret som faktisk eksisterende, har dusørbetalingerne angiveligt en tendens til at være inden for omkring 15-20 dage for de mindre tilfælde og omkring 50-60 dage. dage for de større instanser (disse er konstant skiftende brancheindikationer og kun nævnt som illustrative).

Skal AI-fordommer dusørjægere også blive bedt om at deltage i en VDP og håndtere en NDA?

Du kan få et ja og et nej til det spørgsmål. Ja, nogle virksomheder burde gå den vej. Nej, du vælger måske ikke nødvendigvis at gå den vej. Faktorer inkluderer størrelsen og arten af ​​AI, potentialet for enhver involveret AI-bias-eksponering og en masse andre etiske, juridiske og forretningsmæssige overvejelser, der gør sig gældende.

Jeg kan tilføje, at etableringen af ​​en dusørjagtbestræbelse for AI-fordomme i din AI er en meget højere orden, end du måske antager ved et første øjekast.

Vi starter med den formidable mulighed, at du vil blive overvældet af AI-fordomme dusørjægere.

Lige nu ville du være hårdt presset for at finde mange, der ville have sådan et visitkort. Der er ikke mange omkring. Det er det vilde vestens dage i den forbindelse. Men hvis forestillingen om AI-bias i dusørjagt slår igennem, især når dusørerne er rigelige og rigt givende, kan du vædde på, at alle vil dykke ned i forudindtaget jagt-svømmebassinet.

Vil du have alle slags riffraff, der forfølger AI-bias i dit AI-system? Du vil få nogle takers, der faktisk er eksperter i denne slags ting. Du vil få andre takers, der er amatører og kan lave noget rod eller græde ulv. Den næste ting du ved, vil enhver, der kan stave til "kunstig intelligens", komme for at grave i din guldgrube af et AI-system efter de dyrebare AI-fordommes guldklumper. Guldfeberen er i gang. Det er måske ikke godt for dig.

Du bliver nødt til at granske dusørjægerens indsendelser. Der vil være meget "støj" i de rapporterede påstande, i den forstand, at mange af de påståede AI-fordomme ikke eksisterer, selvom dusørjægeren insisterer på, at de fandt nogle. Forestil dig, hvor meget arbejde dine egne AI-hold vil kræve for at undersøge dusørkravene, udforske gyldigheden af ​​hver og derefter potentielt gå frem og tilbage med dusørjægeren om, hvorvidt guld blev opdaget eller ej.

Nogle vil hævde, at det er endnu en grund til at gøre det hele selv. Du vil måske uundgåeligt opdage, at bounty-tinget er mere besvær, end det var værd.

Her er endnu et spørgsmål at overveje. Hvordan vil dusørjægerne vide, hvordan en AI-bias ser ud? I det væsentlige, uden nogen antydning af, hvad man skal lede efter, kan enhver skinnende sten hævdes at vise en AI-bias i den opfattede AI-guldmine, der udgraves.

I det gamle vestens dage, antag, at du tilbød en belønning for tilfangetagelsen af ​​Billy the Kid (en berømt fredløs). Hvis du gjorde det og ikke inkluderede et billede af, hvordan Billy så ud, så forestil dig antallet af dusørjægere, der kunne trække nogen ind på sheriffens kontor, som de håbede eller troede var Billy the Kid. Du kan blive oversvømmet med falske Billy's. Det er dårligt, da du formentlig skal se på hver enkelt, stille uddybende spørgsmål og prøve at fastslå, om personen virkelig var Billy eller ej.

Pointen er, at for at konfigurere AI-bias bounty-indsatsen, ville du være klogt i at prøve at afklare, hvad du anser for AI-bias at bestå af. Dette kræver en Goldilocks form for kalibrering. Du ønsker ikke at være så begrænsende, at dusørjægerne overser AI-fordomme, blot fordi de ikke passer ind i din fastsatte definition, og du vil heller ikke have, at de råber "Eureka!" ved hver bid af en AI-bias, som de måske finder.

Du skal bruge den helt rigtige Goldilocks-balance af, hvad AI-bias består af, og giver derfor fortrinsvis eksplicitte anvisninger herom.

Meget af denne AI-fordommer dusørjagt vil være fokuseret på AI-baserede Machine Learning (ML) og Deep Learning (DL) systemer. Dette giver mening, da fremkomsten af ​​ML/DL-gennemtrængning vokser, plus det ser ud til at have nogle af de mest sandsynlige udfordringer med at omfatte unødige AI-biaser.

Disse forskere identificerer, hvor fremtrædende en AI-fordommer dusørjagtindsats kan være, især i ML/DL-sammenhæng: "Med tiden har software- og sikkerhedsfællesskaberne udviklet 'bug bounties' i et forsøg på at vende lignende dynamik mellem systemudviklere og deres kritikere (eller hackere) mod mere interaktive og produktive mål. Håbet er, at ved bevidst at invitere eksterne parter til at finde software- eller hardwarefejl i deres systemer og ofte give penge til at gøre det, vil et sundere og hurtigere reagerende økosystem udvikle sig. Det er naturligt for ML-samfundet at overveje en lignende 'bias bounty'-tilgang til rettidig opdagelse og reparation af modeller og systemer med bias eller anden uønsket adfærd. I stedet for at finde fejl i software, inviteres eksterne parter til at finde skævheder - for eksempel (demografiske eller andre) undergrupper af input, som en trænet model underpræsterer på - og belønnes for at gøre det" (i papiret "An Algorithmic Framework for Bias Bounties" af Ira Globus-Harris, Michael Kearns og Aaron Roth).

I forskningspapiret skitserer forfatterne en foreslået tilgang til, hvilke slags AI-fordomme, der kan søges af dusørjægere. Der er også en indikation om, hvordan man vurderer dusørjægerens krav forbundet med de påståede AI-fordomme, der er blevet opdaget. I henhold til mine tidligere bemærkninger heri, er oddsene, at du vil modtage besynderlige krav og er nødt til at adskille AI-biaserne hvede fra avnerne.

Inden vi går ind på noget mere kød og kartofler om de vilde og uldne overvejelser, der ligger til grund for AI-biasjagt, lad os etablere nogle yderligere grundlæggende principper om dybt integrerede emner. Vi er nødt til kort at tage et luftigt dyk ned i AI-etik og især fremkomsten af ​​Machine Learning (ML) og Deep Learning (DL).

Du er måske vagt klar over, at en af ​​de højeste stemmer i disse dage inden for AI-feltet og endda uden for AI-området består i at råbe efter et større udseende af etisk AI. Lad os tage et kig på, hvad det vil sige at henvise til AI-etik og etisk AI. Oven i det vil vi undersøge, hvad jeg mener, når jeg taler om Machine Learning og Deep Learning.

Et bestemt segment eller en del af AI-etikken, der har fået meget mediebevågenhed, består af AI, der udviser urimelige skævheder og uligheder. Du er måske klar over, at da den seneste æra af kunstig intelligens gik i gang, var der et stort udbrud af begejstring for, hvad nogle nu kalder AI til gode. Desværre begyndte vi at være vidne til det i hælene af den brusende spænding AI For Bad. For eksempel er forskellige AI-baserede ansigtsgenkendelsessystemer blevet afsløret som indeholdende racemæssige skævheder og kønsbias, som jeg har diskuteret på linket her.

Bestræbelser på at kæmpe imod AI For Bad er aktivt i gang. Udover højrøstet juridiske bestræbelserne på at tøjle uretfærdigheden, er der også et væsentligt skub i retning af at omfavne AI-etik for at rette op på AI-modfærdigheden. Idéen er, at vi bør vedtage og godkende vigtige etiske AI-principper for udviklingen og feltet af AI for at underbyde AI For Bad og samtidig indvarsle og fremme det foretrukne AI til gode.

Hvad angår en beslægtet opfattelse, er jeg en fortaler for at forsøge at bruge AI som en del af løsningen på AI-problemer, bekæmpe ild med ild på den måde at tænke på. Vi kan for eksempel indlejre etiske AI-komponenter i et AI-system, der vil overvåge, hvordan resten af ​​AI gør tingene og dermed potentielt fange i realtid enhver diskriminerende indsats, se min diskussion på linket her. Vi kunne også have et separat AI-system, der fungerer som en type AI Ethics monitor. AI-systemet fungerer som en tilsynsførende til at spore og detektere, når en anden AI går ind i den uetiske afgrund (se min analyse af sådanne muligheder på linket her).

Om et øjeblik vil jeg dele nogle overordnede principper, der ligger til grund for AI-etik, med dig. Der er masser af den slags lister, der flyder rundt her og der. Man kan sige, at der endnu ikke er en enestående liste over universel appel og enighed. Det er den uheldige nyhed. Den gode nyhed er, at der i det mindste er let tilgængelige AI Ethics lister, og de plejer at være ret ens. Alt i alt tyder dette på, at vi ved en form for begrundet konvergens finder vej mod en generel fælleshed af, hvad AI-etik består af.

Lad os først kort dække nogle af de overordnede etiske AI-forskrifter for at illustrere, hvad der burde være en vigtig overvejelse for enhver, der laver, arbejder med eller bruger AI.

For eksempel, som anført af Vatikanet i Rom opfordrer til AI-etik og som jeg har dækket indgående kl linket her, disse er deres identificerede seks primære AI-etiske principper:

  • Gennemsigtighed: I princippet skal AI-systemer kunne forklares
  • Inklusion: Der skal tages hensyn til alle menneskers behov, så alle kan få gavn, og alle kan tilbydes de bedst mulige betingelser for at udtrykke sig og udvikle sig.
  • Ansvar: De, der designer og implementerer brugen af ​​AI, skal fortsætte med ansvar og gennemsigtighed
  • Uvildighed: Lad være med at skabe eller handle i overensstemmelse med bias, og dermed sikre retfærdighed og menneskelig værdighed
  • Pålidelighed: AI-systemer skal kunne fungere pålideligt
  • Sikkerhed og privatliv: AI-systemer skal fungere sikkert og respektere brugernes privatliv.

Som anført af det amerikanske forsvarsministerium (DoD) i deres Etiske principper for brugen af ​​kunstig intelligens og som jeg har dækket indgående kl linket her, disse er deres seks primære AI-etiske principper:

  • Ansvarlig: DoD-personale vil udøve passende niveauer af dømmekraft og omhu, mens de forbliver ansvarlige for udvikling, implementering og brug af AI-kapaciteter.
  • Retfærdig: Afdelingen vil tage bevidste skridt for at minimere utilsigtet skævhed i AI-kapaciteter.
  • Sporbar: Afdelingens AI-kapaciteter vil blive udviklet og implementeret, således at relevant personale besidder en passende forståelse af teknologien, udviklingsprocesser og operationelle metoder, der gælder for AI-kapaciteter, herunder gennemsigtige og auditerbare metoder, datakilder og designprocedure og dokumentation.
  • Pålidelig: Afdelingens AI-kapaciteter vil have eksplicitte, veldefinerede anvendelser, og sikkerheden, sikkerheden og effektiviteten af ​​sådanne kapaciteter vil være genstand for test og forsikring inden for disse definerede anvendelser i hele deres livscyklus.
  • Styrbar: Afdelingen vil designe og konstruere AI-kapaciteter til at opfylde deres tilsigtede funktioner, samtidig med at den har evnen til at opdage og undgå utilsigtede konsekvenser og evnen til at deaktivere eller deaktivere installerede systemer, der viser utilsigtet adfærd.

Jeg har også diskuteret forskellige kollektive analyser af AI-etiske principper, herunder at have dækket et sæt udtænkt af forskere, der undersøgte og kondenserede essensen af ​​adskillige nationale og internationale AI-etiske principper i et papir med titlen "The Global Landscape Of AI Ethics Guidelines" (publiceret i Natur), og at min dækning udforsker kl linket her, som førte til denne keystone-liste:

  • Gennemsigtighed
  • Retfærdighed og Retfærdighed
  • Ikke-ondskab
  • Ansvarlighed
  • Privatliv
  • godgørenhed
  • Frihed & Autonomi
  • Stol
  • Bæredygtighed
  • Værdighed
  • Solidaritet

Som du umiddelbart kan gætte, kan det være ekstremt svært at prøve at fastlægge de detaljer, der ligger til grund for disse principper. Endnu mere er bestræbelserne på at omdanne disse brede principper til noget helt håndgribeligt og detaljeret nok til at blive brugt, når man laver AI-systemer, også en svær nød at knække. Det er let overordnet at lave nogle håndsvingninger om, hvad AI-etiske forskrifter er, og hvordan de generelt skal overholdes, mens det er en meget mere kompliceret situation i AI-kodningen, der skal være den veritable gummi, der møder vejen.

AI-etikprincipperne skal bruges af AI-udviklere sammen med dem, der styrer AI-udviklingsindsatsen, og endda dem, der i sidste ende udfører og udfører vedligeholdelse på AI-systemer. Alle interessenter gennem hele AI-livscyklussen for udvikling og brug betragtes inden for rammerne af at overholde de etablerede normer for etisk AI. Dette er et vigtigt højdepunkt, da den sædvanlige antagelse er, at "kun kodere" eller dem, der programmerer AI'en, er underlagt AI-etikkens begreber. Som tidligere nævnt kræver det en landsby at udtænke og udforme AI, og for hvilken hele landsbyen skal være fortrolig med og overholde AI-etiske forskrifter.

Lad os også sikre os, at vi er på samme side om arten af ​​nutidens AI.

Der er ikke nogen AI i dag, der er sansende. Det har vi ikke. Vi ved ikke, om sansende AI vil være mulig. Ingen kan passende forudsige, om vi vil opnå sansende AI, eller om sansende AI på en eller anden måde mirakuløst spontant vil opstå i en form for computerkognitiv supernova (normalt omtalt som singulariteten, se min dækning på linket her).

Den type AI, som jeg fokuserer på, består af den ikke-sansende AI, som vi har i dag. Hvis vi ville spekulere vildt over sansende AI, denne diskussion kunne gå i en radikal anden retning. En sansende AI ville angiveligt være af menneskelig kvalitet. Du skal overveje, at den sansende AI er den kognitive ækvivalent til et menneske. Mere så, eftersom nogle spekulerer på, at vi måske har superintelligent AI, er det tænkeligt, at sådan AI kan ende med at blive klogere end mennesker (for min udforskning af superintelligent AI som en mulighed, se dækningen her).

Lad os holde tingene mere nede på jorden og overveje nutidens beregningsmæssige ikke-sansende AI.

Indse, at nutidens AI ikke er i stand til at "tænke" på nogen måde på lige fod med menneskelig tænkning. Når du interagerer med Alexa eller Siri, kan samtalekapaciteten virke beslægtet med menneskelige kapaciteter, men virkeligheden er, at den er beregningsmæssig og mangler menneskelig erkendelse. Den seneste æra af AI har gjort omfattende brug af Machine Learning (ML) og Deep Learning (DL), som udnytter computational pattern matching. Dette har ført til AI-systemer, der ser ud som menneskelignende tilbøjeligheder. I mellemtiden er der ikke nogen kunstig intelligens i dag, der har et antydning af sund fornuft og heller ikke noget af den kognitive undren ved robust menneskelig tænkning.

ML/DL er en form for computational pattern matching. Den sædvanlige tilgang er, at du samler data om en beslutningsopgave. Du føder dataene ind i ML/DL-computermodellerne. Disse modeller søger at finde matematiske mønstre. Efter at have fundet sådanne mønstre, hvis det er fundet, vil AI-systemet bruge disse mønstre, når de støder på nye data. Ved præsentationen af ​​nye data anvendes mønstrene baseret på de "gamle" eller historiske data til at gøre en aktuel beslutning.

Jeg tror, ​​du kan gætte, hvor det er på vej hen. Hvis mennesker, der har truffet de mønstrede beslutninger, har inkorporeret uønskede skævheder, er oddsene, at dataene afspejler dette på subtile, men væsentlige måder. Machine Learning eller Deep Learning computational pattern matching vil blot forsøge at matematisk efterligne dataene i overensstemmelse hermed. Der er ingen antydning af sund fornuft eller andre sansende aspekter af AI-fremstillet modellering i sig selv.

Desuden er AI-udviklerne måske heller ikke klar over, hvad der foregår. Den mystiske matematik i ML/DL kan gøre det svært at fjerne de nu skjulte skævheder. Du ville med rette håbe og forvente, at AI-udviklerne ville teste for de potentielt begravede skævheder, selvom dette er vanskeligere, end det måske ser ud til. Der er en solid chance for, at selv med relativt omfattende tests, vil der stadig være skævheder indlejret i mønstermatchningsmodellerne for ML/DL.

Du kunne lidt bruge det berømte eller berygtede ordsprog om skrald-ind skrald-ud. Sagen er, at dette er mere beslægtet med biases-in, der snigende bliver infunderet som skævheder nedsænket i AI. Algoritmebeslutningstagningen (ADM) af AI bliver aksiomatisk fyldt med uligheder.

Ikke godt.

Lad os nu vende tilbage til emnet AI bias jagt.

For dem af jer, der overvejer en AI-bias dusørjagt, er her mine anbefalede syv vigtige trin til, hvordan man bedst kommer videre:

1) Vurdere. Vurder egnetheden af ​​en AI-bias dusørjagtbestræbelse for dine omstændigheder og i henhold til dine AI-systemer

2) Design. Design en passende AI-bias dusørjagttilgang

3) Implement. Implementer og offentliggør dine AI-bias dusørjagtbestræbelser

4) Felt. Indsend AI'en skævheder om dusørkrav, og bearbejd i overensstemmelse hermed

5) Fix. Ret eller juster din AI i forhold til disse opdagede AI-bias-eksponeringer

6) Juster. Juster AI-biaserne dusørjagt efter behov

7) Afbryde. Afbryd AI-bias dusørjagt, når det ikke længere er nødvendigt

I min serie af ovenstående trin skal du bemærke, at jeg nævner, at du formentlig vil rette eller justere din AI baseret på at konstatere, at en påstået AI-bias faktisk eksisterer i dit AI-system. Dette giver rigeligt mening. Du ville næsten helt sikkert ønske at understøtte eventuelle fundne AI-fordomme. Tænk på de juridiske (og etiske) konsekvenser, hvis du ikke gør det. Det er én ting at påstå, at du ikke vidste, at der eksisterede en AI-bias og derfor tillod den at eksistere, mens det er meget mere rystende at have registreret, at du blev gjort opmærksom på en AI-bias og ikke gjorde noget ved det.

Arten og graden af ​​AI-rettelsen eller -justeringen vil naturligvis være afhængig af, hvor betydelige AI-forstyrrelserne var, og hvor dybt indlejret problemerne er. Hvis du er heldig, vil en beskeden mængde ændringer af AI måske rette op på tingene. Det andet potentiale er, at du muligvis skal lave en hel omskrivning af AI'en. For ML/DL-typen af ​​AI kan dette kræve at gå tilbage til tegnebrættet og starte på en frisk med et helt nyt sæt data og en oprenset ML/DL-model. Jeg har diskuteret fremkomsten af ​​AI-disgorgement eller AI-destruktion som et potentielt juridisk middel mod usmageligt AI, se linket her.

Et spørgsmål at overveje er, om du vil have dusørjægerne til at gøre mere end blot at identificere eksistensen af ​​AI-fordomme. For eksempel kan du forsøde gaven ved at angive, at foreslåede rettelser også er velkomne. En AI-bias fundet af en dusørjæger kan udbetales en angivet belønning eller præmie. Hvis dusørjægeren også kan tilbyde en levedygtig fastsætte til AI-bias kan de så blive tildelt en ekstra belønning.

Nogle hævder, at dette er en bro for langt. De siger, at du skal holde AI-bias dusørjægerne udelukkende fokuseret på at finde AI-bias. Du kommer til at skabe en masse uønskede negative konsekvenser ved at invitere dem til også at foreslå rettelser. Hold tingene enkle. Målet er at få så mange ekstra øjne til at opdage AI-bias, så du kan beslutte, hvad du skal gøre næste gang. Undgå at mudre vandet.

Et vanskeligt aspekt, der skal udredes, indebærer størrelsen af ​​belønningen eller præmien til dusørjægerne, der virkelig opdager AI-fordomme. Du ønsker, at udbetalingen skal være demonstrativ. Uden en høj nok belønning vil du ikke få mange dusørjægere, eller de vil ikke være særligt ivrige efter at opsøge AI-fordomme i dine AI-systemer. De kan i stedet koncentrere sig om andre AI-bias bounty-bestræbelser.

Desuden vil du som nævnt forsøge at undertrykke dusørjægernes trang til at omdanne deres AI-bias-opdagelser til andre former for guld. Hvis belønningen virker sølle, kan den irritere dusørjægere til at søge andre højere gevinster. De kunne tage en ransomware-tilgang mod dig. De kan erklære, at de har en saftig AI-bias, som en konkurrent ville elske at vide om og kunne bruge mod dit firma ved at udråbe, at AI-bias eksisterer i din AI. Således sælger de den opdagede AI-bias til højestbydende. Og så videre.

Man antager, at hvis du sætter belønningen til et ekstremt højt interval, beder du også om potentielle problemer. Dette kunne tiltrække alle slags nødde- dusørjægere. De kan til gengæld oversvømme sociale medier med tågede påstande om, at de fandt et væld af AI-fordomme, hvilket gjorde det for deres egen selvpromovering og uden faktisk at have været i spidsen for nogen AI-bias. På en måde skinner din forhøjede belønning utilsigtet et lys på din AI og ansporer en række uhyggelige møl til tilsvarende at blive tiltrukket af den glødende lysstråle.

En anden overvejelse involverer tilgængelighed til din AI.

For at muliggøre en AI dusørjagt mulighed, skal dusørjægerne få tilstrækkelig adgang til din AI. De vil ikke have meget held med at finde AI-fordomme, hvis de er helt låst ude. Men du ønsker ikke at opgive dine cybersikkerhedsbeskyttelser, da det fuldstændigt kan kompromittere dit AI-system.

Du kan prøve at få dusørjægerne til at underskrive forskellige juridisk bindende erklæringer og derefter give dem den nødvendige adgang. Nogle dusørjægere vil ikke kunne lide den type tilgang. Deres synspunkt er, at de kun vil gøre, hvad enhver offentligt tilgængelig og åben vej tillader. De er så at sige frie mavericks og kan sådan set ikke lide at blive sadlet. At få dem til at sætte deres underskrift på skræmmende juridiske dokumenter vil få mange af dem til at undgå at søge efter AI-fordomme i din AI. Eller de bliver måske irriteret over din juridiske kappe og beslutter sig for, at de vil se, hvad de kan finde via offentlige midler, hvilket gør det med den måske skarpe trang til at vise dig, hvor sårbar du virkelig er.

Jeg har endnu en vinkel, der kan få dit hoved til at snurre.

En AI-kyndig dusørjæger kan beslutte at udtænke et AI-system, der kan granske din AI og muligvis opdage AI-fordomme i din AI. Dette er værktøjsmageren, der vælger at lave et værktøj til at udføre arbejdet i stedet for selv at udføre manuelt arbejde. I stedet for møjsommeligt at undersøge din AI, bruger den AI-kyndige dusørjæger deres tid på at lave et AI-værktøj, der gør det samme. De bruger derefter AI-værktøjet på din AI. Skønheden er også, at de formentlig kan genbruge AI-værktøjet på alle andre, der også tilbyder dusørjagt på deres respektive AI.

Jeg ved, hvad du sandsynligvis tænker. Hvis et AI-værktøj kan udtænkes til at undersøge AI for skævheder, bør producenten af ​​den AI, der bliver undersøgt for AI-bias, enten lave et sådant AI-værktøj eller købe et til eget brug. I teorien behøver de så ikke at kæmpe med hele dusørjæger-karnevallet til at begynde med. Bare brug AI til at finde deres AI-bias.

Ja, det er noget, du kan forvente gradvist vil opstå. I mellemtiden vil grundpillen i disse bestræbelser sandsynligvis bestå af AI-udviklere, der laver dusørjagt. De kan bruge forskellige værktøjer til at hjælpe deres indsats, men på kort sigt er det usandsynligt, at de blot tankeløst vil sætte AI-værktøjet på automatisk og tage en lur, så værktøjet udfører hele AI-bias på jagt efter dem.

Vi er der ikke endnu.

På dette tidspunkt af denne tungtvejende diskussion vil jeg vædde på, at du ønsker nogle illustrative eksempler, der kan fremvise dette emne. Der er et særligt og helt sikkert populært sæt eksempler, som ligger mit hjerte nært. Ser du, i min egenskab af ekspert i kunstig intelligens, herunder de etiske og juridiske konsekvenser, bliver jeg ofte bedt om at identificere realistiske eksempler, der viser AI-etiske dilemmaer, så emnets noget teoretiske karakter lettere kan forstås. Et af de mest stemningsfulde områder, der levende præsenterer dette etiske AI-dilemma, er fremkomsten af ​​AI-baserede ægte selvkørende biler. Dette vil tjene som et praktisk use case eller et eksempel til omfattende diskussion om emnet.

Her er så et bemærkelsesværdigt spørgsmål, som er værd at overveje: Belyser fremkomsten af ​​AI-baserede ægte selvkørende biler noget om brugen af ​​AI-bias dusørjagt, og hvis ja, hvad viser dette?

Tillad mig et øjeblik at pakke spørgsmålet ud.

Først skal du bemærke, at der ikke er en menneskelig chauffør involveret i en ægte selvkørende bil. Husk, at ægte selvkørende biler køres via et AI-køresystem. Der er ikke behov for en menneskelig fører ved rattet, og der er heller ikke en bestemmelse om, at et menneske kan føre køretøjet. For min omfattende og løbende dækning af Autonome Vehicles (AV'er) og især selvkørende biler, se linket her.

Jeg vil gerne yderligere præcisere, hvad der menes, når jeg refererer til ægte selvkørende biler.

Forståelse af niveauerne af selvkørende biler

Som en præcisering er ægte selvkørende biler dem, hvor AI kører bilen helt på egen hånd, og der ikke er nogen menneskelig assistance under køreopgaven.

Disse førerløse køretøjer betragtes som niveau 4 og niveau 5 (se min forklaring på dette link her), mens en bil, der kræver en menneskelig chauffør til at dele køreindsatsen, normalt betragtes på niveau 2 eller niveau 3. De biler, der deler køreopgaven, beskrives som værende semi-autonome og indeholder typisk en række forskellige automatiserede tilføjelser, der omtales som ADAADA
S (Advanced Driver-Assistance Systems).

Der er endnu ikke en ægte selvkørende bil på niveau 5, og vi ved endnu ikke engang, om dette vil være muligt at opnå, og heller ikke hvor lang tid det vil tage at nå dertil.

I mellemtiden forsøger niveau 4-indsatsen gradvist at få noget trækkraft ved at gennemgå meget smalle og selektive forsøg på offentlige vejbaner, selvom der er uenighed om, hvorvidt denne test skal tillades i sig selv (vi er alle liv-eller-død marsvin i et eksperiment finder sted på vores motorveje og biveje, hævder nogle, se min dækning på dette link her).

Da semi-autonome biler kræver en menneskelig chauffør, vil vedtagelsen af ​​disse typer biler ikke være markant anderledes end at køre konventionelle køretøjer, så der er ikke meget nyt i sig selv at dække om dem om dette emne (dog, som du vil se på et øjeblik gælder de næste nævnte punkter generelt).

For semi-autonome biler er det vigtigt, at offentligheden skal advares om et foruroligende aspekt, der er opstået for nylig, nemlig at trods de menneskelige chauffører, der fortsætter med at indsende videoer af sig selv falder i søvn ved rattet i en niveau 2 eller niveau 3 bil , er vi alle nødt til at undgå at blive vildledt til at tro, at chaufføren kan fjerne deres opmærksomhed fra køreopgaven, mens han kører en semi-autonom bil.

Du er den ansvarlige part for køretøjets kørselshandlinger, uanset hvor meget automatisering der kan kastes i et niveau 2 eller niveau 3.

Selvkørende biler og AI Bias dusørjagt

For ægte selvkørende køretøjer på niveau 4 og niveau 5 er der ikke en menneskelig chauffør, der er involveret i køreopgaven.

Alle passagerer vil være passagerer.

AI driver kørslen.

Et aspekt, som man straks skal diskutere, indebærer det faktum, at AI involveret i nutidens AI-køresystemer ikke er væsentlig. Med andre ord er AI'et helt en samling af computerbaseret programmering og algoritmer, og helt sikkert ikke i stand til at ræsonnere på samme måde som mennesker kan.

Hvorfor er denne ekstra vægt på, at AI ikke er følelsesladet?

Fordi jeg vil understrege, at når jeg diskuterer AI-køresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær opmærksom på, at der i disse dage er en løbende og farlig tendens til at antropomorfisere AI. I det væsentlige tildeler folk menneskelignende følsomhed til nutidens AI, på trods af den ubestridelige og uomtvistelige kendsgerning, at der endnu ikke findes sådan en sådan AI.

Med denne afklaring kan du forestille dig, at AI-køresystemet ikke på en eller anden måde "ved" noget om kørselens facetter. Kørsel og alt, hvad det medfører, skal programmeres som en del af den selvkørende bils hardware og software.

Lad os dykke ned i det utal af aspekter, der kommer til at spille om dette emne.

For det første er det vigtigt at indse, at ikke alle AI selvkørende biler er ens. Hver bilproducent og selvkørende teknologivirksomhed tager sin tilgang til at udtænke selvkørende biler. Som sådan er det svært at komme med omfattende udsagn om, hvad AI-køresystemer vil gøre eller ej.

Når det endvidere angives, at et AI -køresystem ikke gør nogle særlige ting, kan dette senere blive overhalet af udviklere, der faktisk programmerer computeren til at gøre det. Trin for trin forbedres og udvides AI -drivsystemer gradvist. En eksisterende begrænsning i dag eksisterer muligvis ikke længere i en fremtidig iteration eller version af systemet.

Jeg håber, at det giver en tilstrækkelig litani af forbehold til at ligge til grund for det, jeg er ved at fortælle.

I mine spalter har jeg allerede udførligt diskuteret brugen af ​​bugs-orienterede dusørjægere i selvkørende køretøjer og selvkørende biler. Denne tilgang har faktisk fundet sted i denne niche. Der er de sædvanlige debatter om, hvorvidt det er en god idé eller ej. Indsatsen har som regel været af begrænset karakter, ofte holdt forholdsvis stille.

En lignende diskurs kan opstå, når fokus flyttes mod jagt på AI-fordomme frem for at søge systemfejl i sig selv. Nogle foreslår, at det er forbandet, hvis du gør det, forbandet, hvis du ikke går i tvivl.

Her er hvorfor.

For det første, for at være klar, er der adskillige måder, hvorpå selvkørende køretøjer og selvkørende biler vil blive udsat for indeholdende AI-bias, se min dækning på linket her , linket her, bare for at nævne nogle få. Bilproducenter og selvkørende bilfirmaer synes klogt at forsøge at forhindre disse AI-fordomme i at opstå i deres AI-systemer. Den juridiske og etiske ildstorm mod sådanne firmaer vil uden tvivl være intens.

Er brugen af ​​en AI-bias dusørjagt en passende tilgang i denne specifikke sammenhæng?

Et svar er, at ja, dette vil være praktisk og give en overflod af "gratis" sæt af nye øjne til at prøve at fange eventuelle indlejrede AI-fordomme i en AI-selvkørende bil eller lignende. De fleste af AI-udviklerne, der bygger selvkørende biler, har travlt med at lave AI, der sikkert kan køre en bil fra punkt A til punkt B. De er optaget af den kerneevne og har hverken tid eller opmærksomhed på AI-fordomme, der kan være et sted i deres AI.

Det andet svar er, at nej, at tillade dusørjagt for autonome køretøjer og selvkørende biler på ethvert grundlag, uanset om det er for fejl eller AI-fordomme, bare burde undgås voldsomt. Argumentet er, at disse køretøjer og deres AI er af en kaliber på liv eller død. At rode med AI på enhver måde kan på en eller anden måde være ødelæggende for AI og påvirke, hvad AI-drivsystemet gør.

Et modargument til det sidste punkt er, at dusørjægerne formodes at være ude af stand til at ændre den AI, som de undersøger. Der er således ingen fare for, at de roder med AI'en og får AI'en i denne sammenhæng til pludselig at blive et vanvittigt AI-køresystem. Dusørjægerne har kun læseadgang. At tillade dem at gå videre ville være rigeligt dumt og en kæmpe fejltagelse.

Modargumentet til det modargument er, at ved at tillade og opmuntre dusørjægere til at undersøge din AI, bliver hele sagen skæv. Disse dusørjægere kan finde ud af måder at udnytte eventuelle fundne fejl eller skævheder på. Disse udnyttelser kan til gengæld være til underfundige formål. Du ville være bedre stillet ved ikke at invitere "tyve" ind i dit hjem, så at sige. Når de først har lukket leddet, vil du i sidste ende være i en bunke problemer.

For dem, der har AI-systemer af en størrelsesorden mindre end liv eller død, er den overbevisning, at følgerne af et dusørjagttog, der går skævt, er meget mindre risikable. Måske det. På den anden side, hvis et firma har hældt deres penge ind i et AI-system, som dusørjægere formår at tilrane sig, kan du antage, at skaderne på omdømmet og andre potentielle skader stadig vil gøre ondt.

Der er ingen gratis frokost, når det kommer til AI-bias dusørjagt.

En hurtig afsluttende bemærkning for nu.

Da den berygtede fredløse Jesse James blev eftersøgt under det gamle vesten, blev der trykt en "Wanted"-plakat, der tilbød en dusør på $5,000 for hans tilfangetagelse (med angivelse af "død eller levende"). Det var en ret stor sum penge på det tidspunkt. Et af hans egne bandemedlemmer valgte at skyde Jesse ihjel og indsamle belønningen. Jeg formoder, at det viser, hvor effektiv en dusør kan være.

Vil brugen af ​​AI-bias dusørjægere være en god ting, eller vil det være en dårlig ting?

Hvis du vælger at indlede en AI-bias dusørjægerbestræbelse, vil jeg foreslå, at du holder øjnene vidt åbne og kigger dig over skulderen hele tiden. Dette er forsigtigt for dig og din AI. Du ved aldrig, hvad der kan ske, inklusive at en snigende dusørjæger på en eller anden måde i det skjulte indsætter en AI-bias i din AI og råber til verden, at de har fundet en skruppelløs AI-bias i din AI. Måske gør det i et fræk og overdimensioneret forsøg på at søge dusørbelønningen, plus at udråbe sig selv som en helt, der i det væsentlige fik den berygtede Jesse James.

Når man tænker på det, vil en sansende AI formentlig ikke kunne lide ideen om en foruroligende død-eller-levende forsyning, man kan sløjt så spekulere.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- etisk-onde-fuldt-autonome-systemer-er-forsigtige-eller-forgæves/