AI-etik og den truende debacle, når den New York City-lov, der kræver revision af AI-fordomme, kommer i gang

Nogle gange bliver de bedste hensigter beklageligt brudt af en alvorlig mangel på opmærksomhed på detaljer.

Et godt eksempel på denne visdomsvisdom er værd at udforske.

Lad os specifikt se nærmere på en ny lov i New York City vedrørende kunstig intelligens (AI), der træder i kraft den 1. januar 2023. Du kan nemt vinde et betydeligt væddemål på, at der vil opstå al ​​slags forvirring, bestyrtelse og problemer når loven træder i kraft. Selvom problemerne ikke er designmæssige, vil de utvivlsomt opstå som et resultat af et dårligt design eller i det mindste en utilstrækkelig bestemmelse af nødvendige detaljer, som let burde og kunne have været udtænkt og eksplicit angivet.

Jeg henviser til en lokal lov, der blev vedtaget sidste år den 11. december 2021 i den ærede by New York, som efter planen skal træde i kraft i starten af ​​2023. Vi er i øjeblikket kun et par måneder væk fra den store opvågning, som denne nye lov kommer til at røre på sig. Jeg ville ønske, at jeg kunne sige, at den ambitiøse lov problemfrit kommer til at gøre det, den skal, nemlig at håndtere potentielle AI-fordomme i forhold til at træffe ansættelsesbeslutninger. Ak, selvom hensigten er prisværdig, vil jeg lede dig gennem de gabende smuthuller, udeladelser og mangel på specificitet, der vil undergrave denne lov og drive arbejdsgivere til vanvid, når de søger at klare de utilsigtede, men dog ret negative følger deraf.

Man kan sige, at dette er det klassiske spørgsmål om at skubbe videre med en halvbagt plan. En æret maksime tilskrevet Dwight Eisenhower var, at en plan er ingenting, mens planlægning er alt. Kort sagt vil denne særlige lov give et levende eksempel på, hvordan lovgivere nogle gange kan komme til kort ved ikke at tænke igennem forhånd de nødvendige detaljer, så loven opfylder dens prisværdige mål og kan vedtages på sikkert rimelige og forsigtige måder.

Et debacle venter.

Undskyldninger står allerede i kø.

Nogle eksperter har sagt, at man aldrig helt kan specificere en lov og er nødt til at se den i aktion for at vide, hvilke aspekter af loven der skal justeres (en generel truisme, der bliver fordrejet ude af proportioner i dette tilfælde). Desuden hævder de heftigt, at dette især er tilfældet, når det kommer til den nye nyhed af AI-relaterede love. For pokker, formaner de, AI er højteknologisk trolddom, som vi ikke ved meget om som lovgivere, og derfor lyder logikken, at det er bedre at have noget ind på de juridiske sider end at have noget der overhovedet.

På overfladen lyder det bestemt overbevisende. Grav dog dybere, og du indser, at det potentielt er vanvittigt, inklusive og især i tilfælde af denne specifikke lov. Denne lov kunne let fastsættes mere behændigt og fornuftigt. Vi har ikke brug for trylledrikke. Vi behøver ikke vente, indtil der opstår rod. På det tidspunkt, hvor loven blev udformet, kunne den rigtige form for formulering og detaljer være etableret.

Lad os også sikre os, at den upassende, svævende idé om, at adoptionsaspekterne ikke kunne spåes på forhånd, er smerteligt absurd. Det er lovligt mumbo-jumbo-håndviften af ​​den mest tomme slags. Der er masser af allerede kendte overvejelser om håndtering af AI-bias og udførelse af AI-audits, der let kunne have været kogt ind i denne lov. Det samme kan siges om enhver anden jurisdiktion, der overvejer at indføre en sådan lov. Lad dig ikke narre til at tro, at vi kun må ty til blindt at kaste en lovlig pil ud i de vilde vinde og lide kvaler. En klat juridisk tænkning kombineret med en passende forståelse af kunstig intelligens er allerede mulig, og der er ingen grund til kun at gribe efter halmstrå.

Jeg kan tilføje, der er stadig tid til at få dette rettet. Uret tikker stadig. Det kan være muligt at vågne, før alarmklokkerne begynder at ringe. Den nødvendige rådgivning kan udledes og gøres kendt. Tiden er knap, så dette skal prioriteres.

Under alle omstændigheder skal du sørge for, at du forstår vægten her.

Tillad mig inderligt at præcisere, at en sådan lov vedrørende AI-bias faktisk er berettiget. Jeg vil forklare hvorfor et øjeblik. Jeg vil også beskrive, hvilke problemer der er med denne nye lov, som mange ville sige er den første, der nogensinde er blevet sat på de juridiske bøger (der findes andre variationer, måske ikke helt som denne).

Faktisk kan du forvente, at lignende love gradvist vil komme til at eksistere over hele landet. En bemærkelsesværdig bekymring er, at hvis dette New York City-first-mover-forsøg går dårligt, kan det få resten af ​​landet til at være på vagt over for at vedtage sådanne love. Det er ikke den rigtige lektie at lære. Den rigtige lektie er, at hvis du skal skrive sådan en lov, så gør det fornuftigt og med behørig hensyntagen.

Love, der er smidt ind i bøgerne uden tilstrækkelig kontrol, kan være ret oprørende og skabe alle mulige downstream-problemer. I den forstand, så lad være med at smide barnet ud med badevandet (et gammelt ordsprog, der nok burde gå på pension). Essensen er, at sådanne love kan være virkelig produktive og beskyttende, når de er korrekt sammensat.

Netop denne kommer desværre ikke til at gøre det ude af porten.

Alle former for panisk vejledning er forpligtet til at komme fra lovens aktører og håndhævere. Sæt kryds i dine kalendere for slutningen af ​​januar og ind i februar 2023 for at se, når kamphandlingen følger. Fingerpegning bliver enormt intens.

Der er ingen, der skriger lige nu, fordi loven endnu ikke er landet i hovedet på arbejdsgivere, der vil blive ramt af den nye lov. Forestil dig, at dette er et metaforisk talt et slags jordskælv, der skal finde sted i de første uger af 2023. Få forbereder sig på jordskælvet. Mange ved ikke engang, at jordskælvet allerede er ploppet ind i kalenderen. Når alt dette er sagt, vil en masse meget forbløffede og chokerede virksomheder, når jordskælvet sker, undre sig over, hvad der skete, og hvorfor rod skulle opstå.

Alt dette har væsentlige AI-etiske implikationer og giver et praktisk vindue til erfaringer (selv før alle lektionerne sker), når det kommer til at forsøge at lovgive AI. For min løbende og omfattende dækning af AI-etik kan Ethical AI sammen med AI-lovgivningen blandt de juridiske facetter af AI-styring findes på linket her , linket her, bare for at nævne et par stykker.

Denne juridiske fortælling om elendighed relaterer sig til tidligere opdukkende bekymringer om nutidens AI og især brugen af ​​Machine Learning (ML) og Deep Learning (DL) som en form for teknologi, og hvordan den bliver brugt. Ser du, der er anvendelser af ML/DL, der har en tendens til at involvere, at AI'en bliver menneskeskabt af offentligheden som helhed, idet den tror eller vælger at antage, at ML/DL enten er sansende AI eller er tæt på (det er det ikke). Derudover kan ML/DL indeholde aspekter af computational pattern matching, som er uønskede eller direkte upassende eller ulovlige ud fra etiske eller juridiske perspektiver.

Det kan være nyttigt først at præcisere, hvad jeg mener, når jeg refererer til AI generelt og også give et kort overblik over Machine Learning og Deep Learning. Der er stor forvirring om, hvad kunstig intelligens betyder. Jeg vil også gerne introducere AI-etikkens forskrifter for dig, som især vil være integreret i resten af ​​denne diskurs.

Oplysning om AI

Lad os sikre os, at vi er på samme side om arten af ​​nutidens AI.

Der er ikke nogen AI i dag, der er sansende.

Det har vi ikke.

Vi ved ikke, om sansende AI vil være mulig. Ingen kan passende forudsige, om vi vil opnå sansende AI, eller om sansende AI på en eller anden måde mirakuløst spontant vil opstå i en form for computerkognitiv supernova (normalt omtalt som The Singularity, se min dækning på linket her).

Indse, at nutidens AI ikke er i stand til at "tænke" på nogen måde på niveau med menneskelig tænkning. Når du interagerer med Alexa eller Siri, kan samtalekapaciteten virke beslægtet med menneskelige kapaciteter, men virkeligheden er, at den er beregningsmæssig og mangler menneskelig erkendelse. Den seneste æra af kunstig intelligens har gjort omfattende brug af Machine Learning og Deep Learning, som udnytter computational pattern matching. Dette har ført til AI-systemer, der ser ud som menneskelignende tilbøjeligheder. I mellemtiden er der ikke nogen kunstig intelligens i dag, der har et udseende af sund fornuft og heller ikke noget af den kognitive undren ved robust menneskelig tænkning.

En del af problemet er vores tendens til at antropomorfe computere og især AI. Når et computersystem eller AI ser ud til at handle på måder, som vi forbinder med menneskelig adfærd, er der en næsten overvældende trang til at tilskrive menneskelige kvaliteter til systemet. Det er en almindelig mental fælde, der kan gribe fat i selv den mest uforsonlige skeptiker over chancerne for at nå sansning.

Til en vis grad er det derfor, AI-etik og etisk AI er så afgørende et emne.

AI-etikkens forskrifter får os til at forblive på vagt. AI-teknologer kan til tider blive optaget af teknologi, især optimering af højteknologi. De overvejer ikke nødvendigvis de større samfundsmæssige konsekvenser. At have en AI-etik-tankegang og gøre det integreret i AI-udvikling og -felting er afgørende for at producere passende AI, herunder vurderingen af, hvordan AI-etik bliver adopteret af virksomheder.

Udover at anvende AI-etiske forskrifter generelt, er der et tilsvarende spørgsmål om, hvorvidt vi skal have love til at regulere forskellige anvendelser af AI. Nye love bliver bandet rundt på føderalt, statsligt og lokalt niveau, der vedrører rækkevidden og arten af, hvordan AI skal udformes. Bestræbelserne på at udarbejde og vedtage sådanne love er gradvist. AI-etik fungerer i det mindste som en overvejet stopklods og vil næsten helt sikkert til en vis grad blive direkte indarbejdet i disse nye love.

Vær opmærksom på, at nogle stejlt hævder, at vi ikke har brug for nye love, der dækker AI, og at vores eksisterende love er tilstrækkelige. De advarer om, at hvis vi vedtager nogle af disse AI-love, vil vi dræbe den gyldne gås ved at slå ned på fremskridt inden for AI, der giver enorme samfundsmæssige fordele. Se fx min dækning på linket her.

I tidligere spalter har jeg dækket de forskellige nationale og internationale bestræbelser på at udarbejde og vedtage love, der regulerer AI, se linket her, for eksempel. Jeg har også dækket de forskellige AI-etiske principper og retningslinjer, som forskellige nationer har identificeret og vedtaget, herunder f.eks. FN-indsatsen såsom UNESCO-sættet af AI-etik, som næsten 200 lande har vedtaget, se linket her.

Her er en nyttig keystone-liste over etiske AI-kriterier eller karakteristika vedrørende AI-systemer, som jeg tidligere har udforsket nøje:

  • Gennemsigtighed
  • Retfærdighed og Retfærdighed
  • Ikke-ondskab
  • Ansvarlighed
  • Privatliv
  • godgørenhed
  • Frihed & Autonomi
  • Stol
  • Bæredygtighed
  • Værdighed
  • Solidaritet

Disse AI-etiske principper formodes oprigtigt at blive brugt af AI-udviklere, sammen med dem, der styrer AI-udviklingsindsatsen, og endda dem, der i sidste ende udfører og udfører vedligeholdelse på AI-systemer. Alle interessenter gennem hele AI-livscyklussen for udvikling og brug betragtes inden for rammerne af at overholde de etablerede normer for etisk AI. Dette er et vigtigt højdepunkt, da den sædvanlige antagelse er, at "kun kodere" eller dem, der programmerer AI'en, er underlagt AI-etikkens begreber. Som tidligere understreget heri, kræver det en landsby at udtænke og udforme AI, og som hele landsbyen skal være fortrolig med og overholde AI-etiske forskrifter.

Lad os holde tingene nede på jorden og fokusere på nutidens beregningsmæssige ikke-sansende AI.

ML/DL er en form for computational pattern matching. Den sædvanlige tilgang er, at du samler data om en beslutningsopgave. Du føder dataene ind i ML/DL-computermodellerne. Disse modeller søger at finde matematiske mønstre. Efter at have fundet sådanne mønstre, hvis det er fundet, vil AI-systemet bruge disse mønstre, når de støder på nye data. Ved præsentationen af ​​nye data anvendes mønstrene baseret på de "gamle" eller historiske data til at gøre en aktuel beslutning.

Jeg tror, ​​du kan gætte, hvor det er på vej hen. Hvis mennesker, der har truffet de mønstrede beslutninger, har inkorporeret uønskede skævheder, er oddsene, at dataene afspejler dette på subtile, men væsentlige måder. Machine Learning eller Deep Learning computational pattern matching vil blot forsøge at matematisk efterligne dataene i overensstemmelse hermed. Der er ingen antydning af sund fornuft eller andre sansende aspekter af AI-fremstillet modellering i sig selv.

Desuden er AI-udviklerne måske heller ikke klar over, hvad der foregår. Den mystiske matematik i ML/DL kan gøre det svært at fjerne de nu skjulte skævheder. Du ville med rette håbe og forvente, at AI-udviklerne ville teste for de potentielt begravede skævheder, selvom dette er vanskeligere, end det måske ser ud til. Der er en solid chance for, at selv med relativt omfattende tests, vil der stadig være skævheder indlejret i mønstermatchningsmodellerne for ML/DL.

Du kunne lidt bruge det berømte eller berygtede ordsprog om skrald-ind skrald-ud. Sagen er, at dette er mere beslægtet med biases-in, der snigende bliver infunderet som skævheder nedsænket i AI. Algoritmebeslutningstagningen (ADM) af AI bliver aksiomatisk fyldt med uligheder.

Ikke godt.

Jeg tror, ​​at jeg nu har sat scenen til tilstrækkeligt at diskutere AIs rolle inden for rubrikken stille op.

AI, der bruges til at træffe beslutninger om beskæftigelse

New York City-loven fokuserer på emnet ansættelsesbeslutningstagning.

Hvis du på det seneste har forsøgt at søge et moderne job næsten hvor som helst på denne jord, har du sandsynligvis stødt på et AI-baseret element i beslutningsprocessen for beskæftigelse. Selvfølgelig ved du måske ikke, at det er der, da det kunne være skjult bag kulisserne, og du ville ikke have nogen klar måde at se, at et AI-system havde været involveret.

Et almindeligt slagord, der bruges til at henvise til disse AI-systemer, er, at de betragtes Automatiserede værktøjer til ansættelsesbeslutning, forkortet AEDT.

Lad os se, hvordan NYC-loven definerede disse værktøjer eller apps, der indebærer beslutningstagning om beskæftigelse:

  • "Udtrykket "automatiseret beskæftigelsesbeslutningsværktøj" betyder enhver beregningsproces, afledt af maskinlæring, statistisk modellering, dataanalyse eller kunstig intelligens, der afgiver forenklet output, herunder en score, klassifikation eller anbefaling, der bruges til væsentligt at hjælpe eller erstatte skønsmæssig beslutningstagning for at træffe ansættelsesbeslutninger, der påvirker fysiske personer. Udtrykket "automatiseret ansættelsesbeslutningsværktøj" omfatter ikke et værktøj, der ikke automatiserer, understøtter, i væsentlig grad hjælper eller erstatter skønsmæssige beslutningsprocesser, og som ikke har væsentlig indflydelse på fysiske personer, herunder, men ikke begrænset til, et junkmail-filter, firewall, antivirussoftware, lommeregner, regneark, database, datasæt eller anden kompilering af data” (NYC, Int 1894-2020, Subchapter 25, Section 20-870).

Jeg vil kort undersøge denne formulering, da den er afgørende for hele lovens art og rækkevidde.

For det første, som jeg har sagt mange gange i mine skrifter, består en af ​​de sværeste forhindringer ved at skrive love om AI i at forsøge at definere, hvad AI betyder tilstrækkeligt. Der er ingen enestående, juridisk skudsikker standard, som alle er landet på. Der findes alle mulige definitioner. Nogle er nyttige, nogle er ikke. Se mine analyser på linket her.

Du kan blive fristet til at tro, at det ikke er særlig ligegyldigt, hvordan vi kan definere AI. Undskyld, men det tager du fejl.

Problemet er, at hvis AI-definitionen er vagt specificeret i en given lov, giver den dem, der udvikler AI, mulighed for at prøve at gå uden om loven ved tilsyneladende at hævde, at deres software eller system ikke er AI-infunderet. De vil med stor frimodighed hævde, at loven ikke gælder for deres software. Ligeledes kan nogen, der bruger softwaren, også hævde, at loven ikke vedrører dem, fordi den software eller det system, de bruger, falder uden for AI-definitionen angivet i loven.

Mennesker er tricky sådan.

En af de klogeste måder at undgå at blive knust af en lov, som du ikke går ind for, er at hævde, at loven ikke gælder for dig. I dette tilfælde ville du forsøge at adskille definitionen af ​​AEDT stykkevis. Dit mål, forudsat at du ikke ønsker, at loven skal være på ryggen, ville være juridisk at argumentere for, at definitionen i loven er forkert af, hvad dit beskæftigelsesrelaterede computersystem er eller gør.

En lov af denne art kan både hjælpes og til tider underbydes ved bevidst at have medtaget udelukkelsesbestemmelser i definitionen.

Tag et kig igen på definitionen af ​​AEDT som angivet i denne lov. Du har forhåbentlig observeret, at der er en udelukkelsesklausul, der siger "... ikke inkluderer et værktøj, der ikke automatiserer, understøtter, i væsentlig grad hjælper eller erstatter skønsmæssige beslutningsprocesser, og som ikke har væsentlig indflydelse på fysiske personer...".

På den ene side er grundlaget for at inkludere en sådan udelukkelse afgjort nyttigt.

Det lader til at antyde (efter min lægmands opfattelse), at AEDT skal give et specifikt formål og blive brugt på en indholdsmæssig måde. Hvis AEDT er, skal vi sige overfladisk eller perifer, og hvis ansættelsesbeslutningen stadig er ret menneskelig håndlavet, bør det anvendte softwaresystem måske ikke opfattes som en AEDT. Desuden, hvis softwaren eller systemet ikke "materielt" påvirker fysiske personer (mennesker), så ser det ikke ud til at betale sig at holde fødderne til ilden, som det var.

Fornuftigt nok ønsker du ikke, at en lov skal overdrive dens rækkevidde og opsluge alt inklusive køkkenvasken. At gøre det er grundlæggende uretfærdigt og byrdefuldt for dem, som loven ikke var beregnet til at omfatte. De kan blive fanget i et morads, der fungerer som et af de fangstnet. Formentlig bør vores love være forsigtige med at undgå at trække uskyldige ind i lovens anvendelsesområde.

Alt er godt og vel.

En kyndig advokat er forpligtet til at indse, at en eksklusionsklausul kan være en slags lovligt komme-ud-af-fængslet-kort (som en sidebemærkning fastsætter denne særlige lov civile sanktioner, ikke strafferetlige sanktioner, så komme ud af fængslet bemærkning er blot metaforisk og for smagfuld kraft). Hvis nogen skulle hævde, at en virksomhed brugte en AEDT i ansættelsesbehandling, ville en af ​​de første måder at forsøge at overvinde denne påstand være at argumentere for, at den såkaldte AEDT faktisk var i det ekskluderende område. Du kan prøve at vise, at den såkaldte AEDT ikke gør det automatisere ansættelsesbeslutningen, eller også gør den ikke support ansættelsesbeslutningen, eller også gør den ikke hjælpe væsentligt or erstatte skønsmæssige beslutningsprocesser.

Du kan derefter gå ned ad den snoede vej for at identificere, hvad ordene "automatisere", "støtte", "i det væsentlige hjælpe" eller "erstat" betyder i denne sammenhæng. Det er et ret praktisk lovligt kaninhul. Der kunne gøres en overbevisende sag om, at softwaren eller systemet, der påstås at være en AEDT, er en del af de ekskluderende indikationer. Derfor, ingen skade, ingen fejl, med hensyn til denne særlige lov.

Det er klart, at autoriserede advokater bør konsulteres i sådanne sager (der er ikke angivet nogen form for juridisk rådgivning heri, og dette er udelukkende en lægmands opfattelse).

Min pointe her er, at der vil være slingreplads i denne nye lov. Vrikelrummet vil give nogle arbejdsgivere, der virkelig bruger en AEDT, mulighed for måske at finde et smuthul for at komme uden om AEDT-brugen. Den anden side af den mønt er, at der kan være virksomheder, der ikke reelt bruger en AEDT, som vil blive fanget af denne lov. Der kan fremsættes en påstand om, at hvad end de brugte, faktisk var en AEDT, og de bliver nødt til at finde et middel til at vise, at deres software eller systemer faldt uden for AEDT og ind under den ekskluderende bestemmelse.

Vi kan komme med denne dristige forudsigelse:

  • Der vil utvivlsomt være arbejdsgivere, der bevidst bruger en AEDT, som potentielt vil forsøge at slippe ud af deres juridiske ansvar.
  • Der vil uundgåeligt være arbejdsgivere, der ikke bruger en AEDT, der bliver hængende i påstande om, at de bruger en AEDT, hvilket tvinger dem til at skulle gøre en "ekstra" indsats for at vise, at de ikke bruger en AEDT.

Jeg vil yderligere uddybe disse talrige permutationer og kombinationer, når vi kommer videre i denne diskussion. Vi har meget mere jord at betræde.

Brugen af ​​en AEDT i sig selv er ikke den del af dette problem, der giver anledning til demonstrative bekymringer, det er hvordan AEDT udfører sine handlinger, der får den juridiske vrede til at flyde. Kernen er, at hvis AEDT måske også introducerer skævheder relateret til beslutningstagning i beskæftigelsen, er du så i potentielt varmt vand (nå, sådan en).

Hvordan skal vi vide, om en AEDT faktisk introducerer AI-ladede skævheder i en beskæftigelsesbeslutningsindsats?

Svaret i henhold til denne lov er, at der skal udføres en AI-revision.

Jeg har tidligere og ofte dækket arten af ​​AI-audits og hvad de er, sammen med at bemærke eksisterende ulemper og dårligt definerede facetter, som f.eks. linket her , linket her, blandt mange andre lignende opslag. Enkelt sagt er tanken, at ligesom du kan udføre en finansiel revision af et firma eller lave en teknologirevision relateret til et computersystem, kan du foretage en revision på et AI-system. Ved hjælp af specialiserede auditeringsteknikker, værktøjer og metoder undersøger og vurderer du, hvad et AI-system består af, herunder forsøger du fx at konstatere, om det indeholder bias af den ene eller anden art.

Dette er et spirende opmærksomhedsområde.

Du kan forvente, at dette underområde af revision, der er dedikeret til AI-revision, vil fortsætte med at vokse. Det er let indlysende, at efterhånden som vi vil få flere og flere AI-systemer sluppet løs på markedet, og til gengæld vil der være mere og mere krav om AI-audits. Nye love vil hjælpe med at udløse dette. Selv uden disse love vil der være masser af AI-revisioner, da folk og virksomheder hævder, at de er blevet krænket af AI og vil søge at give en håndgribelig dokumenteret indikation af, at skaden var til stede og knyttet til den AI, der blev brugt.

AI-revisorer bliver hotte og i høj efterspørgsel.

Det kan være et spændende job. Et måske spændende element indebærer at blive fordybet i det nyeste og bedste inden for AI. AI bliver ved med at udvikle sig. Da dette sker, skal en kloge AI-auditor holde sig på tæerne. Hvis du er en auditor, der er blevet træt af at lave almindelige dagligdags audits, giver den øjenåbnende altid nye AI auditeringsarena et løfte (jeg siger dette for delvist at hæve auditors statur, da de ofte er de uanfægtede helte, der arbejder i skyttegravene og tendens til at blive forsømt for deres bestræbelser).

Derudover har jeg været certificeret computersystemrevisor (en sådan betegnelse er CISA) og har lavet IT-revisioner (informationsteknologi) mange gange over mange år, herunder AI-revisioner. Det meste af tiden får man ikke den anerkendelse, der fortjener for en sådan indsats. Du kan sikkert gætte hvorfor. I det store og hele har revisorer en tendens til at finde ting, der er forkerte eller ødelagte. I den forstand er de ret hjælpsomme, selvom dette af nogle kan opfattes som dårlige nyheder, og budbringeren af ​​dårlige nyheder er normalt ikke specielt placeret på en piedestal.

Tilbage til sagen.

Med hensyn til NYC-loven, her er, hvad loven siger om AI-revision og forsøg på at afdække AI-bias:

  • "Begrebet 'bias revision' betyder en upartisk evaluering foretaget af en uafhængig revisor. En sådan bias-revision skal omfatte, men ikke være begrænset til, afprøvning af et automatiseret ansættelsesbeslutningsværktøj til at vurdere værktøjets uensartede indvirkning på personer af enhver komponent 1-kategori, der kræves indberettet af arbejdsgivere i henhold til underafsnit (c) i afsnit 2000e-8 i titlen 42 i USA's kodeks som specificeret i del 1602.7 i titel 29 i koden for føderale regler" (NYC, Int 1894-2020, underkapitel 25, afsnit 20-870).

Som en opsummering, her er hvor vi er indtil videre med at udpakke denne lov:

  • Loven dækker Automated Employment Decision Tools (AEDT)
  • En definition af sorter er inkluderet for at identificere, hvad en AEDT er
  • Definitionen af ​​AEDT nævner også udelukkelsesbestemmelser
  • Essensen er, at loven ønsker at afsløre AI-bias i AEDT
  • For at finde ud af, om AI-bias er til stede, skal der foretages en AI-audit
  • AI-revisionen vil formentlig gøre opmærksom på eventuelle AI-biaser

Vi kan derefter grave lidt mere i loven.

Her er hvad en ansættelsesbeslutning består af:

  • "Udtrykket 'ansættelsesbeslutning' betyder at screene kandidater til beskæftigelse eller ansatte med henblik på forfremmelse i byen" (NYC, Int 1894-2020, underkapitel 25, afsnit 20-870).

Bemærk, at det afgrænsende aspekt af "byen" antyder, at sagen kun omhandler beskæftigelsesrelaterede forhold i NYC. Det er også værd at bemærke, at en ansættelsesbeslutning som defineret indebærer screening af kandidater, hvilket er den sædvanlige konnotation af, hvad vi tænker på som en ansættelsesbeslutning, plus den inkluderer også forfremmelser.

Dette er en dobbelt pudsning i den forstand, at virksomheder bliver nødt til at indse, at de skal være på toppen af, hvordan deres AEDT (hvis de bruger en) bliver brugt til indledende ansættelsesforhold og også når de promoverer inden for virksomheden. Du kan sandsynligvis gætte eller antage, at mange firmaer ikke vil være helt klar over, at kampagneelementet også er inden for denne rubrik. De vil uundgåeligt overse den ekstra konstruktion på egen risiko.

Jeg vil dernæst give et yderligere nøgleuddrag af loven for at belyse essensen af, hvad der bliver fortolket som ulovligt af denne lov:

  • “Krav til automatiserede værktøjer til ansættelsesbeslutning. en. I byen er det ulovligt for en arbejdsgiver eller et vikarbureau at bruge et automatiseret ansættelsesbeslutningsværktøj til at screene en kandidat eller medarbejder for en ansættelsesbeslutning, medmindre: 1. Et sådant værktøj har været genstand for en bias-revision udført højst end et år før brugen af ​​et sådant værktøj; og 2. Et resumé af resultaterne af den seneste bias-revision af et sådant værktøj samt distributionsdatoen for det værktøj, som en sådan revision gælder for, er blevet gjort offentligt tilgængeligt på arbejdsgiverens eller arbejdsformidlingens hjemmeside før brug af sådan et værktøj...” (NYC, Int 1894-2020, underkapitel 25, afsnit 20-871). Der er yderligere underklausuler, som du måske vil tage et kig på, hvis du er meget interesseret i den juridiske formulering.

Skeptikere og kritikere har hævdet, at dette virker noget lunkent med hensyn til den ulovlige aktivitet, der bliver kaldt ud.

De siger, at loven kun snævert og minimalt fokuserer på udførelse en AI-revision og offentliggørelse resultaterne, snarere end om, hvorvidt AI-revisionen opdagede AI-fordomme, og hvilke eventuelle konsekvenser dette har haft i forbindelse med beslutninger om ansættelse, der falder ind under denne lovs anvendelsesområde. I bund og grund er det tilsyneladende ulovligt at ikke vælge at udføre en sådan AI-revision (når det er relevant, som diskuteret tidligere), plus det er også ulovligt i det tilfælde, hvis du udfører AI-revisionen, men gør ikke offentliggøre det.

Loven synes tavs om spørgsmålet om, hvorvidt AI-bias blev opdaget og til stede eller ej. Ligeledes, tavshed om, hvorvidt AI-biaserne påvirkede nogen relateret til en fremtrædende beskæftigelsesbeslutningsaktivitet. Nøglen er tilsyneladende klart "blot" at udføre en AI-audit og fortælle om det.

Går denne lov ikke langt nok?

En del af modargumentet for at hævde, at dette tilsyneladende er tilfredsstillende med hensyn til rækkevidden eller omfanget af, hvad denne lov omfatter, er, at hvis en AI-revision finder AI-bias, og hvis disse AI-biaser er knyttet til bestemte ansættelsesbeslutninger, vil personen eller personer, der er skadet, ville være i stand til at forfølge arbejdsgiveren under andre love. Det er således ikke nødvendigt at medtage dette aspekt i denne særlige lov.

Efter sigende har denne lov til formål at bringe sådanne forhold frem i lyset.

Når først dagens lys er kastet over disse uønskede praksisser, kan alle mulige andre juridiske veje forfølges, hvis AI-fordomme er eksisterende og har indflydelse på folk. Uden denne lov går argumentet på, at dem, der bruger AEDT'er, ville gøre det, mens de muligvis løber amok og har potentielt tonsvis af AI-fordomme, som dem, der søger arbejde eller dem, der søger forfremmelser, ikke ville vide, at der finder sted.

Bring dem til overfladen. Få dem til at fortælle. Kom ind under hætten. Se hvad der er inde i den motor. Det er mantraet i dette tilfælde. Ud fra dette synlige og fortællende kan yderligere handlinger udføres.

Udover at søge sagsanlæg som et resultat af at oplyse, at en AI-revision måske har rapporteret, at AI-bias var til stede, er der også den overbevisning, at offentliggørelsen af ​​disse resultater vil få omdømmemæssige konsekvenser. Arbejdsgivere, der bliver vist frem til at bruge AEDT'er, der har AI-fordomme, vil sandsynligvis lide samfundsmæssige vrede, såsom via sociale medier og lignende. De vil blive afsløret for deres ugudelige handlinger og skammet sig over at korrigere deres adfærd og kan også finde sig selv berøvet folk, der søger at arbejde der på grund af de betænkeligheder, at AI-fordomme forhindrer ansættelse eller tilraner sig forfremmelser.

De angivne sanktioner forbundet med at være ulovlige er disse:

  • "Straffe. en. Enhver person, der overtræder en bestemmelse i dette underkapitel eller en regel udstedt i henhold til dette underkapitel, er ansvarlig for en civil straf på højst $500 for en første overtrædelse og hver yderligere overtrædelse, der finder sted samme dag som den første overtrædelse, og ikke mindre end 500 USD eller mere end 1,500 USD for hver efterfølgende overtrædelse” (NYC, Int 1894-2020, Subchapter 25, Section 20-872). Der er yderligere underklausuler, som du måske vil tage et kig på, hvis du er meget interesseret i den juridiske formulering.

Skeptikere og kritikere hævder, at straffene ikke er hårde nok. Et stort firma ville angiveligt håne eller grine af de minimale dollarbøder, der var involveret. Andre påpeger, at bøden kan ende med at blive mere end opsigtsvækkende, sådan at hvis et firma skulle have tusinde dollars af overtrædelser hver dag (kun ét scenarie, der er masser af andre scenarier), ville et års værdi være ca. $365,000, forudsat at firmaet simpelthen ignorerede loven i et helt år og slap af sted med at gøre det (synes svært at forestille sig, men kunne ske, og kunne endda forekomme længere eller for en højere kulmination af dagbøder, i teorien).

I mellemtiden er nogle bekymrede for mindre virksomheder og de tilhørende bøder. Hvis en lille virksomhed, der knap nok får enderne til at mødes, bliver ramt af bøderne, og det angiveligt ikke gjorde det af en bevidst motivation til at omgå loven, kan bøderne påvirke deres vibrerende forretning væsentligt.

Keystone-problematiske overvejelser

Jeg har et enkelt og ligetil spørgsmål til dig.

I forbindelse med denne lov, hvad udgør en AI-revision helt præcist?

Problematisk er der ingen endegyldig indikation inden for lovens fortælling. Alt, hvad vi synes at få at vide, er, at "bias-revisionen" skal udføres via "en upartisk evaluering af en uafhængig revisor" (i henhold til lovens ordlyd).

Du kan køre en Mac-lastbil gennem det gabende hul.

Her er hvorfor.

Overvej dette ret foruroligende eksempel. En svindler kontakter et firma i NYC og forklarer, at de leverer en service, så de vil lave en såkaldt "bias audit" af deres AEDT. De lover, at de vil gøre det "uvildigt" (hvad det så end betyder). De fremholder sig selv som en uafhængig revisor, og de har salvet sig selv som en. Intet behov for nogen form for regnskabs- eller revisionsuddannelse, grader, certificeringer eller noget af den slags. Måske gør de sig den ulejlighed at udskrive nogle visitkort eller i al hast oprette en hjemmeside, hvor de udråber deres uafhængige revisor.

De vil opkræve firmaet et beskedent gebyr på f.eks. $100. Deres service består i måske at stille et par spørgsmål om AEDT og derefter proklamere, at AEDT er bias-free. De sender derefter en rapport, der er en side stor og erklærer "resultaterne" af den såkaldte revision. Firmaet lægger pligtopfyldende dette ud på sin hjemmeside.

Har virksomheden overholdt denne lov?

Du fortæller mig.

Det ser ud til, at de har.

Du kan straks blive overrasket over, at revisionen blev udført på en overfladisk måde (det er at være høflig og generøs i dette særlige scenarie). Du kan blive forstyrret over, at bias-detektionen (eller mangel på samme) måske i det væsentlige var forudbestemt (voila, du ser ud til at være bias-fri). Du kan være ked af, at de opslåede resultater kunne give en aura af at have bestået en streng audit af en erfaren, uddannet, erfaren, certificeret revisor.

Ja, det gør om størrelsen ting op.

En arbejdsgiver kan være lettet over, at de fik opfyldt dette "fjollede" krav og forbandet glad for, at det kun kostede dem sølle $100. Arbejdsgiveren indser måske internt og stille, at den uafhængige revision var et skænderi, men det er tilsyneladende ikke på deres skuldre at bestemme. De blev præsenteret for en påstået uafhængig revisor, revisoren udførte det arbejde, som revisoren sagde var kompatibelt, firmaet betalte for det, de fik resultaterne, og de offentliggjorde resultaterne.

Nogle arbejdsgivere vil gøre dette og indse, at de gør blink-wink-overholdelse af loven. Ikke desto mindre vil de tro, at de er fuldt ud kompatible.

Andre arbejdsgivere kan blive snydt. Alt, hvad de ved, er behovet for at overholde loven. Heldigvis for dem (eller det går de ud fra), kontakter en "uafhængig revisor" dem og lover, at en klagerevision og et resultat kan fås for $100. For at undgå at få den daglige bøde på $500 eller mere, tror firmaet, at de har fået en gave fra himlen. De betaler $100, "revisionen" finder sted, de får en gratis sundhedserklæring med hensyn til deres mangel på AI-bias, de poster resultaterne, og de glemmer dette, indtil næste gang de skal lave endnu en sådan revision .

Hvordan skal enhver virksomhed i NYC, der er underlagt denne lov, vide, hvad der er bona fide overholdelse af loven?

I tilfælde af at du ikke allerede har fået en vis mave i maven, kan vi gøre tingene værre. Jeg håber, du ikke har fået et måltid i de sidste par timer, da det næste twist bliver svært at holde intakt.

Er du klar?

Denne falske tjenesteudbyder viser sig at være mere en shammer, end du måske havde troet. De får firmaet til at tilmelde sig $100-tjenesten for at udføre den upartiske bias-revision som en uafhængig revisor. Se, de laver "revisionen" og opdager, at der er skævheder i alle afkroge af AEDT.

De har AI-fordomme som et kakerlakangreb.

Yikes, siger firmaet, hvad kan vi gøre ved det?

Intet problem, får de at vide, vi kan rette disse AI-fordomme for dig. Det vil koste dig kun $50 pr. hver sådan bias, der blev fundet. Okay, siger firmaet, venligst reparer dem, tak fordi du gjorde det. Tjenesteudbyderen laver en smule kodning og fortæller firmaet, at de har rettet hundrede AI-forstyrrelser og derfor vil opkræve dem $5,000 (det er $50 pr. AI-bias, der skal rettes, ganget med de fundne 100).

Ouch, firmaet føler sig klemt, men det er stadig bedre end at stå over for krænkelsen af ​​$500 eller mere pr. dag, så de betaler den "uafhængige revisor" og får derefter en ny rapport, der viser, at de nu er uafhængige. De poster dette stolt på deres hjemmeside.

Lidt ved de, at dette var en slyngel, et svindelnummer, et fupnummer.

Du kan insistere på, at denne tjenesteudbyder skal straffes for deres tricks. At fange og stoppe disse tricksters bliver meget sværere, end du måske forestiller dig. Ligesom at gå efter de udenlandsk-baserede prinser, der har en formue til dig, sandsynligvis befinder sig i et fremmed land uden for amerikansk lovs rækkevidde, kan det samme også forekomme i dette tilfælde.

Forvent, at der opstår en sommerhusindustri på grund af denne nye lov.

Der vil være bona fide revisorer, der søger at levere disse tjenester. Godt for dem. Der vil være skitseagtige revisorer, der går efter dette arbejde. Der vil være falsk udråbte revisorer, der går efter dette arbejde.

Jeg nævnte, at tjenesteudbyderscenariet involverede at bede om $100 for at udføre den såkaldte AI-revision. Det var bare en opdigtet pladsholder. Måske vil nogle opkræve $10 (synes uoverskueligt). Måske omkring $50 (stadig uoverskuelig). Etc.

Antag, at en tjenesteudbyder siger, at det vil koste $10,000 at udføre arbejdet.

Eller $100,000 for at gøre det.

Muligvis 1,000,000 dollars for at gøre det.

Nogle arbejdsgivere vil ikke have nogen anelse om, hvor meget dette kan eller bør koste. Markedsføringen af ​​disse tjenester vil være gratis for alle. Dette er en pengeskabende lov for dem, der lovligt udfører disse tjenester, og en pengeskaber for dem, der også bliver underhåndet ved at gøre det. Det bliver svært at vide, hvilken der er hvilken.

Jeg vil også bede dig om at overveje endnu et gabende hul.

I forbindelse med denne lov, hvad udgør en AI-bias præcist?

Bortset fra omtalen af ​​USA's kodeks for føderale reguleringer (dette svarer ikke specielt på spørgsmålet om AI-bias og fungerer derfor ikke som en stopklods eller løser i sagen), ville du være hårdt presset til at hævde, at denne nye loven giver enhver materiell indikation af, hvad AI-bias er. Endnu en gang vil dette være helt åbent for vidt forskellige fortolkninger, og du vil ikke specielt vide, hvad der blev søgt efter, hvad der blev fundet, og så videre. Også det arbejde, der udføres af selv bona fide AI-revisorer, vil næsten sandsynligvis være uforlignelig med en anden, sådan at hver især vil have en tendens til at bruge deres proprietære definitioner og tilgange.

Kort sagt, vi kan med ængstelse og bekymring se på, hvad arbejdsgivere vil støde på som et resultat af denne løsagtige, men velmente lov:

  • Nogle arbejdsgivere vil kende til loven og oprigtigt og fuldt ud overholde efter bedste evne
  • Nogle arbejdsgivere vil kende til loven og marginalt overholde den slankeste, billigste og muligvis ubehagelige vej, som de kan finde, eller som kommer til deres dørtrin
  • Nogle arbejdsgivere vil kende til loven og mener, at de ikke er inden for lovens anvendelsesområde, så de vil ikke gøre noget ved det (selvom det viser sig, at de muligvis er inden for lovens anvendelsesområde)
  • Nogle arbejdsgivere vil kende til loven og beslutter blankt at ignorere den, måske i den tro, at ingen vil bemærke det, eller at loven ikke vil blive håndhævet, eller loven vil blive fundet at være uhåndhævelig osv.
  • Nogle arbejdsgivere vil ikke kende til loven og vil blive fanget på fladfodet, der kæmper for at overholde
  • Nogle arbejdsgivere vil ikke kende til loven og vil elendigt blive flået af svindlere
  • Nogle arbejdsgivere vil ikke kende til loven, de er ikke inden for rammerne, men de bliver alligevel fløjtet af svindlere, der overbeviser dem om, at de er inden for rammerne
  • Nogle arbejdsgivere vil ikke kende til loven og vil ikke gøre noget ved det, mens de på mirakuløs vis aldrig bliver fanget eller bliver narret for deres tilsyn
  • Andet

En afgørende overvejelse at huske på er størrelsen eller skaleringen forbundet med denne nye lov.

Ifølge forskellige rapporterede statistikker vedrørende antallet af virksomheder i New York City, er antallet normalt angivet som et sted omkring 200,000 eller deromkring virksomheder (lad os bruge det som en størrelsesorden). Forudsat at dette er en rimelig tilnærmelse, er de virksomheder som arbejdsgivere formentlig underlagt denne nye lov. Tag derfor de ovennævnte flere måder, hvorpå arbejdsgivere vil reagere på denne lov, og overvej, hvor mange der vil være i hver af de forskellige spande, som jeg lige har nævnt.

Det er et ret svimlende skaleringsproblem.

Derudover er der ifølge rapporterede statistikker måske 4 millioner job i den private sektor i New York City, plus et anslået antal på omkring 300,000 statsansatte ansat af NYC-regeringen (igen, brug dem som størrelsesordener snarere end præcise optællinger). Hvis du tager i betragtning, at nyansættelser tilsyneladende er inden for denne nye lovs anvendelsesområde, sammen med forfremmelser forbundet med alle disse eksisterende og fremtidige arbejdere, er antallet af medarbejdere, der på den ene eller anden måde vil blive berørt af denne lov, ærligt talt forbløffende .

The Big Apple har en ny lov, der ved første øjekast ser ud til at være uskadelig og tilsyneladende ubetydelig eller banal, men når du indser de involverede skaleringsfaktorer, ja, det kan få dit hoved til at snurre

Konklusion

Jeg nævnte i begyndelsen af ​​denne diskussion, at dette er en velment ny lov.

Alt, hvad jeg lige har beskrevet som potentielle smuthuller, udeladelser, huller, problemer og lignende, kunne alle let forudses. Dette er ikke raketvidenskab. Jeg kan tilføje, at der er endnu flere iboende bekymringer og forvirrende aspekter ved denne lov, som jeg på grund af pladsmangel heri ikke har kaldt ud.

Du kan finde dem lige så let, som du kan skyde fisk i en tønde.

Love af denne art bør udformes omhyggeligt for at forsøge at forhindre denne slags luskede slutninger. Jeg går ud fra, at de seriøse komponister søgte at skrive en lov, som de mente var forholdsvis jernbeklædt og måske i værste fald ville få nogle små små dryp her eller der. Desværre er det en brandslange af dryp. Der skal en masse gaffatape til.

Kunne loven have været skrevet på en mere belyst måde for at lukke disse ret tilsyneladende smuthuller og tilhørende problemer?

Ja, rigeligt.

Nu, når det er tilfældet, kan du indigneret formane, at en sådan lov utvivlsomt ville være meget længere i længden. Der er altid en afvejning af at have en lov, der fortsætter og fortsætter, bliver uhåndterlig, versus at være kortfattet og kompakt. Du ønsker dog ikke at opnå kortfattethed ved at miste, hvad der ville være indholdsmæssig og fortjenstfuld klarhed og specificitet. En kort lov, der giver mulighed for skænderier, er fyldt med problemer. En længere lov, selvom den tilsyneladende er mere kompleks, ville normalt være en værdig afvejning, hvis den undgår, afværger eller i det mindste minimerer downstream-problemer under vedtagelsen.

Sankt Augustin sagde berømt: "Det forekommer mig, at en uretfærdig lov overhovedet ikke er nogen lov."

Vi kan give en konsekvens af, at en retfærdig lov, der er sammensat af problematisk sprog, er en lov, der tigger om at skabe dystre problemer. I dette tilfælde ser vi ud til at stå tilbage med den store jurist Oliver Wendell Holmes Jr.s kloge ord, nemlig at en side historie er et pund logik værd.

Se med, da historien snart er ved at blive skrevet.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- biases-audits-kicks-i gear/