Implantering af juridisk ræsonnement i AI kunne smart opnå menneskelig værditilpasning, siger AI-etik og AI-lov

I dagens klumme vil jeg væve et utal af tilsyneladende uensartede AI-relaterede emner sammen i et pænt vævet stof.

Er du klar?

Forestil dig, at du bruger en AI-drevet app, der hjælper dig, mens du udfører en eller anden betydningsfuld opgave. Måske er sagen økonomisk eller kan være sundhedsrelateret. Essensen er, at du er afhængig af AI'en for at gøre det rigtige og præstere på en formodet sikker og forsvarlig måde.

Antag, at AI bevæger sig ind i uetisk territorium.

Du er måske ikke klar over, at AI gør det.

For eksempel kan AI'en være afhængig af potentielt skjulte diskriminerende faktorer som race eller køn, selvom du måske ikke har nogen brugbar måde at gennemskue den uhensigtsmæssige brug. Der er du helt alene ved at få den korte ende af stokken via en AI, der enten er blevet udtænkt fra start på en problematisk måde eller har formået at styre ind i skæve og grænseoverskridende etiske farer (jeg vil sige mere om dette om et øjeblik).

Hvad kan du gøre, eller hvad kan der gøres ved AI, der vælger at gå en uetisk vej?

Udover at prøve på forhånd at konstruere AI'en, så den ikke udfører denne form for snigende handling, har jeg også tidligere beskrevet, at der er en stigende interesse for at indlejre en AI etikkontrol komponent i det spirende morads af ellers vilde vesten alt-goes AI-systemer, der bliver smidt ind på markedspladsen. Ideen er, at for at forsøge at forhindre en AI-infunderet app i at gå ud over etiske dimensioner, kunne vi bruge yderligere AI til at foretage en check-and-balance. Denne tilføjede AI kan være uden for den målrettede AI-app eller kan være en komponent, der er indlejret eller implanteret direkte i AI'en, som vi gerne vil dobbelttjekke på.

Som jeg har sagt før, se linket her: "En nyligt opstået tendens består i at forsøge at bygge etiske autoværn ind i AI'en, som vil fange, når resten af ​​et AI-system begynder at gå ud over foruddefinerede etiske grænser. På en måde er målet at bruge selve AI'en til at forhindre sig i at gå etisk skævt. Man kan sige, at vi sigter mod at få AI til at helbrede sig selv" (Lance Eliot, "Crafting Ethical AI That Monitors Unethical AI And Trys To Deer Bad AI From Acting Up", Forbes28. marts 2022).

Du kan måske også have relevant interesse i min bog om AI guardian bots, nogle gange omtalt som skytsengle, som dækker det tekniske grundlag for denne avancerede AI-inden for AI indlejrede dobbelttjekkere, se linket her.

Bundlinjen er, at dit bacon heldigvis kan blive reddet ved brug af et indlejret AI-dobbelttjek etik-måleelement, der er blevet udtænkt og implanteret i en AI-app, som du bruger. Men vil det være en vogter nok til virkelig at sikre, at AI'en ikke helt stivner dig og begiver dig ud i endnu hasher skadelig jord?

Ser du, AI-appen kunne tilsyneladende fungere ulovlig virker.

Det er én ting at have AI, der går ind i en gråzone af, hvad vi anser for at være etisk eller uetisk adfærd. En lige så foruroligende adfærd og sandsynligvis voksende bekymring indebærer AI, der bare springer hajen som det var og daler ned i det sjuskede mørke af direkte ulovlige handlinger.

Ulovlig AI er dårlig. At tillade ulovlig AI at gå uden opsyn er dårligt. Nogle juridiske lærde er åbenlyst bekymrede for, at kunstig intelligensens fremkomst og udbredelse gradvist og skræmmende vil undergrave vores udseende af retsstat, se min analyse på linket her.

Vent et øjeblik, siger du måske.

Du kan blive fristet til at tro, at AI-udviklere ville aldrig programmere deres AI til at gå imod loven. Utænkelig. Kun onde skurke ville gøre det (hvilket i øvrigt husker på, at der er dem, der med vilje udtænker og bruger AI til onde formål, et voksende område af interesse for kriminelle og andre, der ønsker at bruge AI til uhyggelige aktiviteter).

Beklager, men det er ønsketænkning at antage, at alle ikke-onde AI-udviklere strengt taget vil sørge for, at deres AI er fuldt ud lovlydig. Det kan være, at AI selv justerer og vandrer ind i ulovlig aktivitet. Selvfølgelig er der også potentialet for, at AI-udviklerne enten ønskede, at AI'en skulle handle ulovligt, eller at de ikke var klar over, hvad der udgjorde ulovlige versus juridiske handlinger, da de lavede AI'en (ja, det er meget muligt, nemlig at en heads-down all-tech AI-team kan være uvidende om de juridiske skænderier i deres AI, hvilket ikke er undskyldeligt og alligevel sker med alarmerende hyppighed).

Hvad kan der gøres ved dette?

Endnu en gang, udover at forsøge at sikre, at AI'en ud af porten er jernbeklædt og lovlig, involverer en yderligere tilgang til at få damp indlejring eller implantering af en AI-komponent, der udfører lovlig dobbelttjek for resten af ​​AI-appen. Denne tilføjede AI, der sidder stille og ofte upåklageligt, observerer resten af ​​AI'en for at prøve at skelne, om AI'en vil blive slyngel eller i det mindste gå forbi grænserne for lovlige eller regulatoriske pålagte restriktioner.

Vi har nu så to slags AI-dobbelttjek, der potentielt er indlejret i en AI-app:

  • AI Etik dobbelttjek: I realtid vurderer denne komponent eller AI-tilføjelse resten af ​​AI'en for etisk og uetisk adfærd, som AI'en udviser
  • AI Juridisk dobbelttjek: I realtid vurderer denne komponent eller AI-tilføjelse resten af ​​AI'en for at sikre, at den forbliver inden for lovlige keystones og for AI'ens fangst af nye ulovlige aktiviteter

For at præcisere, er det relativt nye forestillinger, og som sådan kan den AI, du bruger i dag, være under enhver af disse nuværende forhold:

  • AI, der slet ikke har dobbelttjek inkluderet
  • AI, der har en AI Ethics dobbelttjek inkluderet, men ingen andre dobbelttjekkere
  • AI, der har en AI Legal dobbelttjek inkluderet, men ingen andre dobbelttjekkere
  • AI, der både har en AI Ethics dobbelttjek og en AI Juridisk dobbelttjek
  • Andet

Der er nogle markant vanskelige aspekter ved at have både AI Ethics-dobbelttjekkeren og AI Legal-dobbelttjekkeren, der arbejder side om side i en AI-app som beslægtede bror og søster. Dette er en form for dualisme, der kan være sværere at koordinere, end du måske så antager (jeg tror, ​​vi alle ved, at brødre og søstre kan have de tætteste bånd, selvom de fra tid til anden også kan kæmpe som tøserne og har kraftig modstand visninger).

Jeg har diskuteret længe denne type besværlige dualisme: "Der sker en forsømt dualisme i AI for Social Good, der involverer manglen på at omfatte både rollen som kunstig moralsk handlekraft og kunstig juridisk ræsonnement i avancerede AI-systemer. Indsats fra AI-forskere og AI-udviklere har haft en tendens til at fokusere på, hvordan man fremstiller og indlejrer kunstige moralske agenter for at vejlede moralsk beslutningstagning, når et AI-system opererer i feltet, men har ikke også fokuseret på og koblet brugen af ​​kunstige juridiske ræsonnementer. , hvilket er lige så nødvendigt for robuste moralske og juridiske resultater" (Lance Eliot, "The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good," Harvard University CRCS Annual Conference 2020, Harvard Center for Research and Computation Society)

Hvis du gerne vil snakke om, hvorfor der kan være spændinger mellem en AI Ethics doublechecker og en AI Legal doublechecker, kan du måske finde dette bemærkelsesværdige citat om tankevækkende begrebsværdig værdighed: "Loven kan tillade en bestemt handling, selvom den handling er umoralsk; og loven kan forbyde en handling, selvom den handling er moralsk tilladt eller endda moralsk påkrævet" (Shelly Kagan, Moralens grænser, 1998).

Lad os flytte vores fokus lidt og se, hvordan disse dobbelttjekkere falder sammen til et andet meget gransket AI-emne, nemlig Ansvarlig AI eller en samordnet overvejelse af tilpasningen af ​​menneskelige værdier og AI.

Den generelle opfattelse er, at vi ønsker AI, der overholder ordentlige og ønskværdige menneskelige værdier. Nogle omtaler dette som Ansvarlig AI. Andre diskuterer på samme måde Ansvarlig AI, Troværdig AIog AI-justering, som alle berører det samme hjørnestensprincip. For min diskussion om disse vigtige spørgsmål, se linket her , linket her, For blot at nævne nogle få.

Hvordan kan vi få AI til at stemme overens med menneskelige værdier?

Som tidligere foreslået, ville vi håbe, at AI-udviklere ville være klar over at udvikle AI, der opnår ansvarlig AI-tilslutning. Desværre kan de måske ikke, ifølge de tidligere belyst årsager. Derudover vil de måske forsøge at gøre det, og alligevel ender AI med at tilpasse sig selv ud over etisk adfærds fremtrædende område eller muligvis ud i ulovligt farvand.

Okay, så er vi nødt til at overveje vores smarte dobbelttjekkere som et middel til at støtte disse risici og eksponeringer. Brugen af ​​en veludtænkt AI-etik-dobbelttjek kan i væsentlig grad hjælpe med at tilpasse AI til menneskelige værdier. På samme måde kan brugen af ​​en veludtænkt AI Legal dobbelttjekker i væsentlig grad hjælpe med at tilpasse AI til menneskelige værdier.

Et afgørende og endnu ikke velkendt middel til at søge at nå frem til Responsible AI, Trustworthy AI, Accountable AI, AI Alignment osv. vil således involvere brugen af ​​AI-dobbelttjekkere såsom en AI-etik-dobbelttjekker og en AI Juridisk dobbelttjek, der ville fungere utrætteligt som en dobbelttjek på den AI, som de er indlejret i.

I denne her diskussion vil jeg gerne gå lidt mere i detaljer om arten og konstruktionerne af AI Legal-dobbelttjekkere, der kan være indlejret i AI. For at gøre det kan det være nyttigt at dele noget ekstra baggrund med dig om det overordnede emne AI og jura.

For en no-nonsense undersøgelse af, hvordan AI og loven blander sig med hinanden, se min diskussion på linket her. I mit kræsne blik på AI og jura kobling giver jeg denne ligefremme opfattelse af to vigtige måder at forbinde AI og loven på:

  • (1) Lov, der anvendes på AI: Formulering, vedtagelse og håndhævelse af love, som anvendes til regulering eller styring af kunstig intelligens i vores samfund
  • (2) AI-anvendt-på-lov: Kunstig intelligens-teknologi udviklet og anvendt i loven, herunder AI-baseret juridisk ræsonnement (AILR), infunderet i LegalTech højteknologiske apps til autonomt eller semi-autonomt at udføre advokatopgaver

Det første listede synspunkt består i at overveje, hvordan eksisterende og nye love vil styre AI. Det andet anførte perspektiv har at gøre med at anvende AI på loven.

Denne sidstnævnte kategori involverer normalt anvendelse af AI-baseret juridisk begrundelse (AILR) i forskellige onlineværktøjer, der bruges af advokater. For eksempel kan kunstig intelligens være en del af en Contract Life Cycle Management-pakke (CLM), som hjælper advokater ved at identificere kontraktsprog, der vil være nyttigt til at udarbejde nye kontrakter, eller som kan opdage kontrakter, der har et juridisk ønskeligt sprog, der tillader uheld eller juridiske smuthuller (for mit kig på såkaldte "lov lugte", der kan skelnes af AI, se linket her).

Vi vil uundgåeligt få AI anvendt på den lov, der bliver tilgængelig for offentligheden, og som ikke kræver, at en advokat er i løkken. Lige nu, som et resultat af forskellige begrænsninger, herunder UPL (Uautoriseret Practical of Law), er tilgængeliggørelse af AI-baserede juridiske rådgivningsapps en vanskelig og kontroversiel sag, se min diskussion på linket her.

Jeg bragte denne introduktion om AI & Law op for at påpege, at en anden instrumentel anvendelse af AI anvendt på loven ville være at skabe AI Legal-dobbelttjekkere.

Ja, den samme slags teknologiske dygtighed involveret i at anvende AI til loven er i stand til at tjene som en dobbelt pligt ved at bruge AI til at tjene som en indlejret eller implanteret AI Legal dobbelttjekker. AI Legal-dobbelttjekkeren er en komponent, der skal være fortrolig med juridiske facetter. Når resten af ​​AI-appen udfører forskellige handlinger, måler AI Legal-dobbelttjekkeren, om AI-appen gør det lovligt og inden for lovlige begrænsninger.

En AI Legal dobbelttjekkomponent behøver ikke nødvendigvis at dække hele spektret af alt, hvad der er at vide om loven. Afhængigt af arten af ​​AI-appen med hensyn til formålet og handlingerne for AI'en generelt, kan AI Legal-dobbelttjekkeren være meget smallere med hensyn til den juridiske ekspertise, den indeholder.

Jeg har identificeret en nyttig ramme til at vise, hvordan AI i det juridiske domæne spænder over en række autonome kapaciteter, kendt som niveauer af autonomi (LoA). For en oversigt se min Forbes kolonneopslag af 21. november 2022, "The No-Nonsense Comprehensive Compelling Case For Why Lawyers Need To Know About AI And The Law" kl. linket her, og for en detaljeret teknisk skildring se min dybdegående forskningsartikel i MIT Computational Law Journal af 7. december 2021, se linket her.

Rammen belyser fem niveauer af AI, som bruges i juridiske bestræbelser:

  • Niveau 0: Ingen automatisering til AI-baseret juridisk arbejde
  • Niveau 1: Simpel assistanceautomatisering til AI-baseret juridisk arbejde
  • Niveau 2: Avanceret assistanceautomatisering til AI-baseret juridisk arbejde
  • Niveau 3: Semi-autonom automatisering til AI-baseret juridisk arbejde
  • Niveau 4: Domæne autonomt for AI-baseret juridisk arbejde
  • Niveau 5: Fuldstændig selvstændig for AI-baseret juridisk arbejde

Jeg vil kort beskrive dem her.

Niveau 0 betragtes som niveauet uden automatisering. Juridiske ræsonnementer og juridiske opgaver udføres via manuelle metoder og foregår primært via papirbaserede tilgange.

Niveau 1 består af simpel assistanceautomatisering til AI-juridisk begrundelse. Eksempler på denne kategori vil omfatte brugen af ​​dagligdags computerbaseret tekstbehandling, brugen af ​​dagligdags computerbaserede regneark, adgang til online juridiske dokumenter, der lagres og hentes elektronisk, og så videre.

Niveau 2 består af avanceret assistanceautomatisering til AI-juridisk begrundelse. Eksempler på denne kategori vil omfatte brugen af ​​rudimentær Natural Language Processing (NLP) i forespørgselsstil, forenklede elementer i Machine Learning (ML), statistiske analyseværktøjer til forudsigelser af juridiske sager osv.

Niveau 3 består af semi-autonom automatisering til AI juridisk ræsonnement. Eksempler på denne kategori vil omfatte brugen af ​​avancerede vidensbaserede systemer (KBS) til juridisk ræsonnement, brugen af ​​Machine Learning og Deep Learning (ML/DL) til juridisk ræsonnement, avanceret NLP og så videre.

Niveau 4 består af domæne-autonome computerbaserede systemer til AI-juridisk begrundelse. Dette niveau genbruger den konceptuelle forestilling om Operational Design Domains (ODD'er), som bruges til selvkørende biler, men som anvendes på det juridiske domæne. Juridiske domæner kan klassificeres efter funktionelle områder, såsom familieret, ejendomsret, konkursret, miljøret, skatteret osv.

Niveau 5 består af fuldstændigt autonome computerbaserede systemer til AI-juridisk begrundelse. I en vis forstand er niveau 5 supersættet af niveau 4 med hensyn til at omfatte alle mulige juridiske domæner. Vær opmærksom på, at dette er en ret høj ordre.

Du kan forestille dig disse niveauer af autonomi på linje med de beslægtede anvendelser, når du diskuterer selvkørende biler og autonome køretøjer (også baseret på den officielle SAE-standard, se min dækning på linket her). Vi har endnu ikke SAE Level 5 selvkørende biler. Vi er på vej ind i SAE Level 4 selvkørende biler. De fleste konventionelle biler er på SAE niveau 2, mens nogle af de nyere biler er på vej ind i SAE niveau 3.

På det juridiske domæne har vi endnu ikke niveau 5 AILR. Vi berører noget niveau 4, dog i ekstremt snævre ODD'er. Niveau 3 begynder at se dagens lys, mens grundpillen i AILR i dag primært er på niveau 2.

En nylig forskningsartikel om kunstig intelligens som anvendt på loven har fremsat en typificering kendt som Lov informerer kodeks. Forskeren udtaler dette: "Et af de primære mål for Lov informerer kodeks dagsordenen er at lære kunstig intelligens at følge lovens ånd" (John J. Nay, "Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans", Northwestern Journal of Technology and Intellectual Property, bind 20, kommende). Der er nogle væsentlige overvejelser, som Lov informerer kodeks mantra bringer op, og jeg vil lede dig gennem flere af disse nøglestensforskrifter.

Før jeg dykker ned i emnet, vil jeg gerne først lægge noget væsentligt grundlag om AI og især AI-etik og AI-lovgivning, for at sikre, at diskussionen bliver kontekstuelt fornuftig.

Den stigende bevidsthed om etisk AI og også AI-lov

Den seneste æra af AI blev oprindeligt set som værende AI til gode, hvilket betyder, at vi kunne bruge AI til at forbedre menneskeheden. I hælene på AI til gode kom erkendelsen af, at vi også er fordybet i AI For Bad. Dette inkluderer kunstig intelligens, der er udtænkt eller selvforandret til at være diskriminerende og foretager beregningsmæssige valg, der gennemsyrer unødige skævheder. Nogle gange er AI'en bygget på den måde, mens den i andre tilfælde svinger ind i det uheldige territorium.

Jeg vil være meget sikker på, at vi er på samme side om arten af ​​nutidens AI.

Der er ikke nogen AI i dag, der er sansende. Det har vi ikke. Vi ved ikke, om sansende AI vil være mulig. Ingen kan passende forudsige, om vi vil opnå sansende AI, eller om sansende AI på en eller anden måde mirakuløst spontant vil opstå i en form for computerkognitiv supernova (normalt omtalt som singulariteten, se min dækning på linket her).

Den type AI, som jeg fokuserer på, består af den ikke-sansende AI, som vi har i dag. Hvis vi ville spekulere vildt om sansende AI, kunne denne diskussion gå i en radikalt anden retning. En sansende AI ville angiveligt være af menneskelig kvalitet. Du skal overveje, at den sansende AI er den kognitive ækvivalent til et menneske. Mere så, eftersom nogle spekulerer på, at vi måske har superintelligent AI, er det tænkeligt, at sådan AI kan ende med at blive smartere end mennesker (for min udforskning af superintelligent AI som en mulighed, se dækningen her).

Jeg vil kraftigt foreslå, at vi holder tingene nede på jorden og overvejer nutidens beregningsmæssige ikke-sansende AI.

Indse, at nutidens AI ikke er i stand til at "tænke" på nogen måde på lige fod med menneskelig tænkning. Når du interagerer med Alexa eller Siri, kan samtalekapaciteten virke beslægtet med menneskelige kapaciteter, men virkeligheden er, at den er beregningsmæssig og mangler menneskelig erkendelse. Den seneste æra af AI har gjort omfattende brug af Machine Learning (ML) og Deep Learning (DL), som udnytter computational pattern matching. Dette har ført til AI-systemer, der ser ud som menneskelignende tilbøjeligheder. I mellemtiden er der ikke nogen kunstig intelligens i dag, der har et antydning af sund fornuft og heller ikke noget af den kognitive undren ved robust menneskelig tænkning.

Vær meget forsigtig med at antropomorfisere nutidens AI.

ML/DL er en form for computational pattern matching. Den sædvanlige tilgang er, at du samler data om en beslutningsopgave. Du føder dataene ind i ML/DL-computermodellerne. Disse modeller søger at finde matematiske mønstre. Efter at have fundet sådanne mønstre, hvis det er fundet, vil AI-systemet bruge disse mønstre, når de støder på nye data. Ved præsentationen af ​​nye data anvendes mønstrene baseret på de "gamle" eller historiske data til at gøre en aktuel beslutning.

Jeg tror, ​​du kan gætte, hvor det er på vej hen. Hvis mennesker, der har truffet de mønstrede beslutninger, har inkorporeret uønskede skævheder, er oddsene, at dataene afspejler dette på subtile, men væsentlige måder. Machine Learning eller Deep Learning computational pattern matching vil blot forsøge at matematisk efterligne dataene i overensstemmelse hermed. Der er ingen antydning af sund fornuft eller andre sansende aspekter af AI-fremstillet modellering i sig selv.

Desuden er AI-udviklerne måske heller ikke klar over, hvad der foregår. Den mystiske matematik i ML/DL kan gøre det svært at fjerne de nu skjulte skævheder. Du ville med rette håbe og forvente, at AI-udviklerne ville teste for de potentielt begravede skævheder, selvom dette er vanskeligere, end det måske ser ud til. Der er en solid chance for, at selv med relativt omfattende test, vil der stadig være skævheder indlejret i mønstermatchende modeller af ML/DL.

Du kunne lidt bruge det berømte eller berygtede ordsprog om skrald-ind skrald-ud. Sagen er, at dette er mere beslægtet med biases-in, der snigende bliver infunderet som skævheder nedsænket i AI. Algoritmebeslutningstagningen (ADM) af AI bliver aksiomatisk fyldt med uligheder.

Ikke godt.

Alt dette har væsentlige AI-etiske implikationer og giver et praktisk vindue til erfaringer (selv før alle lektionerne sker), når det kommer til at forsøge at lovgive AI.

Udover at anvende AI-etiske forskrifter generelt, er der et tilsvarende spørgsmål om, hvorvidt vi skal have love til at regulere forskellige anvendelser af AI. Nye love bliver bandet rundt på føderalt, statsligt og lokalt niveau, der vedrører rækkevidden og arten af, hvordan AI skal udformes. Bestræbelserne på at udarbejde og vedtage sådanne love er gradvist. AI-etik fungerer i det mindste som en overvejet stopklods og vil næsten helt sikkert til en vis grad blive direkte indarbejdet i disse nye love.

Vær opmærksom på, at nogle stejlt hævder, at vi ikke har brug for nye love, der dækker AI, og at vores eksisterende love er tilstrækkelige. De advarer om, at hvis vi vedtager nogle af disse AI-love, vil vi dræbe den gyldne gås ved at slå ned på fremskridt inden for AI, der giver enorme samfundsmæssige fordele.

I tidligere spalter har jeg dækket de forskellige nationale og internationale bestræbelser på at udarbejde og vedtage love, der regulerer AI, se linket her, for eksempel. Jeg har også dækket de forskellige AI-etiske principper og retningslinjer, som forskellige nationer har identificeret og vedtaget, herunder f.eks. FN-indsatsen såsom UNESCO-sættet af AI-etik, som næsten 200 lande har vedtaget, se linket her.

Her er en nyttig keystone-liste over etiske AI-kriterier eller karakteristika vedrørende AI-systemer, som jeg tidligere har udforsket nøje:

  • Gennemsigtighed
  • Retfærdighed og Retfærdighed
  • Ikke-ondskab
  • Ansvarlighed
  • Privatliv
  • godgørenhed
  • Frihed & Autonomi
  • Stol
  • Bæredygtighed
  • Værdighed
  • Solidaritet

Disse AI-etiske principper formodes oprigtigt at blive brugt af AI-udviklere, sammen med dem, der styrer AI-udviklingsindsatsen, og endda dem, der i sidste ende udfører og udfører vedligeholdelse på AI-systemer.

Alle interessenter gennem hele AI-livscyklussen for udvikling og brug betragtes inden for rammerne af at overholde de etablerede normer for etisk AI. Dette er et vigtigt højdepunkt, da den sædvanlige antagelse er, at "kun kodere" eller dem, der programmerer AI'en, er underlagt de AI-etiske begreber. Som tidligere understreget heri, kræver det en landsby at udtænke og udforme AI, og som hele landsbyen skal være fortrolig med og overholde AI-etiske forskrifter.

Jeg har også for nylig undersøgt AI Bill of Rights som er den officielle titel på det amerikanske regerings officielle dokument med titlen "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People", der var resultatet af en årelang indsats fra Office of Science and Technology Policy (OSTP) ). OSTP er en føderal enhed, der tjener til at rådgive den amerikanske præsident og det amerikanske eksekutivkontor om forskellige teknologiske, videnskabelige og tekniske aspekter af national betydning. I den forstand kan du sige, at denne AI Bill of Rights er et dokument godkendt af og godkendt af det eksisterende amerikanske Hvide Hus.

I AI Bill of Rights er der fem keystone-kategorier:

  • Sikre og effektive systemer
  • Algoritmisk diskriminationsbeskyttelse
  • Databeskyttelse
  • Bemærkning og forklaring
  • Menneskelige alternativer, omtanke og tilbagefald

Jeg har omhyggeligt gennemgået disse forskrifter, se linket her.

Nu hvor jeg har lagt et nyttigt grundlag for disse relaterede AI-etik og AI-love-emner, er vi klar til at springe ind i det hæsblæsende emne om AI Legal-dobbelttjek og området Lov informerer kodeks.

AI juridiske dobbelttjekkere indlejret i AI til menneskelig værditilpasning

Jeg henviser nogle gange til AI Legal Double-Checkers via et akronym af AI-LDC. Dette er en smule visuelt skurrende for dem, der ikke er bekendt med akronymet. Som sådan vil jeg ikke bruge dette særlige akronym i denne diskussion, men ville gerne nævne det for dig som en heads-up.

For at pakke nogle af kompleksiteten af ​​AI Legal dobbelttjekkere ud, lad os tage fat på disse hovedpunkter:

  • Brug af AI Juridiske dobbelttjekkere som en tilpasningsmekanisme for AI-menneskelige værdier
  • Mere ekspansiv AI vil tilsvarende kræve mere robuste AI Legal dobbelttjekkere
  • AI Juridiske dobbelttjekkere vedtager loven og laver især ikke lov (formodentlig)
  • Fin balance mellem AI Juridisk udformning af loven som regler kontra standarder
  • Kræver bevis for buddingen, når det kommer til AI, der overholder loven

På grund af pladsmangel vil jeg lige dække disse fem punkter indtil videre, men vær venligst på vagt for yderligere dækning i min klumme, der dækker yderligere og lige så bemærkelsesværdige overvejelser om disse hastigt udviklende og fremadgående spørgsmål.

Lige nu skal du spænde din sikkerhedssele og gøre dig klar til en forfriskende rejse.

  • Brug af AI Juridiske dobbelttjekkere som en tilpasningsmekanisme for AI-menneskelige værdier

Der er adskillige måder at forsøge at opnå en harmonisk tilpasning mellem AI og menneskelige værdier.

Som tidligere nævnt kan vi producere og udbrede AI-etiske forskrifter og søge at få AI-udviklere og dem, der arbejder med og driver AI, til at overholde disse nøglesten. Desværre vil dette alene ikke gøre tricket. Du har nogle opfindere, der uundgåeligt ikke vil få beskeden. Du har nogle opfindere, der vil fremvise etisk kunstig intelligens og forsøge at omgå de noget løsslupne foreskrevne principper. Og så videre.

Brugen af ​​"blød lov"-tilgange, der indebærer AI-etik, skal næsten ubønhørligt parres med "hårde lov"-veje, såsom vedtagelse af love og regler, der vil sende et kraftigt signal til alle, der skaber eller bruger AI. Lovens lange arm kan komme for at få dig, hvis du ikke bevidst udnytter AI. Lyden af ​​klirrende fængselsdøre kunne tiltrække skarp opmærksomhed.

Et stort problem er dog, at nogle gange har stalddøren allerede lukket hestene ud og gå. En kunstig intelligens, der er i brug, vil potentielt producere alle slags ulovlige handlinger og fortsætte med at gøre det, indtil det ikke bare bliver fanget, men også når en håndhævelse endelig træder op for at bremse strømmen af ​​ulovlige handlinger. Alt det kan tage tid. I mellemtiden bliver mennesker skadet på den ene eller anden måde.

Ind i dette strejf kommer AI Legal-dobbelttjekkeren.

Ved at opholde sig i en AI-app er AI Legal-dobbelttjekkeren i stand til øjeblikkeligt at registrere, hvornår AI'en ser ud til at være i modstrid med loven. AI Legal-dobbelttjekkeren stopper muligvis AI'en i dens spor. Eller komponenten kan advare mennesker om de opdagede ulovlige aktiviteter, ved at gøre det på et rettidigt grundlag, der kan tilskynde tilsynsmænd til at få akutte korrigerende handlinger. Der er også den betragtede formaliserede logning, som komponenten kunne skabe, hvilket giver et håndgribeligt udseende af et revisionsspor med det formål at kodificere AI'ens negative handlinger.

Vores love siges at være en form for multi-agent konglomeration, således at lovene uundgåeligt er en blanding af, hvad samfundet har forsøgt at skabe balance mellem sandsynlige modstridende synspunkter om korrekt og upassende samfundsadfærd. En AI Legal-dobbelttjekker baseret på vores love inkarnerer derfor denne blanding.

Dette er især mere end blot at programmere en liste over endelige juridiske regler. Love har en tendens til at være mere formbare og stræber mod overordnede standarder i stedet for at specificere de mindste mikroskopiske regler. Kompleksiteterne er rigelige.

For at vende tilbage til det tidligere bemærkede forskningspapir, her er, hvordan disse overvejelser også kan ses i forbindelse med AI Alignment-forfølgelsen: "Law, den anvendte filosofi om multi-agent alignment, opfylder unikt disse kriterier. Tilpasning er et problem, fordi vi ikke kan ex ante specificere regler, der fuldt ud og beviseligt styrer god AI-adfærd. På samme måde kan parterne i en juridisk kontrakt ikke forudse enhver begivenhed i deres forhold, og lovgivere kan ikke forudsige de specifikke omstændigheder, under hvilke deres love vil blive anvendt. Derfor er meget af loven en konstellation af standarder” (ibid).

At inkorporere loven i en AI Legal-dobbelttjek er meget mere udfordrende, end du måske umiddelbart antager.

Efterhånden som AI udvikler sig, bliver vi nødt til at udnytte sådanne fremskridt i overensstemmelse hermed. Det viser sig, at det, der er godt for gåsen, også er godt for ganderen. De af os, der gør fremskridt inden for kunstig intelligens som anvendt i loven, skubber på rammerne for kunstig intelligens og skaber utvivlsomt nye fremskridt, der i sidste ende kan bidrage til fremskridt for kunstig intelligens.

  • Mere ekspansiv AI vil tilsvarende kræve mere robuste AI Legal dobbelttjekkere

En kat-og-mus-gambit konfronterer dette emne.

Chancerne er, at efterhånden som AI bliver mere avanceret, vil enhver AI Legal-dobbelttjek-komponent få det sværere og sværere at håndtere. For eksempel kan en AI-app, der bliver undersøgt, have nyudviklede super-luskede måder at skjule de ulovlige handlinger, som AI'en udfører. Selvom AI'en ikke tager en underhåndsrute, kan den samlede kompleksitet af AI'en alene være en skræmmende hindring for at søge at få AI Legal-dobbelttjekkeren til at vurdere.

Her er, hvordan dette bliver særligt vigtigt.

Antag, at en AI-udvikler eller et firma, der bruger AI, proklamerer, at der er en AI Legal-dobbelttjek, der er blevet indlejret i den AI-baserede app. Voila, de ser ud til nu at have vasket deres hænder for yderligere bekymringer. AI Legal-dobbelttjekkeren tager sig af alt.

Ikke så.

AI Legal-dobbelttjekkeren er muligvis utilstrækkelig til arten af ​​den involverede AI-app. Der er også mulighed for, at AI Legal-dobbelttjekkeren bliver forældet, måske ikke opdateret med de seneste love vedrørende AI-appen. Der kan forudses en række årsager til, hvorfor blot tilstedeværelsen af ​​en AI Legal-dobbelttjekker ikke vil være en sølvkugle.

Overvej disse indsigter fra den tidligere citerede forskning: "Som det nyeste inden for kunstig intelligens udvikler sig, kan vi sætte iterativt højere barrer for demonstrerede juridiske forståelsesevner. Hvis en udvikler hævder, at deres system har avancerede funktioner til opgaver, bør de demonstrere tilsvarende avanceret juridisk forståelse og juridiske ræsonnementevner af AI, som praktisk talt ikke har nogen vanskelighedsgrænse, når de overvejer moradset af love og regler på tværs af tid, præcedens og jurisdiktion ” (ibid).

  • AI Juridiske dobbelttjekkere vedtager loven og laver især ikke lov (formodentlig)

Jeg er sikker på, at nogle af jer er forfærdede over tanken om at have disse AI Legal dobbelttjekkere.

En ofte udtrykt bekymring er, at vi tilsyneladende vil tillade AI at bestemme vores love for os. Godt gud, tænker du måske, et stykke automatisering vil overhale menneskeheden. Disse forbandede indlejrede AI Legal dobbelttjekkere bliver standardkongene af vores love. Uanset hvad de måske gør vil være, hvad loven ser ud til at være.

Mennesker vil blive styret af AI.

Og disse AI Legal dobbelttjekkere er den glidebane, der bringer os derhen.

Et modargument er, at sådan snak er noget af konspirationsteorier. Du postulerer vildt og får dig selv i en tizzy. Virkeligheden er, at disse AI Legal-dobbelttjekkere ikke er sansende, de kommer ikke til at overtage planeten, og at hype om deres eksistentielle risiko er direkte absurd og uhyre overvurderet.

Alt i alt, forbliver vi med en rolig og begrundet holdning, er vi nødt til at være opmærksomme på, at AI Legal-dobbelttjekkerne tjener til at afspejle loven på passende vis og ikke ved design og heller ikke ved et uheld går videre til på en eller anden måde at gå ind i det ærede område med at lave lov. Når man ser bort fra sansningsekstrapoleringerne, kan vi helt sikkert blive enige om, at der er en reel og presserende bekymring for, at AI Legal-dobbelttjekkeren kan ende med at misrepræsentere den sande natur af en given lov.

Til gengæld kan du hævde, at den særlige "forkertede" lov i det væsentlige bliver lavet på ny, da den ikke længere passende betegner, hvad der var hensigten med den faktiske lov. Jeg stoler på, at du ærligt talt kan se, hvordan dette er en subtil, men sigende betragtning. På et hvilket som helst tidspunkt kunne AI Legal-dobbelttjekkeren på virtuel basis lave eller skal vi sige "hallucinere" nye love simpelthen ved, hvordan AI-komponenten fortolker loven som oprindeligt angivet eller inkorporeret i AI'en (til min dækning) af AI såkaldt hallucinationerSe linket her).

Forsigtighed med dette skal udvises hårdt.

Om dette emne frembyder det førnævnte forskningsstudie denne parallelle tanke med hensyn til at forsøge at undgå at krydse den hellige linje: "Vi sigter ikke efter, at AI skal have legitimitet til at lave lov, skabe juridisk præcedens eller håndhæve lov. Faktisk ville dette underminere vores tilgang (og vi bør investere en betydelig indsats i at forhindre det). Det mest ambitiøse mål med Law Informing Code er snarere at indkode og integrere generaliserbarheden af ​​eksisterende juridiske koncepter og standarder i valideret AI-ydeevne" (ibid).

  • Fin balance mellem AI Juridisk udformning af loven som regler kontra standarder

Love er rodet.

For næsten enhver lov i bøgerne er der sandsynligvis et væld af fortolkninger af, hvad loven foreskriver i den faktiske praksis. På AI-feltets sprogbrug henviser vi til love som værende semantisk tvetydige. Det er det, der gør udviklingen af ​​kunstig intelligens som anvendt på loven til en så spændende og samtidig irriterende udfordring. I modsætning til det præcise tal, som du måske ser for f.eks. finansorienterede AI-applikationer, indebærer ønsket om at inkorporere vores love i AI at håndtere en tsunami af semantiske uklarheder.

I min stiftelses bog om det grundlæggende i AI Legal Reasoning (AILR), diskuterer jeg, hvordan tidligere forsøg på blot at kodificere love til et sæt af afgrænsede regler ikke fik os så langt, som vi gerne ville gå på det juridiske område (se linket her). Dagens AILR skal omfatte en integration mellem brugen af ​​regler og det, man kan kalde overordnede standarder, som loven repræsenterer.

Denne vigtige balance kan udtrykkes på denne måde: "I praksis lander de fleste lovbestemmelser et sted på et spektrum mellem ren regel og ren standard, og juridisk teori kan hjælpe med at vurdere den rigtige kombination af "regel-hed" og "standard-ness" ved specificering af mål for AI-systemer” (ibid).

  • Kræver bevis for buddingen, når det kommer til AI, der overholder loven

At ville noget er anderledes end at have noget.

Den smule visdom kommer frem, når vi foreslår, at selvom vi måske ønsker at have AI Legal-dobbelttjekkere, er vi rigeligt nødt til at sikre, at de virker og fungerer korrekt. Bemærk, at dette udgør endnu en hård og opslidende forhindring. Jeg har tidligere dækket de seneste fremskridt og udfordringer inden for verifikation og validering af AI, se linket her.

Som bemærket i forskningspapiret: "For at afhjælpe kløften, før AI-modeller implementeres i stadig mere agentiske kapaciteter, f.eks. fuldt autonome køretøjer på større veje, bør den implementerende part demonstrere systemets forståelse af menneskelige mål, politikker og juridiske standarder. En valideringsprocedure kunne illustrere AI's 'forståelse' af 'betydningen' af juridiske begreber” (ibid).

Konklusion

Jeg opfordrer dig indtrængende til at overveje at slutte dig til mig på denne ædle søgen efter at bygge og opstille AI Legal dobbelttjekkere. Vi har brug for mere opmærksomhed og ressourcer afsat til denne dydige stræben.

Dette giver også dobbelt pligt, som tidligere nævnt, til at opnå AI Legal Reasoning (AILR), der kan bruges til at hjælpe advokater og potentielt bruges direkte af offentligheden. Nogle hævder faktisk voldsomt, at det eneste levedygtige middel til at nå frem til en bedre følelse af adgang til retfærdighed (A2J) vil være gennem udformningen af ​​AI, der inkorporerer juridisk kapacitet og kan tilgås af alle.

Et hurtigt sidste punkt for nu.

Diskussionen hidtil har understreget, at AI Legal-dobbelttjekkeren ville blive indlejret eller implanteret i AI. Dette er i sandhed det primære fokus for dem, der forsker i og påtager sig denne nye verden.

Her er et spørgsmål, der er værd at overveje.

Tag din tænkehætte på.

Hvorfor ikke gøre brug af AI Legal dobbelttjek i al software?

Essensen er, at snarere end udelukkende at bruge AI Legal dobbelttjek i AI, burde vi måske udvide vores synspunkt. Alle former for software kan komme lovligt på afveje. AI har ganske vist fået broderparten af ​​opmærksomheden på grund af de måder, hvorpå AI sædvanligvis tages i brug, såsom at tage mave-slidende beslutninger, der påvirker mennesker i deres hverdag. Du kan dog let hævde, at der er masser af ikke-AI-systemer, der gør det samme.

I det væsentlige burde vi ikke lade nogen software få en gratis tur for at undgå eller afværge loven.

Husk også tidligere, at jeg nævnte de to kategorier af at kombinere AI og loven. Vi har heri fokuseret på brugen af ​​kunstig intelligens som anvendt i loven. På den anden side af medaljen er lovens anvendelse på AI. Antag, at vi vedtager love, der kræver brug af AI Legal dobbelttjek.

Dette kan i første omgang være begrænset til AI-systemer, især dem, der vurderes som særligt højrisiko. Gradvist kunne det samme AI Legal-dobbelttjekkrav også udvides til ikke-AI-software. Igen, ingen gratis ture.

Mens du nudler på ovenstående betragtninger, vil jeg pifte tingene op som en afsluttende teaser. Hvis vi skal forsøge at kræve AI Legal dobbelttjekkere, kan vi lige så godt også gøre det samme med AI Ethics dobbelttjekkere. Brugen af ​​en AI Legal-dobbelttjek er kun halvdelen af ​​historien, og vi kan heller ikke negligere eller glemme AI-etiske bekymringer.

Jeg vil slutte denne glade diskurs med et af mine yndlingscitater. Ifølge de kloge ord fra Earl Warren, den berømte jurist, der tjente som øverste dommer i USA: "I civiliseret liv flyder loven i et hav af etik."

Det er måske bedst at ihærdigt bruge de spirende og sprudlende AI-juridiske dobbelttjekkere og AI-etik-dobbelttjekkere i ivrig brug, hvis vi ønsker at holde hovedet over potentielt truende tung sø fra sure AI og dystre ikke-AI-systemer, der bringer vores sikkerhed i fare .

De kan være menneskehedens redningsvest.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- og-ai-lov/