AI-etik og AI-lov, der afvejer nøglemåder at implementere den nyligt udgivne AI Bill of Rights, herunder og forbløffende ved at bruge AI direkte

Der er næppe tvivl om, at vi har brug for tegninger i vores daglige liv.

Hvis du skal bygge dit længe forudsete drømmehus, vil du gøre klogt i først at sammensætte en brugbar plan.

En plan viser på en håndgribelig og dokumenteret måde, hvilket visionært perspektiv der måtte være låst fast i dit blik. De, der vil blive opfordret til at bygge din elskede gård, vil være i stand til at henvise til planen og finde detaljerne i, hvordan man får arbejdet gjort. Tegninger er praktiske. Fraværet af en plan er bundet til at være problematisk for at tackle enhver form for kompleks opgave eller projekt.

Lad os flytte denne noget sentimentale, men ægte hyldest til tegninger til kunstig intelligens (AI).

De af jer, der er substantielt til AI, er måske vagt klar over, at en vigtig politikorienteret blueprint blev for nylig udgivet i USA, der påviselig vedrører fremtiden for kunstig intelligens. Uformelt kendt som AI Bill of Rights, den officielle titel på den proklamerede hvidbog er "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" og er let tilgængelig online.

Dokumentet er resultatet af en årelang indsats og opmærksom undersøgelse fra Office of Science and Technology Policy (OSTP). OSTP er en føderal enhed, der blev etableret i midten af ​​1970'erne og tjener til at rådgive den amerikanske præsident og det amerikanske eksekutivkontor om forskellige teknologiske, videnskabelige og tekniske aspekter af national betydning. I den forstand kan du sige, at denne AI Bill of Rights er et dokument godkendt af og godkendt af det eksisterende amerikanske Hvide Hus.

AI Bill of Rights skildrer menneskerettigheder som menneskeheden burde have med hensyn til AI's fremkomst i vores daglige liv. Jeg understreger denne vægtige pointe, fordi nogle mennesker først var forundrede over, at det måske var en slags anerkendelse af, at AI har juridisk person, og at dette var en litani af rettigheder for sansende AI og humanoide robotter. Nej, vi er der ikke endnu. Som du vil se om et øjeblik, er vi ikke i nærheden af ​​følende AI, på trods af banneroverskrifterne, der synes at fortælle os noget andet.

Okay, så har vi brug for en plan, der præciserer menneskerettighederne i en tidsalder med kunstig intelligens?

Ja, det gør vi helt sikkert.

Du ville næsten være nødt til at være låst inde i en hule og være fraværende af internetadgang for ikke at vide, at AI allerede og i stigende grad griber ind i vores rettigheder. Den seneste æra af AI blev oprindeligt set som værende AI til gode, hvilket betyder, at vi kunne bruge AI til at forbedre menneskeheden. I hælene på AI til gode kom erkendelsen af, at vi også er fordybet i AI For Bad. Dette inkluderer kunstig intelligens, der er udtænkt eller selvforandret til at være diskriminerende og foretager beregningsmæssige valg, der gennemsyrer unødige skævheder. Nogle gange er AI'en bygget på den måde, mens den i andre tilfælde svinger ind i det uheldige territorium.

For min løbende og omfattende dækning og analyse af AI-lovgivning, AI-etik og andre vigtige AI-teknologiske og samfundstendenser, se linket her , linket her, For blot at nævne nogle få.

Udpakning af AI Bill Of Rights

Jeg har tidligere diskuteret AI Bill of Rights og vil lave en hurtig opsummering her.

Som en sidebemærkning, hvis du gerne vil vide mine dybtgående fordele og ulemper ved den nyligt udgivne AI Bill of Rights, har jeg detaljeret min analyse i et opslag på advokatSe linket her. Det advokat er et bemærkelsesværdigt juridisk nyheds- og kommentarwebsted, kendt bredt som en prisvindende juridisk nyhedstjeneste drevet af et globalt team af jurastuderende journalister, redaktører, kommentatorer, korrespondenter og indholdsudviklere, og har hovedkvarter på University of Pittsburgh School of Law i Pittsburgh, hvor det begyndte for over 25 år siden. Shoutout til det fremragende og hårdtarbejdende team kl advokat.

I AI Bill of Rights er der fem keystone-kategorier:

  • Sikre og effektive systemer
  • Algoritmisk diskriminationsbeskyttelse
  • Databeskyttelse
  • Bemærkning og forklaring
  • Menneskelige alternativer, omtanke og tilbagefald

Bemærk, at jeg ikke nummererede dem fra et til fem, da det kan betyde, at de er i en bestemt rækkefølge, eller at en af ​​rettighederne tilsyneladende er vigtigere end den anden. Vi vil antage, at de er hver for sig. De er alle på en måde lige fortjenstfulde.

Som en kort indikation af, hvad hver enkelt består af, er her et uddrag fra den officielle hvidbog:

  • Sikre og effektive systemer: "Du bør være beskyttet mod usikre eller ineffektive systemer. Automatiserede systemer bør udvikles med høring fra forskellige samfund, interessenter og domæneeksperter for at identificere bekymringer, risici og potentielle påvirkninger af systemet."
  • Algoritmisk diskriminationsbeskyttelse: “Du bør ikke blive udsat for diskrimination af algoritmer og systemer bør bruges og designes på en retfærdig måde. Algoritmisk diskrimination opstår, når automatiserede systemer bidrager til uberettiget forskellig behandling eller påvirker mennesker til ugunst baseret på deres race, hudfarve, etnicitet, køn (herunder graviditet, fødsel og relaterede medicinske tilstande, kønsidentitet, interseksuel status og seksuel orientering), religion, alder , national oprindelse, handicap, veteranstatus, genetisk information eller enhver anden klassifikation, der er beskyttet ved lov."
  • Databeskyttelse: "Du bør være beskyttet mod misbrug af datapraksis via indbyggede beskyttelser, og du bør have styr på, hvordan data om dig bruges. Du bør beskyttes mod krænkelser af privatlivets fred gennem designvalg, der sikrer, at sådanne beskyttelser er inkluderet som standard, herunder at sikre, at dataindsamlingen er i overensstemmelse med rimelige forventninger, og at kun data, der er strengt nødvendige for den specifikke kontekst, indsamles."
  • Meddelelse og forklaring: "Du skal vide, at et automatiseret system bliver brugt og forstå, hvordan og hvorfor det bidrager til resultater, der påvirker dig. Designere, udviklere og implementere af automatiserede systemer bør levere almindeligt tilgængelig dokumentation i almindeligt sprog, herunder klare beskrivelser af den overordnede systemfunktion og den rolle automatisering spiller, lægge mærke til, at sådanne systemer er i brug, den person eller organisation, der er ansvarlig for systemet, og forklaringer af resultater, der er klare, rettidige og tilgængelige."
  • Menneskelige alternativer, overvejelser og tilbagefald: ”Du skal kunne fravælge, hvor det er relevant, og have adgang til en person, der hurtigt kan overveje og afhjælpe problemer, du støder på. Du bør være i stand til at fravælge automatiserede systemer til fordel for et menneskeligt alternativ, hvor det er relevant."

I det store og hele er dette facetter af menneskerettigheder, som har været fløjtet rundt i et stykke tid i forbindelse med AI-etik og AI-lovgivning, se min dækning som f.eks. linket her. Hvidbogen trækker tilsyneladende ikke på magisk vis en kanin op af hatten med hensyn til en nyopdaget eller udgravet ret, der hidtil ikke er blevet belyst i en AI-æra sammenhæng.

Det er okay.

Du kan hævde, at samlingen af ​​dem i en pænt pakket og formaliseret samling giver en vital service. Plus, ved at blive salvet som en anerkendt AI Bill of Rights, dette sætter yderligere hele sagen åbenlyst og dygtigt ind i den offentlige sfæres bevidsthed. Det samler en eksisterende overflod af forskellige diskussioner til et enestående sæt, der nu kan udbasuneres og formidles på tværs af alle slags interessenter.

Tillad mig at tilbyde denne liste over positive reaktioner på den annoncerede AI Bill of Rights:

  • Giver en væsentlig samling af keystone-principper
  • Fungerer som en plan eller et fundament at bygge videre på
  • Fungerer som en opfordring til handling
  • Spørger interesse og viser, at det er alvorlige overvejelser
  • Samler et væld af forskellige diskussioner
  • Udløser og bidrager til etisk AI-adoptionsindsats
  • Vil uden tvivl bidrage til etableringen af ​​AI-love
  • Andet

Vi er også nødt til at overveje de mindre gunstige reaktioner, idet vi tager i betragtning, at der er meget mere arbejde, der skal gøres, og at dette kun er starten på en længere rejse på den besværlige vej med at styre AI.

Som sådan omfatter noget hård eller skal vi sige konstruktiv kritik af AI Bill of Rights:

  • Ikke juridisk håndhæver og fuldstændig uforpligtende
  • Kun rådgivende og betragtes ikke som statslig politik
  • Mindre omfattende i forhold til andre publicerede værker
  • Består primært af brede begreber og mangler implementeringsdetaljer
  • Det bliver en udfordring at omdanne til faktiske levedygtige praktiske love
  • Tilsyneladende tavs om det truende spørgsmål om muligvis at forbyde AI i nogle sammenhænge
  • Anerkender marginalt fordelene ved at bruge AI, der er gennemtænkt
  • Andet

Den måske mest fremtrædende skarpe kommentar har centreret sig om det faktum, at denne AI Bill of Rights ikke kan håndhæves juridisk og dermed ikke holder vand, når det kommer til at etablere klare målposter. Nogle har sagt, at selvom hvidbogen er hjælpsom og opmuntrende, mangler den bestemt tænder. De stiller spørgsmålstegn ved, hvad der kan komme ud af et efter sigende hultandet sæt smarte forskrifter.

Jeg vil tage fat på de bidende bemærkninger om et øjeblik.

I mellemtiden angiver hvidbogen rigeligt begrænsningerne af, hvad denne AI Bill of Rights indebærer:

  • "Blueprint for en AI Bill of Rights er ikke-bindende og udgør ikke den amerikanske regerings politik. Den træder ikke i stedet for, ændrer eller styrer en fortolkning af nogen eksisterende statut, forordning, politik eller internationalt instrument. Det udgør ikke bindende vejledning for offentligheden eller føderale agenturer og kræver derfor ikke overholdelse af principperne beskrevet heri. Det er heller ikke afgørende for, hvad den amerikanske regerings holdning vil være i enhver international forhandling. Vedtagelse af disse principper opfylder muligvis ikke kravene i eksisterende vedtægter, regulativer, politikker eller internationale instrumenter, eller kravene fra de føderale agenturer, der håndhæver dem. Disse principper har ikke til hensigt at forbyde eller begrænse nogen lovlig aktivitet udført af et statsligt organ, herunder retshåndhævelse, national sikkerhed eller efterretningsvirksomhed" (i henhold til hvidbogen).

For dem, der har været hurtige til at underbyde AI Bill of Rights som værende juridisk ikke-bindende, lad os lave lidt af et tankeeksperiment på den stikkende påstand. Antag, at hvidbogen blev udgivet og havde lovens fulde kraft. Jeg tør godt påstå, at resultatet ville blive noget katastrofalt, i det mindste med hensyn til både juridiske og samfundsmæssige reaktioner på proklamationen.

Lovgivere ville være oprejste over, at indsatsen ikke havde gennemført de normative processer og juridiske procedurer ved at sammensætte sådanne love. Virksomheder ville med rette blive rasende over at få nye love frem uden tilstrækkelig meddelelse og bevidsthed om, hvad disse love er. Enhver form for bestyrtelse og forargelse ville følge.

Det er ikke en god måde at trække sig mod at styrke menneskehedens rettigheder i en AI-æra.

Husk på, at jeg tidligere havde indledt denne diskussion ved at bringe værdien og vitaliteten af ​​tegninger op.

Forestil dig, at nogen hoppede forbi trinnet med at lave tegninger og straks hoppede ind i at bygge dit drømmehus. Hvordan tror du huset ville se ud? Det virker som et rimeligt bud på, at huset ikke vil matche det, du havde i dit sind. Den resulterende gård kan være et totalt rod.

Essensen er, at vi har brug for tegninger, og vi har nu en for at komme videre med at finde ud af fornuftige AI-love og styrke etiske AI-adoptioner.

Jeg vil derfor gerne tage fat på de måder, hvorpå denne AI Bill of Rights-plan så at sige kan omdannes til et hus. Hvordan skal vi bruge planen? Hvad er de passende næste skridt? Kan denne plan være tilstrækkelig, eller skal der mere kød på knoglerne?

Før vi springer ind i de store sager, vil jeg gerne først sikre mig, at vi alle er på samme side om arten af ​​AI, og hvad dagens status består af.

Sætter rekorden om dagens AI

Jeg vil gerne komme med en meget eftertrykkelig udtalelse.

Er du klar?

Der er ikke nogen AI i dag, der er sansende.

Det har vi ikke. Vi ved ikke, om sansende AI vil være mulig. Ingen kan passende forudsige, om vi vil opnå sansende AI, eller om sansende AI på en eller anden måde mirakuløst spontant vil opstå i en form for computerkognitiv supernova (normalt omtalt som singulariteten, se min dækning på linket her).

Den type AI, som jeg fokuserer på, består af den ikke-sansende AI, som vi har i dag. Hvis vi ville spekulere vildt om sansende AI, kunne denne diskussion gå i en radikalt anden retning. En sansende AI ville angiveligt være af menneskelig kvalitet. Du skal overveje, at den sansende AI er den kognitive ækvivalent til et menneske. Mere så, eftersom nogle spekulerer på, at vi måske har superintelligent AI, er det tænkeligt, at sådan AI kan ende med at blive smartere end mennesker (for min udforskning af superintelligent AI som en mulighed, se dækningen her).

Jeg vil kraftigt foreslå, at vi holder tingene nede på jorden og overvejer nutidens beregningsmæssige ikke-sansende AI.

Indse, at nutidens AI ikke er i stand til at "tænke" på nogen måde på lige fod med menneskelig tænkning. Når du interagerer med Alexa eller Siri, kan samtalekapaciteten virke beslægtet med menneskelige kapaciteter, men virkeligheden er, at den er beregningsmæssig og mangler menneskelig erkendelse. Den seneste æra af AI har gjort omfattende brug af Machine Learning (ML) og Deep Learning (DL), som udnytter computational pattern matching. Dette har ført til AI-systemer, der ser ud som menneskelignende tilbøjeligheder. I mellemtiden er der ikke nogen kunstig intelligens i dag, der har et antydning af sund fornuft og heller ikke noget af den kognitive undren ved robust menneskelig tænkning.

Vær meget forsigtig med at antropomorfisere nutidens AI.

ML/DL er en form for computational pattern matching. Den sædvanlige tilgang er, at du samler data om en beslutningsopgave. Du føder dataene ind i ML/DL-computermodellerne. Disse modeller søger at finde matematiske mønstre. Efter at have fundet sådanne mønstre, hvis det er fundet, vil AI-systemet bruge disse mønstre, når de støder på nye data. Ved præsentationen af ​​nye data anvendes mønstrene baseret på de "gamle" eller historiske data til at gøre en aktuel beslutning.

Jeg tror, ​​du kan gætte, hvor det er på vej hen. Hvis mennesker, der har truffet de mønstrede beslutninger, har inkorporeret uønskede skævheder, er oddsene, at dataene afspejler dette på subtile, men væsentlige måder. Machine Learning eller Deep Learning computational pattern matching vil blot forsøge at matematisk efterligne dataene i overensstemmelse hermed. Der er ingen antydning af sund fornuft eller andre sansende aspekter af AI-fremstillet modellering i sig selv.

Desuden er AI-udviklerne måske heller ikke klar over, hvad der foregår. Den mystiske matematik i ML/DL kan gøre det svært at fjerne de nu skjulte skævheder. Du ville med rette håbe og forvente, at AI-udviklerne ville teste for de potentielt begravede skævheder, selvom dette er vanskeligere, end det måske ser ud til. Der er en solid chance for, at selv med relativt omfattende test, vil der stadig være skævheder indlejret i mønstermatchende modeller af ML/DL.

Du kunne lidt bruge det berømte eller berygtede ordsprog om skrald-ind skrald-ud. Sagen er, at dette er mere beslægtet med biases-in, der snigende bliver infunderet som skævheder nedsænket i AI. Algoritmebeslutningstagningen (ADM) af AI bliver aksiomatisk fyldt med uligheder.

Ikke godt.

Alt dette har væsentlige AI-etiske implikationer og giver et praktisk vindue til erfaringer (selv før alle lektionerne sker), når det kommer til at forsøge at lovgive AI.

Udover at anvende AI-etiske forskrifter generelt, er der et tilsvarende spørgsmål om, hvorvidt vi skal have love til at regulere forskellige anvendelser af AI. Nye love bliver bandet rundt på føderalt, statsligt og lokalt niveau, der vedrører rækkevidden og arten af, hvordan AI skal udformes. Bestræbelserne på at udarbejde og vedtage sådanne love er gradvist. AI-etik fungerer i det mindste som en overvejet stopklods og vil næsten helt sikkert til en vis grad blive direkte indarbejdet i disse nye love.

Vær opmærksom på, at nogle stejlt hævder, at vi ikke har brug for nye love, der dækker AI, og at vores eksisterende love er tilstrækkelige. De advarer om, at hvis vi vedtager nogle af disse AI-love, vil vi dræbe den gyldne gås ved at slå ned på fremskridt inden for AI, der giver enorme samfundsmæssige fordele.

I tidligere spalter har jeg dækket de forskellige nationale og internationale bestræbelser på at udarbejde og vedtage love, der regulerer AI, se linket her, for eksempel. Jeg har også dækket de forskellige AI-etiske principper og retningslinjer, som forskellige nationer har identificeret og vedtaget, herunder f.eks. FN-indsatsen såsom UNESCO-sættet af AI-etik, som næsten 200 lande har vedtaget, se linket her.

Her er en nyttig keystone-liste over etiske AI-kriterier eller karakteristika vedrørende AI-systemer, som jeg tidligere har udforsket nøje:

  • Gennemsigtighed
  • Retfærdighed og Retfærdighed
  • Ikke-ondskab
  • Ansvarlighed
  • Privatliv
  • godgørenhed
  • Frihed & Autonomi
  • Stol
  • Bæredygtighed
  • Værdighed
  • Solidaritet

Disse AI-etiske principper formodes oprigtigt at blive brugt af AI-udviklere, sammen med dem, der styrer AI-udviklingsindsatsen, og endda dem, der i sidste ende udfører og udfører vedligeholdelse på AI-systemer.

Alle interessenter gennem hele AI-livscyklussen for udvikling og brug betragtes inden for rammerne af at overholde de etablerede normer for etisk AI. Dette er et vigtigt højdepunkt, da den sædvanlige antagelse er, at "kun kodere" eller dem, der programmerer AI'en, er underlagt de AI-etiske begreber. Som tidligere understreget heri, kræver det en landsby at udtænke og udforme AI, og som hele landsbyen skal være fortrolig med og overholde AI-etiske forskrifter.

Nu hvor jeg har lagt et nyttigt grundlag, er vi klar til at dykke længere ned i AI Bill of Rights.

Fire essentielle måder at implementere AI Bill of Rights på

Nogen giver dig en plan og fortæller dig, at du skal på arbejde.

Hvad gør du?

I tilfælde af AI Bill of Rights som en blueprint, skal du overveje disse fire væsentlige trin for at komme videre:

  • Tjen som input til at formulere AI-love: Brug planen til at hjælpe med at formulere AI-love, og gør det forhåbentlig på et afstemt grundlag på føderalt, statsligt og lokalt niveau (måske også hjælpe med international AI-lovgivning).
  • Hjælp til at få AI-etik mere udbredt: Brug planen til at fremme AI-etiske formuleringer (nogle gange omtalt som "bløde love" i sammenligning med juridisk bindende "hårde love"), gør det for at inspirere og guide virksomheder, enkeltpersoner, statslige enheder og andre valgkredse mod bedre og mere konsekvente etiske AI-resultater.
  • Shape AI-udviklingsaktiviteter: Brug planen til at anspore skabelsen af ​​AI-udviklingsmetoder og træningsaspekter, gør det for at forsøge at få AI-udviklere og dem, der arbejder med eller anvender AI til at være mere bevidste om, hvordan man udtænker AI efter ønskelige AI-etiske forskrifter og i forventning. af forestående AI-love, der bliver vedtaget.
  • Motivere fremkomsten af ​​AI for at hjælpe med at kontrollere AI: Brug planen til at udtænke AI, der vil blive brugt til at forsøge at tjene som en check-and-balance mod anden AI, der måske er på vej ind i det uheldige territorium. Dette er et af de makroskopiske synspunkter, hvorved vi kan bruge netop den ting, som vi finder tilsyneladende bekymrende til også (ironisk nok, kan man sige) at hjælpe med at beskytte os.

Jeg har diskuteret hvert af de førnævnte fire trin gennem mine indlæg i kolonnen.

Til denne diskussion heri vil jeg gerne fokusere på det fjerde listede trin, nemlig at AI Bill of Rights kan tjene som en motivator mod fremkomsten af ​​AI for at hjælpe med at kontrollere AI. Dette er et noget chokerende eller overraskende skridt for mange, der endnu ikke er kommet helt ind i denne AI-fremskridende verden.

Tillad mig at uddybe.

En simpel analogi burde gøre tricket. Vi er alle i disse dage vant til cybersikkerhedsbrud og hacker-indbrud. Næsten hver dag hører vi om eller er berørt af et eller andet seneste smuthul i vores computere, som vil tillade ondsindede gerningsmænd at snuppe vores data eller placere et skørt stykke ransomware på vores bærbare computere.

Et middel til at bekæmpe disse afskyelige forsøg består i at bruge specialiseret software, der forsøger at forhindre disse indbrud. Du har næsten helt sikkert en antivirus-softwarepakke på din computer derhjemme eller på arbejdet. Der er sandsynligvis noget lignende på din smartphone, uanset om du er klar over, at det er der eller ej.

Min pointe er, at nogle gange er du nødt til at bekæmpe ild med ild (se min dækning om dette, såsom kl linket her , linket her).

I tilfælde af AI, der lander i det verboten-rige AI For Bad, kan vi søge at bruge AI til gode der kæmper med det ondsindede AI For Bad. Dette er naturligvis ikke en mirakelkur. Som du ved, foregår der en konstant kat-og-mus-gambit mellem ondsindede, der søger at bryde ind i vores computere, og de fremskridt, der sker inden for cybersikkerhedsbeskyttelse. Det er et næsten uendeligt spil.

Vi kan bruge AI til at forsøge at håndtere AI, der er gået ad en forbudt vej. At gøre det vil hjælpe. Det vil ikke specielt være en sølvkugle, da den negative AI, der er målrettet mod, næsten helt sikkert vil blive udtænkt for at undgå sådanne beskyttelser. Dette vil være igangværende kat-og-mus af AI versus AI.

Under alle omstændigheder vil den AI, vi bruger til at beskytte os selv, give en vis grad af beskyttelse mod dårlig AI. Derfor er vi utvivlsomt nødt til at udtænke AI, der kan beskytte eller beskytte os. Og vi bør også forsøge at skabe den beskyttende AI til at justere, efterhånden som den dårlige AI tilpasser sig. Der vil være et voldsomt udseende af lynhurtigt kat-og-mus.

Ikke alle nyder denne udvidelse af AI's rolle.

Dem, der allerede opfatter AI som et homogent amorft konglomeration, ville få gåsehud og mareridt ved denne foregivne AI-versus-AI gambit. Hvis vi forsøger at sætte ild mod ild, laver vi måske blot et endnu større bål. AI kommer til at blive et massivt bål, som vi ikke længere kontrollerer og vil vælge at slavebinde menneskeheden eller udslette os fra planeten. Når det kommer til at diskutere AI som en eksistentiel risiko, forledes vi normalt til at tro, at al AI vil slå sig sammen, se min diskussion om disse spørgsmål på linket her. Ser du, vi får at vide, at hvert stykke AI vil gribe fat i sine brødre AI og blive en stor overherre enhedsfamilie.

Det er det forfærdelige og decideret foruroligende scenarie med sansende AI som en sømløs alt-for-en- og en-for-alle-mafia.

Selvom du frit er velkommen til at komme med sådanne formodninger om, at dette kan ske en dag, forsikrer jeg dig om, at den AI, vi har i dag, indtil videre består af vognlæs af adskilte forskellige AI-programmer, som ikke har nogen særlig måde at konspirere med hinanden på.

Når det er sagt, er jeg sikker på, at de, der inderligt tror på AI-konspirationsteorier, vil insistere på, at jeg målrettet har sagt dette for at skjule sandheden. Aha! Måske bliver jeg betalt af dagens AI, der allerede planlægger den store AI-overtagelse (ja siree, jeg vil bade i rigdomme, når AI-overherrerne hersker). Eller, og jeg foretrækker bestemt ikke denne anden vinkel, måske er jeg blindt uvidende om, hvordan AI hemmeligt plotter bag vores ryg. Jeg tror, ​​vi bliver nødt til at vente og se, om jeg er en del af AI-kuppet eller en AI-abject patsy (uh, det gør ondt).

For at komme tilbage til jordiske overvejelser, lad os kort undersøge, hvordan moderne kunstig intelligens kan bruges til at hjælpe med implementeringen af ​​AI Bill of Rights. Jeg vil bekvemt og kortfattet omtale dette som God AI.

Vi vil bruge de fem hjørnesten, der er inkorporeret i AI Bill of Rights:

  • God AI til promovering Sikre og effektive systemer: Når du er underlagt eller bruger et AI-system, forsøger Good AI at finde ud af, om den AI, der bliver brugt, er usikker eller ineffektiv. Ved en sådan detektering vil den gode AI muligvis advare dig eller foretage andre handlinger, herunder blokering af den dårlige AI.
  • God AI til at levere Algoritmisk diskriminationsbeskyttelse: Mens du bruger et AI-system, der kan indeholde diskriminerende algoritmer, God AI forsøger at fastslå, om der er utilstrækkelige beskyttelser for dig og søger at afgøre, om der faktisk eksisterer unødige skævheder i den anvendte AI. Den gode AI kunne informere dig og muligvis også automatisk rapportere den anden AI til forskellige myndigheder, som måtte være fastsat af AI-love og juridiske krav.
  • God AI til at bevare Datasikkerhed: Denne type god AI forsøger at beskytte dig mod invasioner af databeskyttelse. Når en anden AI søger at anmode om data, der måske ikke er reelt behov for dig, vil den gode AI gøre dig opmærksom på overskridelsen. Den gode AI kan også potentielt maskere dine data på en måde, der vil bevare dine databeskyttelsesrettigheder, når de bliver ført til den anden AI. Etc.
  • God AI til etablering Meddelelse og forklaring: Vi vil sandsynligvis alle støde på AI-systemer, der i høj grad mangler i at levere korrekte og passende meddelelser, og som desværre ikke kan fremvise en passende forklaring på deres handlinger. God AI kan forsøge at fortolke eller udspørge den anden AI, hvilket gør det for potentielt at identificere meddelelser og forklaringer, der skulle have været givet. Selvom det ikke er muligt at gøre i et givet tilfælde, vil den gode AI i det mindste advare dig om fejlene i den anden AI og muligvis rapportere AI'en til udpegede myndigheder baseret på fastsatte AI-love og lovkrav.
  • God AI til at tilbyde Menneskelige alternativer, overvejelser og tilbagefald: Antag, at du bruger et AI-system, og AI'en tilsyneladende ikke er op til opgaven. Du er måske ikke klar over, at tingene går surt, eller du er måske noget forsigtig og usikker på, hvad du skal gøre ved situationen. I et sådant tilfælde ville God AI stille og roligt undersøge, hvad den anden AI laver og kunne advare dig om vitale bekymringer omkring den AI. Du vil derefter blive bedt om at anmode om et menneskeligt alternativ til AI (eller den gode AI kunne gøre det på dine vegne).

For at forstå yderligere, hvordan denne slags God AI kan udvikles og felter, se min populære og højt vurderede AI-bog (beæret over at sige, at den er blevet noteret som en "Top Ti") om, hvad jeg generelt har henvist til som AI-skytsengle, se linket her.

Konklusion

Jeg ved, hvad du tænker. Hvis vi har god AI, der er udtænkt til at beskytte os, så antag, at den gode AI bliver korrumperet til at blive dårlig AI. Den berømte eller berygtede latinske sætning virker fuldt ud relevant for denne mulighed: Quis custodiet ipsos custodes?

Sætningen er tilskrevet den romerske digter Juvenal og kan findes i hans værk med titlen satirer, og kan løst oversættes til, hvem der selv vil vogte eller holde øje med vagterne. Mange film og tv-serier som f.eks Star Trek har udnyttet denne linje gentagne gange.

Det er helt sikkert, fordi det er en fremragende pointe.

Sikkert nok skal enhver AI-love, der bliver vedtaget, omfatte både den dårlige AI og endda den gode AI, der går dårligt. Derfor vil det være afgørende at skrive fornuftige og omfattende AI-love. Lovgivere, der bare forsøger at smide tilfældige legalese i væggen og håber, at det holder med respekt for AI-lovene, vil opleve, at de dybt savner målet.

Det behøver vi ikke.

Vi har hverken tid til eller kan bære de samfundsmæssige omkostninger til at klare utilstrækkeligt udtænkte AI-love. Jeg har påpeget, at vi desværre til tider er vidne til nye AI-relaterede love, der er dårligt sammensat og fyldt med alle mulige juridiske lidelser, se for eksempel min sonderende analyse af New York City (NYC) AI Biases revisionslovgivning på linket her.

Lad os sikre os, at vi korrekt bruger AI Bill of Rights-planen, som vi nu har i hånden vedrørende AI. Hvis vi ignorerer planen, har vi tabt på at have optrappet vores spil. Hvis vi fejlagtigt implementerer planen, skam os for at have tilranet os et nyttigt grundlag.

Den ærede romerske digter Juvenal sagde noget andet, som vi kan udnytte i denne situation: Anima sana in corpore sano.

Generelt oversættes dette til påstanden om, at det ville være klogt at have både et sundt eller sundt sind og en sund eller sund krop. Dette giver os mulighed for at udholde enhver form for slid, ifølge Juvenal, og vil helt sikkert være den eneste vej til et liv i fred eller dyd.

Det er på tide, at vi bruger et sundt sind og en sund krop til at sikre, at vi sikrer, at menneskeheden vil have vores menneskerettigheder bevaret og solidt befæstet i den nye verden af ​​allestedsnærværende og til tider upassende AI. Det er et sundt råd fra romerne, som vi burde overholde i dagens travlhed midt i en AI-pels-mellem epoke og en fremtid, der er afgørende fyldt med både god og dårlig AI.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- bill-of-right-inklusive-og-forbavsende-ved-bruge-ai-retligt/