AI-etik overvejer fordelene ved lovligt at pålægge forsoningsmidler for at sikre ansvarlighed for AI, der handler dårligt

Hvem har skylden?

Det kan virke som et ligetil spørgsmål, selvom i tilfældet med den berømte komedie af den legendariske duo Abbott og Costello om et baseballhold, kan "hvem" være forvirrende. Du er måske vagt bekendt med Hvem er først komisk rutine, som de gjorde til en af ​​de mest udholdende sketcher nogensinde (spoileralarm for dem af jer, der ikke har hørt det).

Abbott fortæller Costello, at Who's on first, What's on the second, and I Don't Know er på tredjepladsen. Det smarte trick er, at den første baseman hedder Hvem, den anden baseman hedder Hvad, og den tredje baseman hedder I Don't Know. Selvfølgelig har disse sætninger også deres konventionelle betydning, og det kan derfor være fuldstændig forvirrende at forsøge at fortolke, hvad Abbott siger. Faktisk stiller Costello det tilsyneladende uskyldige spørgsmål om, hvem der er først, hvortil svaret er et bestemt ja. Men dette giver ikke mening for Costello, da han forventede et navn og i stedet modtog et forvirrende ja som svar.

At skifte gear, når det kommer til fremkomsten af ​​kunstig intelligens (AI), indebærer et af de mest irriterende spørgsmål, der bliver stillet, hvem eller måske hvad der vil blive holdt ansvarlig, når AI kommer på afveje.

Jeg har tidligere diskuteret det strafferetlige ansvar for, hvornår AI fører til eller udfører kriminelle handlinger, se min dækning på linket her. Der er også spørgsmålet om civil ansvarlighed, såsom hvem eller hvad du kan sagsøge, når AI har gjort dig forkert, hvilket er det emne, jeg vil diskutere heri. Alt dette har væsentlige AI-etiske overvejelser. For min løbende og omfattende dækning af AI-etik og etisk AI, se linket her , linket her, For blot at nævne nogle få.

AI-etikkens forskrifter får os til at forblive på vagt. AI-teknologer kan til tider blive optaget af teknologi, især optimering af højteknologi. De overvejer ikke nødvendigvis de større samfundsmæssige konsekvenser. At have en AI-etik-tankegang og at gøre det integreret i AI-udvikling og -markering er afgørende for at producere passende AI, herunder (måske overraskende eller ironisk nok) vurderingen af, hvordan AI-etik bliver adopteret af virksomheder.

Udover at anvende AI-etiske forskrifter generelt, er der et tilsvarende spørgsmål om, hvorvidt vi skal have love til at regulere forskellige anvendelser af AI. Nye love bliver bandet rundt på føderalt, statsligt og lokalt niveau, der vedrører rækkevidden og arten af, hvordan AI skal udformes. Bestræbelserne på at udarbejde og vedtage sådanne love er gradvist. AI-etik fungerer i det mindste som en overvejet stopklods og vil næsten helt sikkert til en vis grad blive direkte indarbejdet i disse nye love.

Vær opmærksom på, at nogle stejlt hævder, at vi ikke har brug for nye love, der dækker AI, og at vores eksisterende love er tilstrækkelige. Faktisk advarer de om, at hvis vi vedtager nogle af disse AI-love, vil vi dræbe den gyldne gås ved at slå ned på fremskridt inden for AI, der giver enorme samfundsmæssige fordele.

En ophedet debat, der finder sted, er, om eksisterende love er i stand til på passende vis at adressere fremkomsten af ​​AI-systemer i hele samfundet. Juridisk ansvar kræver typisk, at man kan sætte halen på æslet for, hvem der er ansvarlig for skadelig adfærd. I tilfælde af AI kan der være en ret uklar vej, der binder en bestemt person eller personer til den AI, der udførte en skadelig handling. AI'en kan stort set ikke spores til kilden eller opfinderen, der komponerede AI'en.

En anden overvejelse er, at selvom AI'ens rødder kan spores til nogen, er spørgsmålet, om personen eller personerne måske ikke med rimelighed kunne forudse det negative resultat, som AI'en i sidste ende producerede. Kernen i forudsigelighed er en sædvanligvis bemærkelsesværdig faktor ved vurderingen af ​​juridisk ansvar.

Du kan blive fristet til at tro, at du blot kan gå efter selve AI'en og udnævne AI'en som den juridiske part, der er ansvarlig eller ansvarlig for enhver skade, der angiveligt er pådraget. I det store og hele er den fremherskende juridiske opfattelse, at AI endnu ikke har nået et niveau af juridisk person. Således vil du strengt taget ikke kunne søge at få AI til at betale og bliver nødt til at finde mennesker, der arbejdede på håndtagene bag kulisserne, som det var (for min analyse af juridisk personskab for AI, se linket her).

Ind i alt dette potentielle juridiske morads træder en idé, der flyder som et muligt middel, enten på kort sigt eller muligvis på lang sigt. Tanken er, at der måske burde oprettes en særlig kompensationsfond for at yde økonomisk hjælp til dem, der er blevet skadet af AI. Hvis du ellers ikke er i stand til at få AI'en til at kompensere dig, og du ikke kan finde frem til de personer, der formodentligt burde holdes ansvarlige, kan den næstbedste mulighed være at bruge en kompenserende fond, der har til formål at hjælpe dem, der er skadet af AI.

En sådan fond ville være beslægtet med en slags forsikring, som det hedder i en tankevækkende forskningsartikel: "Dette ville i det væsentlige være en forsikringsmekanisme mod usikkerhed: En klar og gennemsigtig ramme for hurtig kompensation i tilfælde, hvor en erstatningssag har usikker eller ingen udsigt til succes på grund af den skadelige adfærds uforudsigelige karakter, selve (typen af) skade eller de overdrevne omkostninger og/eller kompleksiteten af ​​proceduren" (artikel af Olivia Erdelyi og Gabor Erdelyi, "AI Liability Puzzle Og en fondsbaseret løsning", Journal of Artificial Intelligence Research, 2021).

Kompensationsfonden vil være en del af en overordnet AI-garantiordning (AIGS) og være ledsaget af nogle lette ændringer af eksisterende love om juridisk ansvar. Den lette berøring ville formentlig være lettere at gennemføre og ikke kræve den besværlige form for juridisk og samfundsmæssig angst, hvis der blev foretaget en mere mave-slidende række demonstrative ændringer af de eksisterende juridiske regimer. Ifølge forskerne: “Dette afspejler vores overbevisning om, at – på trods af appellen af ​​en sådan quick-fix-løsning – den uændret anvendelse af eksisterende ansvarsregler på AI eller en protektionistisk motiveret anvendelse af objektivt ansvar med henblik på at fastslå ansvar for enhver pris er ikke de korrekte svar af tre grunde: For det første, idet de ignorerer, at disse regler er blevet skræddersyet til forskellige omstændigheder og derfor kan være upassende for kunstig intelligens, strider de mod de fint afbalancerede mål i juridisk ansvarssystem. For det andet hæmmer de AI-innovation ved at anvende en unødigt straffende tilgang. For det tredje omgår unødig ty til objektivt ansvar blot forudsigelighed og fejlproblemer på en dogmatisk inkonsekvent måde i stedet for at afhjælpe dem” (som i det ovennævnte papir).

Argumenter til fordel for sådanne AI-kompenserende fonde omfatter:

  • Reducerer behovet for langvarige og dyre juridiske retssager for at klare AI-påførte skader
  • Forsikrer mennesker om, at de kan gøre brug af kunstig intelligens og blive kompenseret, hvis de kommer til skade
  • Fremmer AI-innovation ved at afhjælpe den juridiske usikkerhed, som AI-innovatorer står over for
  • Kan tages i brug langt hurtigere end at lave massive ændringer i eksisterende love
  • Giver et relativt entydigt middel, der er pålideligt og let tilgængeligt
  • Andet

I mellemtiden siger de, der er imod tilgangen til AI-kompenserende midler, dette:

  • Lad os AI-skabere overdrevent løs og give dem mulighed for at undvære ansvarlighed
  • Vil opmuntre AI-skabere til at lave AI, der mangler pligtopfyldende sikkerhed og ordentlige kontroller
  • Kan tilskynde folk til falsk at hævde AI-skader, så de kan udnytte midlerne
  • Omgår og underminerer det sande behov for at revidere vores love for at regulere AI tilstrækkeligt
  • Kunne blive et bureaukratisk mareridt, der bunder og misbruger midlerne
  • Andet

Som det måske fremgår, er der både tilhængere og modstandere af denne helt kontroversielle opfattelse.

Du ville være hårdt presset for kort at udelukke AI-kompensationsfonden som en potentiel tilgang til de stigende bekymringer om AI, der forårsager skade. Heller ikke den foreslåede løsning er en slam dunk.

Et synspunkt er, at AI-producenter bliver nødt til at sætte penge ind i fondene som en del af deres indsats, når de udtænker og udbreder AI. Dette kunne opfattes som en slags gebyr eller skat, som de er forpligtet til at bære som en del af at kunne frigive deres AI til verden. Men undertrykker disse ekstra omkostninger potentielt indsatsen fra startups, der forsøger at skubbe grænserne for nutidens AI? Og hvordan ville håndhævelsen af ​​at sikre, at AI-producenter betalte deres gebyr eller skat blive håndteret?

Der opstår en række spørgsmål, som skal uddybes:

  • Hvilke lande ville en AI-kompensationsfond være bedst mulig i?
  • Kunne der etableres et globalt udseende af indbyrdes forbundne AI-kompensationsfonde?
  • Hvad ville være de detaljerede og brugbare mekanismer forbundet med sådanne midler?
  • Hvordan skal AI-kompensationsmidlerne finansieres (offentlige, private, velgørende)?
  • Ville dette være et fejlfrit forsikringsgrundlag, eller ville der blive taget en anden tilgang?
  • Osv

Et rige, der allerede har haft ideen om AI-kompenserende midler, består af autonome systemer såsom autonome køretøjer og selvkørende biler. For min dækning af selvkørende biler og AI autonome systemer, se linket her.

Her er en skitse af, hvordan dette kan fungere for AI-baserede selvkørende biler.

Antag, at en selvkørende bil kører ind i en cykelrytter. Cykelrytteren kommer til skade. Cykelrytteren kan søge juridisk erstatning ved at forfølge bilproducenten af ​​det autonome køretøj. Eller de kan sigte mod det selvkørende teknologifirma, der lavede AI-køresystemet. Hvis den selvkørende bil drives som en flåde, ville en anden lovlig vej være at forfølge flådeoperatøren. At forsøge at sagsøge AI er ikke en mulighed på dette tidspunkt, da AI's juridiske person endnu ikke er etableret.

I stedet for at tage retslige skridt mod nogen af ​​disse parter, ville en anden udvej være at indgive en ansøgning eller et krav til en passende AI-kompensationsfond. Fonden ville have formaliserede processer, der involverede gennemgang af kravet, og derefter afgøre, hvad der, hvis nogen, kompenserende betalinger kunne ydes til sagsøgeren. Der kan være en klageproces, der hjælper sagsøgere, der mener, at de enten med urette er blevet afvist af fonden eller utilstrækkeligt kompenseret af fonden.

I teorien ville AI-kompensationsfonden være en meget hurtigere vej mod at få kompensation for den påførte skade. Du kan forestille dig, hvor besværligt en retssag kan være, hvorved de firmaer, der bliver sagsøgt, kan forsøge at trække sagen ud.

Advokater kan dog understrege, at AI-kompensationsfonden kunne lade de andre parter, såsom AI-producenterne, tilsyneladende undgå enhver klar straf for at have sluppet deres selvkørende bil løs på offentlige veje, der endte med at ramme en cykelrytter. Hvad kunne disse virksomheder ellers vælge at "skødesløst" gøre? Uden det truende spøgelse af det juridiske sværd, der dingler over deres hoveder, kunne vi dagligt konfrontere AI, der er fyldt med truende kapaciteter.

Argumenterne går rundt og rundt.

Konklusion

AI Ethics minder os om, at vi altid bør overveje de etiske og juridiske konsekvenser af AI. I dette tilfælde med AI-kompensationsfonde virker den foreslåede idé om en forsikringslignende pulje af midler til at kompensere dem, der er skadet af AI, tillokkende. Midlerne ville tilsyneladende vente der, klar til at blive udnyttet og give den hurtigst mulige kompensation.

Afvejningen af, om dette kan åbne sluserne mod at lave AI, der har færre og færre sikkerhedskontroller, er en skræmmende og alt for reel bekymring. Vi skal nok ikke fylde brænde på en brand, der måske allerede er lidt i gang.

Kan vi på en eller anden måde stadig holde AI-skabere til at udtænke passende etisk AI og samtidig etablere disse AI-kompenserende fonde?

Nogle vil sige, at ja, det kan vi. Ved at ændre eksisterende love for at tilpasse sig AI-kompensationsmidlerne, ville de, der er skadet af AI, potentielt have en dobbelt vej til at søge deres retfærdige kompensation.

Hvem er først på?

Ja, det er dem (som i os alle) ved første varsel, at vi burde overveje den potentielle brug af AI-kompensationsmidler og ændre eksisterende love, selvom det kun er let, hvilket giver et middel til at håndtere angrebet fra både god AI og dårlig AI.

Der er ingen forvirring om den vigtige betragtning.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legaly-mandating-atonement-funds-to-ensure-ai- ansvarlighed/