Ansvarlig AI nyder fremragende boost via AI-etikproklamation fra det topprofessionelle samfund ACM

Har du set eller hørt nyhederne?

Et andet sæt AI-etiske forskrifter er for nylig blevet proklameret.

Lækkert bifald, hvis du vil.

Så igen kan du måske ikke har bemærket det på grund af det faktum, at så mange andre AI Ethics dekreter har svævet rundt i et stykke tid nu. Nogle siger, at den tilsyneladende non-stop gennemstrømning af Ethical AI proklamationer er ved at blive en smule bedøvende. Hvor mange har vi brug for? Kan nogen følge med dem alle? Hvilken er den bedste? Går vi måske overbord med AI-etiske principper? Og så videre.

Nå, i dette særlige tilfælde siger jeg, at vi især bør byde denne seneste tilføjelse til klubben velkommen.

Jeg vil indsigtsfuldt forklare hvorfor om et øjeblik.

For det første, som præcisering, refererer jeg til AI Ethics forskrift, der nu er kendt officielt som "Erklæring om principper for ansvarlige algoritmiske systemer" som for nylig blev udgivet af ACM Technology Policy Council den 26. oktober 2022. Kudos går til de teams af eksperter, der har sammensat dette værdsatte dokument, herunder co-lead forfattere Jeanna Matthews (Clarkson University) og Ricardo Baeza-Yates (Universitat Pompeu Fabra ).

De af jer, der kender det, kan ved nøje inspektion indse, at dette dokument virker svagt bekendt.

Godt øje!

Denne seneste inkarnation er i det væsentlige en opdateret og udvidet variant af den tidligere fælles "Statement on Algorithmic Transparency And Accountability", der blev offentliggjort af ACM US Technology Policy Committee og ACM Europe Technology Policy Committee i 2017. Trofaste læsere af mine spalter husker måske, at Jeg har fra tid til anden nævnt 2017-dekretet i min spaltedækning af nøglefacetter, der ligger til grund for AI-etik og AI-lov.

For min omfattende og løbende vurdering og trendanalyser af AI-etik og AI-lovgivning, se linket her , linket her, For blot at nævne nogle få.

Denne seneste udtalelse fra ACM er særlig vigtig af flere vitale årsager.

Her er hvorfor.

ACM, som er et praktisk akronym for Association for Computing Machinery, betragtes som verdens største computing-fokuserede forening. Med anslået 110,000 medlemmer eller deromkring er ACM en mangeårig pioner inden for computerområdet. ACM producerer noget af det bedste videnskabelige forskning inden for computerområdet, og tilbyder ligeledes professionelt netværk og appellerer også til computerpraktikere. Som sådan er ACM en vigtig stemme, der generelt repræsenterer dem, der er højteknologiske og har stræbt varigt efter at fremme computerområdet (ACM blev grundlagt i 1947).

Jeg kan også tilføje en lidt personlig bemærkning om dette. Da jeg først begyndte på computere i gymnasiet, sluttede jeg mig til ACM og deltog i deres uddannelsesprogrammer, især den spændende chance for at konkurrere i deres årlige computerprogrammeringskonkurrence (sådanne konkurrencer er almindeligt udbredt i dag og betegnes typisk som Hackathon). Jeg forbliver involveret i ACM, mens jeg gik på college via mit lokale universitetsafdeling og fik en mulighed for at lære om ledelse ved at blive afdelingsleder for studerende. Da jeg trådte ind i industrien, sluttede jeg mig til et fagligt kapitel og påtog mig igen en lederrolle. Senere efter dette, da jeg blev professor, tjente jeg i ACM-udvalg og redaktioner, sammen med sponsorering af campusstuderende. Selv stadig i dag er jeg aktiv i ACM, herunder tjener jeg i ACM's US Technology Policy Committee.

Jeg nyder ACM's indtagende og varige vision om livslang læring og karriereudvikling.

Under alle omstændigheder, i forhold til den seneste AI Ethics-erklæring, vægter det faktum, at dette er blevet udstedt af ACM, en del. Du kan med rimelighed hævde, at de etiske AI-forskrifter er helheden eller den kollektive stemme fra en verdensomspændende gruppe af computerprofessionelle. Det siger noget lige der.

Der er også det aspekt, at andre inden for computerområdet vil blive inspireret til at blive friske op og lytte i den forstand, at de tager behørigt hensyn til, hvad udsagnet erklærer af deres andre computerkolleger. Så selv for dem, der ikke er i ACM eller ikke ved noget som helst om den ærede gruppe, vil der forhåbentlig være stor interesse for at finde ud af, hvad udtalelsen handler om.

I mellemtiden dem, der er uden for af computerområdet kan blive draget til udtalelsen som en slags insider-kig bag kulisserne på, hvad computere siger om Ethical AI. Jeg vil dog gerne understrege, at erklæringen er beregnet til alle, ikke kun dem i computersamfundet, og derfor huske på, at AI-etiske forskrifter så at sige er på tværs af linjen.

Endelig er der et ekstra twist, som få ville overveje.

Nogle gange opfatter udenforstående computerforeninger som værende knæ-dybt inden for teknologi og ikke særligt bevidste om de samfundsmæssige konsekvenser af computere og kunstig intelligens. Du kan blive fristet til at antage, at sådanne professionelle enheder kun bekymrer sig om de seneste og hotteste gennembrud inden for hardware eller software. De opfattes af offentligheden, på en simpelt udtalt groft måde, som værende techienørder.

For at rette op på sagen, har jeg været fordybet i de sociale konsekvenser af computing, siden jeg først begyndte at bruge computere, og ligeledes har ACM også været dybt engageret i sådanne emner.

For enhver, der er overrasket over, at denne erklæring om AI-etiske forskrifter er blevet sat sammen og udgivet af ACM, er de ikke opmærksomme på den langvarige forskning og arbejde, der finder sted på disse spørgsmål. Jeg vil også opfordre interesserede til at se godt på ACM Etiske regler, en streng professionel etisk kodeks, der har udviklet sig gennem årene og understreger, at systemudviklere skal være opmærksomme på, overholde og være på vagt over for de etiske konsekvenser af deres bestræbelser og varer.

AI har brændt for at blive informeret om computeretik.

Synligheden af ​​etiske og juridiske overvejelser på computerområdet er steget enormt med fremkomsten af ​​nutidens AI. De inden for professionen bliver informeret og til tider tromlet om at give ordentlig opmærksomhed til AI-etik og AI-lovspørgsmål. Lovgivere bliver i stigende grad opmærksomme på AI-etik og AI-love aspekter. Virksomheder er ved at tænke på, at den AI, de udtænker eller bruger, både er fordelagtig og alligevel til tider åbner enorme risici og potentielle ulemper.

Lad os pakke ud, hvad der har fundet sted i de sidste mange år, så en passende kontekst kan etableres, før vi hopper ind i dette seneste sæt af AI-etiske forskrifter.

Den stigende bevidsthed om etisk AI

Den seneste æra af AI blev oprindeligt set som værende AI til gode, hvilket betyder, at vi kunne bruge AI til at forbedre menneskeheden. I hælene på AI til gode kom erkendelsen af, at vi også er fordybet i AI For Bad. Dette inkluderer kunstig intelligens, der er udtænkt eller selvforandret til at være diskriminerende og foretager beregningsmæssige valg, der gennemsyrer unødige skævheder. Nogle gange er AI'en bygget på den måde, mens den i andre tilfælde svinger ind i det uheldige territorium.

Jeg vil være meget sikker på, at vi er på samme side om arten af ​​nutidens AI.

Der er ikke nogen AI i dag, der er sansende. Det har vi ikke. Vi ved ikke, om sansende AI vil være mulig. Ingen kan passende forudsige, om vi vil opnå sansende AI, eller om sansende AI på en eller anden måde mirakuløst spontant vil opstå i en form for computerkognitiv supernova (normalt omtalt som singulariteten, se min dækning på linket her).

Den type AI, som jeg fokuserer på, består af den ikke-sansende AI, som vi har i dag. Hvis vi ville spekulere vildt om sansende AI, kunne denne diskussion gå i en radikalt anden retning. En sansende AI ville angiveligt være af menneskelig kvalitet. Du skal overveje, at den sansende AI er den kognitive ækvivalent til et menneske. Mere så, eftersom nogle spekulerer på, at vi måske har superintelligent AI, er det tænkeligt, at sådan AI kan ende med at blive smartere end mennesker (for min udforskning af superintelligent AI som en mulighed, se dækningen her).

Jeg vil kraftigt foreslå, at vi holder tingene nede på jorden og overvejer nutidens beregningsmæssige ikke-sansende AI.

Indse, at nutidens AI ikke er i stand til at "tænke" på nogen måde på lige fod med menneskelig tænkning. Når du interagerer med Alexa eller Siri, kan samtalekapaciteten virke beslægtet med menneskelige kapaciteter, men virkeligheden er, at den er beregningsmæssig og mangler menneskelig erkendelse. Den seneste æra af AI har gjort omfattende brug af Machine Learning (ML) og Deep Learning (DL), som udnytter computational pattern matching. Dette har ført til AI-systemer, der ser ud som menneskelignende tilbøjeligheder. I mellemtiden er der ikke nogen kunstig intelligens i dag, der har et antydning af sund fornuft og heller ikke noget af den kognitive undren ved robust menneskelig tænkning.

Vær meget forsigtig med at antropomorfisere nutidens AI.

ML/DL er en form for computational pattern matching. Den sædvanlige tilgang er, at du samler data om en beslutningsopgave. Du føder dataene ind i ML/DL-computermodellerne. Disse modeller søger at finde matematiske mønstre. Efter at have fundet sådanne mønstre, hvis det er fundet, vil AI-systemet bruge disse mønstre, når de støder på nye data. Ved præsentationen af ​​nye data anvendes mønstrene baseret på de "gamle" eller historiske data til at gøre en aktuel beslutning.

Jeg tror, ​​du kan gætte, hvor det er på vej hen. Hvis mennesker, der har truffet de mønstrede beslutninger, har inkorporeret uønskede skævheder, er oddsene, at dataene afspejler dette på subtile, men væsentlige måder. Machine Learning eller Deep Learning computational pattern matching vil blot forsøge at matematisk efterligne dataene i overensstemmelse hermed. Der er ingen antydning af sund fornuft eller andre sansende aspekter af AI-fremstillet modellering i sig selv.

Desuden er AI-udviklerne måske heller ikke klar over, hvad der foregår. Den mystiske matematik i ML/DL kan gøre det svært at fjerne de nu skjulte skævheder. Du ville med rette håbe og forvente, at AI-udviklerne ville teste for de potentielt begravede skævheder, selvom dette er vanskeligere, end det måske ser ud til. Der er en solid chance for, at selv med relativt omfattende test, vil der stadig være skævheder indlejret i mønstermatchende modeller af ML/DL.

Du kunne lidt bruge det berømte eller berygtede ordsprog om skrald-ind skrald-ud. Sagen er, at dette er mere beslægtet med biases-in, der snigende bliver infunderet som skævheder nedsænket i AI. Algoritmebeslutningstagningen (ADM) af AI bliver aksiomatisk fyldt med uligheder.

Ikke godt.

Alt dette har væsentlige AI-etiske implikationer og giver et praktisk vindue til erfaringer (selv før alle lektionerne sker), når det kommer til at forsøge at lovgive AI.

Udover at anvende AI-etiske forskrifter generelt, er der et tilsvarende spørgsmål om, hvorvidt vi skal have love til at regulere forskellige anvendelser af AI. Nye love bliver bandet rundt på føderalt, statsligt og lokalt niveau, der vedrører rækkevidden og arten af, hvordan AI skal udformes. Bestræbelserne på at udarbejde og vedtage sådanne love er gradvist. AI-etik fungerer i det mindste som en overvejet stopklods og vil næsten helt sikkert til en vis grad blive direkte indarbejdet i disse nye love.

Vær opmærksom på, at nogle stejlt hævder, at vi ikke har brug for nye love, der dækker AI, og at vores eksisterende love er tilstrækkelige. De advarer om, at hvis vi vedtager nogle af disse AI-love, vil vi dræbe den gyldne gås ved at slå ned på fremskridt inden for AI, der giver enorme samfundsmæssige fordele.

I tidligere spalter har jeg dækket de forskellige nationale og internationale bestræbelser på at udarbejde og vedtage love, der regulerer AI, se linket her, for eksempel. Jeg har også dækket de forskellige AI-etiske principper og retningslinjer, som forskellige nationer har identificeret og vedtaget, herunder f.eks. FN-indsatsen såsom UNESCO-sættet af AI-etik, som næsten 200 lande har vedtaget, se linket her.

Her er en nyttig keystone-liste over etiske AI-kriterier eller karakteristika vedrørende AI-systemer, som jeg tidligere har udforsket nøje:

  • Gennemsigtighed
  • Retfærdighed og Retfærdighed
  • Ikke-ondskab
  • Ansvarlighed
  • Privatliv
  • godgørenhed
  • Frihed & Autonomi
  • Stol
  • Bæredygtighed
  • Værdighed
  • Solidaritet

Disse AI-etiske principper formodes oprigtigt at blive brugt af AI-udviklere, sammen med dem, der styrer AI-udviklingsindsatsen, og endda dem, der i sidste ende udfører og udfører vedligeholdelse på AI-systemer.

Alle interessenter gennem hele AI-livscyklussen for udvikling og brug betragtes inden for rammerne af at overholde de etablerede normer for etisk AI. Dette er et vigtigt højdepunkt, da den sædvanlige antagelse er, at "kun kodere" eller dem, der programmerer AI'en, er underlagt AI-etikkens begreber. Som tidligere understreget heri, kræver det en landsby at udtænke og udforme AI, og som hele landsbyen skal være fortrolig med og overholde AI-etiske forskrifter.

Jeg har også for nylig undersøgt AI Bill of Rights som er den officielle titel på det amerikanske regerings officielle dokument med titlen "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People", der var resultatet af en årelang indsats fra Office of Science and Technology Policy (OSTP) ). OSTP er en føderal enhed, der tjener til at rådgive den amerikanske præsident og det amerikanske eksekutivkontor om forskellige teknologiske, videnskabelige og tekniske aspekter af national betydning. I den forstand kan du sige, at denne AI Bill of Rights er et dokument godkendt af og godkendt af det eksisterende amerikanske Hvide Hus.

I AI Bill of Rights er der fem keystone-kategorier:

  • Sikre og effektive systemer
  • Algoritmisk diskriminationsbeskyttelse
  • Databeskyttelse
  • Bemærkning og forklaring
  • Menneskelige alternativer, omtanke og tilbagefald

Jeg har omhyggeligt gennemgået disse forskrifter, se linket her.

Nu hvor jeg har lagt et nyttigt grundlag for disse relaterede AI-etik og AI-love-emner, er vi klar til at springe ind i den nyligt udgivne ACM "Statement on Principles For Responsible Algorithmic Systems" (i øvrigt, da dokumentets titel henviser til ansvarlige algoritmiske systemer, vil du måske tage et kig på min vurdering af, hvad det vil sige at tale om Troværdig AISe linket her).

Gør dig klar til en rejse ind i dette seneste sæt af AI-etiske principper.

Graver intenst ind i ACM's erklærede AI-etiske forskrifter

ACM-udtalelsen om Ethical AI består af disse ni keystones:

  • Legitimitet og kompetence
  • Minimering af skade
  • Sikkerhed og privatliv
  • Gennemsigtighed
  • Fortolkbarhed og forklarbarhed
  • Maintainability
  • Konkurrencelighed og auditabilitet
  • Ansvarlighed og ansvar
  • Begrænsning af miljøpåvirkninger

Hvis du sammenligner dette seneste sæt med andre særligt tilgængelige sæt, er der en hel del ligheder eller lignende overensstemmelser mellem dem.

På den ene side kan du tage det som et godt tegn.

Vi håber måske generelt, at de mange AI-etiske principper, der svæver rundt, alle samler sig mod den samme overordnede dækning. Når du ser, at et sæt er lidt sammenligneligt med et andet sæt, giver du et udtryk af tillid til, at disse sæt er inden for samme boldbane og ikke på en eller anden måde ude i et forvirrende venstre felt.

En potentiel klage fra nogle er, at disse forskellige sæt ser ud til at være nogenlunde de samme, hvilket så muligvis skaber forvirring eller i det mindste bestyrtelse på grund af den betænkelighed, at vi ikke burde have mange tilsyneladende duplikative lister. Kan der ikke kun være én liste? Problemet er selvfølgelig, at der ikke er nogen enkel måde at få alle sådanne lister til at være helt ens. Forskellige grupper og forskellige enheder har grebet dette an på forskellige måder. Den gode nyhed er, at de stort set alle er nået frem til den samme overordnede konklusion. Vi kan være lettede over, at sættene ikke har store forskelle, hvilket måske ville gøre os urolige, hvis der ikke var en generel konsensus.

En kontrarianer kan formane, at disse listers fællestræk er foruroligende, idet han hævder, at der måske er en gruppetænkning i gang. Måske tænker alle disse forskellige grupper på samme måde og er ikke i stand til at se ud over normen. Vi falder alle i en identisk fælde. Listerne forankrer tilsyneladende vores tænkning, og vi er ikke i stand til at se ud over vores egen næse.

At se ud over vores næse er uden tvivl en værdig sag.

Jeg er bestemt åben for at høre, hvad kontrarister har at sige. Nogle gange fanger de vind om noget, der har Titanic på vej mod et kæmpe isbjerg. Vi kunne godt bruge et par ørneøjeudkigsposter. Men med hensyn til disse AI-etiske forskrifter, har der ikke været noget endeligt formuleret af kontrarister, der ser ud til åbenlyst at undergrave eller vække bekymringer om, at der foregår et unødigt fællestræk. Jeg synes, vi har det okay.

I dette ACM-sæt er der nogle få særligt bemærkelsesværdige eller iøjnefaldende punkter, som jeg synes er særligt værd at bemærke.

For det første kan jeg godt lide fraseringen på øverste niveau, som er noget anderledes end normen.

For eksempel med henvisning til legitimitet og kompetence (den første punktopstilling) fremkalder en antydning af vigtigheden af ​​både designer- og ledelseskompetencer forbundet med AI. Hertil kommer legitimitet catchphrase ender med at tage os ind i AI-etikken , AI-lovområdet. Jeg siger dette, fordi mange af AI-etiske forskrifter næsten udelukkende koncentrerer sig om de etiske implikationer, men ser ud til at udelade eller forvilde sig genert for også at bemærke de juridiske konsekvenser. På det juridiske område bliver etiske overvejelser ofte udråbt som værende "blød lov", mens lovene i bøgerne fortolkes som "hårde love" (hvilket betyder, at de bærer vægten af ​​de juridiske domstole).

Et af mine yndlingsudsagn blev udtalt af den berømte jurist Earl Warren: "I civiliseret liv flyder loven i et hav af etik."

Vi er nødt til at sikre, at AI-etiske forskrifter også omfatter og understreger den hårde lovside af tingene som i udarbejdelse, vedtagelse og håndhævelse af AI-love.

For det andet sætter jeg pris på, at listen omfatter anfægtelighed og auditabilitet.

Jeg har gentagne gange skrevet om værdien af ​​at kunne konkurrere eller hæve et rødt flag, når du er underlagt et AI-system, se linket her. Ydermere vil vi i stigende grad se nye love, der tvinger AI-systemer til at blive revideret, hvilket jeg har diskuteret udførligt om New York City (NYC) loven om revisionsbias af AI-systemer, der bruges til ansættelse og forfremmelser af medarbejdere, se linket her. Desværre, og som jeg åbenlyst kritiserer den nye lov i NYC, vil de sandsynligvis skabe flere problemer, end de løser, hvis disse revisionslove er mangelfulde.

For det tredje er der en gradvis opvågning af, at kunstig intelligens kan præge bæredygtighedsspørgsmål, og jeg er glad for at se, at miljømæssige emne fik en fakturering på øverste niveau i disse AI-etiske forskrifter (se sidste punkt på listen).

Handlingen med at skabe et AI-system kan alene forbruge en masse computerressourcer. Disse computerressourcer kan direkte eller indirekte være bæredygtighedsranere. Der er en afvejning, der skal overvejes med hensyn til fordelene, som en AI giver kontra omkostningerne, der følger med AI. Den sidste af ACM-punkterne noterer sig de bæredygtigheds- og miljømæssige overvejelser, der opstår med AI. For min dækning af AI-relaterede problemer med COXNUMX-fodaftryk, se linket her.

Nu hvor vi har kigget skyhøjt på ACM-listen over AI-etiske forskrifter, sætter vi derefter tæerne dybere ned i vandet.

Her er de officielle beskrivelser for hver af AI-etiske forskrifter på højt niveau (citeret fra den formelle erklæring):

1. "Legitimitet og kompetence: Designere af algoritmiske systemer bør have ledelseskompetencen og eksplicit autorisation til at bygge og implementere sådanne systemer. De skal også have ekspertise inden for applikationsdomænet, et videnskabeligt grundlag for systemernes påtænkte anvendelse og i vid udstrækning anses for at være socialt legitime af interessenter, der påvirkes af systemet. Juridiske og etiske vurderinger skal udføres for at bekræfte, at eventuelle risici introduceret af systemerne vil være proportionale med de problemer, der behandles, og at enhver fordel-skade-afvejning er forstået af alle relevante interessenter."

2. "Minimering af skade: Ledere, designere, udviklere, brugere og andre interessenter af algoritmiske systemer bør være opmærksomme på de mulige fejl og skævheder, der er involveret i deres design, implementering og brug, og den potentielle skade, som et system kan forårsage for enkeltpersoner og samfund. Organisationer bør rutinemæssigt udføre konsekvensvurderinger af systemer, de anvender, for at afgøre, om systemet kan forårsage skade, især diskriminerende skade, og for at anvende passende afbødninger. Når det er muligt, bør de lære af mål for faktisk præstation, ikke kun mønstre af tidligere beslutninger, der i sig selv kan have været diskriminerende."

3. "Sikkerhed og privatliv: Risiko fra ondsindede parter kan mindskes ved at indføre bedste praksis for sikkerhed og privatliv på tværs af hver fase af systemernes livscyklus, herunder robuste kontroller til at afbøde nye sårbarheder, der opstår i forbindelse med algoritmiske systemer."

4. "Gennemsigtighed: Systemudviklere opfordres til klart at dokumentere den måde, hvorpå specifikke datasæt, variabler og modeller blev udvalgt til udvikling, træning, validering og testning, samt de specifikke foranstaltninger, der blev brugt til at garantere data- og outputkvalitet. Systemer bør angive deres tillidsniveau i hvert output, og mennesker bør gribe ind, når tilliden er lav. Udviklere bør også dokumentere de tilgange, der blev brugt til at udforske potentielle skævheder. For systemer med kritisk indvirkning på liv og velvære bør der kræves uafhængige verifikations- og valideringsprocedurer. Offentlig kontrol af data og modeller giver maksimal mulighed for korrektion. Udviklere bør derfor lette tredjepartstest i offentlighedens interesse."

5. "Fortolkelighed og forklarbarhed: Ledere af algoritmiske systemer opfordres til at producere information om både de procedurer, som de anvendte algoritmer følger (fortolkelighed) og de specifikke beslutninger, de træffer (forklarlighed). Forklarlighed kan være lige så vigtig som nøjagtighed, især i offentlige politiske sammenhænge eller ethvert miljø, hvor der er bekymringer om, hvordan algoritmer kan fordrejes for at gavne en gruppe frem for en anden uden anerkendelse. Det er vigtigt at skelne mellem forklaringer og efterfølgende rationaliseringer, der ikke afspejler beviserne eller den beslutningsproces, der er brugt til at nå frem til den konklusion, der forklares."

6. "Vedligeholdelse: Beviser for alle algoritmiske systemers forsvarlighed bør indsamles gennem deres livscyklus, herunder dokumentation af systemkrav, design eller implementering af ændringer, testcases og resultater og en log over fundne og rettet fejl. Korrekt vedligeholdelse kan kræve genoptræningssystemer med nye træningsdata og/eller udskiftning af de anvendte modeller."

7. "Anfægtelighed og auditabilitet: Regulatorer bør tilskynde til vedtagelse af mekanismer, der gør det muligt for enkeltpersoner og grupper at sætte spørgsmålstegn ved resultater og søge erstatning for negative virkninger som følge af algoritmisk informerede beslutninger. Ledere bør sikre, at data, modeller, algoritmer og beslutninger registreres, så de kan revideres og resultater replikeres i tilfælde, hvor der er mistanke om eller påstået skade. Revisionsstrategier bør offentliggøres for at gøre det muligt for enkeltpersoner, organisationer af offentlig interesse og forskere at gennemgå og anbefale forbedringer."

8. "Ansvarlighed og ansvar: Offentlige og private organer bør holdes ansvarlige for beslutninger truffet af algoritmer, de bruger, selvom det ikke er muligt at forklare i detaljer, hvordan disse algoritmer producerede deres resultater. Sådanne organer bør være ansvarlige for hele systemer, som de er implementeret i deres specifikke sammenhænge, ​​ikke kun for de enkelte dele, der udgør et givet system. Når der opdages problemer i automatiserede systemer, bør organisationer, der er ansvarlige for at implementere disse systemer, dokumentere de specifikke handlinger, de vil tage for at afhjælpe problemet, og under hvilke omstændigheder brugen af ​​sådanne teknologier bør suspenderes eller afsluttes."

9. "Begrænsning af miljøpåvirkninger: Algoritmiske systemer bør konstrueres til at rapportere estimater af miljøpåvirkninger, herunder kulstofemissioner fra både trænings- og driftsberegninger. AI-systemer bør designes til at sikre, at deres kulstofemissioner er rimelige i betragtning af den grad af nøjagtighed, der kræves af den kontekst, hvori de implementeres."

Jeg stoler på, at du vil give hver af disse afgørende AI-etiske forskrifter en omhyggelig og tidligere læsning. Tag dem venligst til hjertet.

Konklusion

Der er en subtil, men lige så afgørende del af ACM-udtalelsen, som jeg tror, ​​at mange uforvarende kan overse. Lad mig sørge for at gøre dig opmærksom på dette.

Jeg hentyder til en del, der diskuterer den pinefulde gåde med at skulle afveje afvejninger forbundet med AI-etiske forskrifter. Du kan se, de fleste mennesker laver ofte en masse åndssvage hovednikke, når de læser etiske AI-principper og antager, at alle forskrifterne er lige store, og at alle forskrifterne altid vil blive givet det samme optimale udseende af respekt og værdi.

Ikke i den virkelige verden.

Når gummiet møder vejen, vil enhver form for kunstig intelligens, der har en lille smule kompleksitet, grimt teste AI-etikkens forskrifter med hensyn til, at nogle af elementerne er tilstrækkeligt opnåelige i forhold til nogle af de andre principper. Jeg er klar over, at du måske højlydt udbryder, at al AI skal maksimere på alle AI-etiske forskrifter, men dette er ikke specielt realistisk. Hvis det er det standpunkt, du ønsker at tage, tør jeg godt sige, at du sandsynligvis ville være nødt til at fortælle de fleste eller næsten alle AI-producenter og -brugere om at lukke butikken og lægge AI helt væk.

Der skal indgås kompromiser for at få AI ud af døren. Når det er sagt, er jeg ikke fortaler for at skære hjørner, der overtræder AI-etiske forskrifter, og heller ikke antyde, at de skulle overtræde AI-lovene. Et bestemt minimum skal opfyldes, og over hvilket målet er at stræbe mere efter det. I sidste ende skal en balance omhyggeligt bedømmes. Denne balancegang skal udføres omhyggeligt, eksplicit, lovligt og med AI Ethics som en bona fide og oprigtig tro (du vil måske se, hvordan virksomheder bruger AI Ethics Boards til at forsøge at opnå denne højtidelige tilgang, se linket her).

Her er nogle punktopstillinger, som ACM-erklæringen nævner om kompromisernes kompleksitet (citeret fra det formelle dokument):

  • "Løsninger bør stå i rimeligt forhold til det problem, der løses, selvom det påvirker kompleksiteten eller omkostningerne (f.eks. at afvise brugen af ​​offentlig videoovervågning til en simpel forudsigelsesopgave)."
  • "En lang række præstationsmålinger bør overvejes og kan vægtes forskelligt baseret på applikationsdomænet. For eksempel i nogle sundhedsapplikationer kan virkningerne af falske negativer være meget værre end falske positive, mens konsekvenserne af falske positive (f.eks. fængsling af en uskyldig person) i strafferetsplejen kan være meget værre end falske negative. Den mest ønskværdige operationelle systemopsætning er sjældent den med maksimal nøjagtighed."
  • "Bekymringer om privatlivets fred, beskyttelse af forretningshemmeligheder eller afsløring af analyser, der kan tillade ondsindede aktører at spille systemet, kan retfærdiggøre begrænsning af adgang til kvalificerede personer, men de bør ikke bruges til at retfærdiggøre begrænsning af tredjepartskontrol eller til at undskylde udviklere fra forpligtelsen at anerkende og reparere fejl."
  • "Gennemsigtighed skal parres med processer for ansvarlighed, der gør det muligt for interessenter, der er påvirket af et algoritmisk system, at søge meningsfuld erstatning for forvoldt skade. Gennemsigtighed bør ikke bruges til at legitimere et system eller til at overføre ansvar til andre parter."
  • ”Når et systems påvirkning er høj, kan et mere forklarligt system være at foretrække. I mange tilfælde er der ingen afvejning mellem forklarlighed og nøjagtighed. I nogle sammenhænge kan forkerte forklaringer dog være endnu værre end ingen forklaring (f.eks. i sundhedssystemer kan et symptom svare til mange mulige sygdomme, ikke kun én).

De, der udvikler eller bruger kunstig intelligens, indser måske ikke åbenlyst de afvejninger, de står over for. Topledere i et firma kan naivt antage, at AI'en opfylder maksimumsgrænserne for alle AI's etiske principper. De tror enten på dette, fordi de er uvidende om AI, eller også vil de tro på dette og laver måske et blink-blink for let at adoptere AI.

Oddsene er, at hvis man ikke substantielt og åbent konfronterer afvejningerne, vil det ende med en AI, der vil forårsage skade. Disse skader vil til gengæld sandsynligvis åbne en virksomhed for potentielt store forpligtelser. Oven i det kan konventionelle love komme til at gælde for mulige kriminelle handlinger forbundet med AI, sammen med de nyere AI-fokuserede love, der også hamrer på dette. Et væld af klodser venter over hovedet på dem, der tror, ​​at de kan finde vej uden om afvejningerne, eller som er dybt uvidende om, at afvejningerne eksisterer (en knusende erkendelse vil uundgåeligt falde over dem).

Jeg vil give det sidste ord for nu om dette emne til det afsluttende aspekt af ACM-udtalelsen, da jeg synes, den gør et solidt stykke arbejde med at forklare, hvad disse etiske AI-forskrifter makroskopisk sigter på at bringe frem:

  • “De foregående anbefalinger fokuserer på ansvarligt design, udvikling og brug af algoritmiske systemer; ansvar skal afgøres ved lov og offentlig orden. Den stigende kraft af algoritmiske systemer og deres anvendelse i livskritiske og følgemæssige applikationer betyder, at der skal udvises stor omhu i brugen af ​​dem. Disse ni instrumentelle principper er beregnet til at være inspirerende til at lancere diskussioner, igangsætte forskning og udvikle styringsmetoder for at bringe fordele til en bred vifte af brugere, samtidig med at de fremmer pålidelighed, sikkerhed og ansvar. I sidste ende er det den specifikke kontekst, der definerer det korrekte design og brug af et algoritmisk system i samarbejde med repræsentanter for alle berørte interessenter” (citeret fra det formelle dokument).

Som visdomsord klogt fortæller os, begynder en rejse på tusind miles med et første skridt.

Jeg bønfalder dig om at blive fortrolig med AI-etik og AI-lovgivning, at tage det første skridt, der vil få dig i gang, og derefter hjælpe med at fortsætte disse vitale bestræbelser. Det smukke er, at vi stadig er i den spæde begyndelse med at finde ud af, hvordan man håndterer og samfundsmæssigt håndterer AI, så du kommer ind i stueetagen, og din indsats kan beviseligt forme din fremtid og fremtiden for os alle.

AI-rejsen er lige begyndt, og vitale første skridt er stadig undervejs.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- professionsforening-den-acm/