AI-etik og AI-lovgivning kan måske bare blive tilskyndet og ført til at påbyde sikkerhedsadvarsler om al eksisterende og fremtidig AI

Dine daglige aktiviteter er utvivlsomt bombarderet med tusind eller flere advarsler af en eller anden art.

Prøv disse for størrelse:

  • Sikkerhedsbriller skal altid bæres
  • Fare: Farlige kemikalier i nærheden
  • Højspænding – Hold ude
  • Advarsel: Vær opmærksom på dine omgivelser
  • Objekter i spejlet er tættere på, end de ser ud
  • Fjern barnet før foldning (som angivet på barnevogne)
  • Forsigtig: Sørg for at ignorere denne meddelelse

De fleste af disse er praktiske og helt gennemtænkte skilte eller etiketter, der tjener til at holde os forhåbentlig trygge og sikre.

Vær opmærksom på, at jeg sneg et par "outliers" på listen for at komme med nogle bemærkelsesværdige pointer.

Nogle mennesker mener f.eks., at det er skørt, at barnevogne har en påsat etiket, der advarer dig om ikke at folde klapvognen, mens barnet stadig sidder i apparatet. Selvom tegnet bestemt er passende og pligtskyldigt nyttigt, ser det ud til, at grundlæggende sund fornuft allerede ville være tilstrækkelig.

Hvilken person ville ikke af deres egen bevidste vilje indse, at de først skal fjerne barnet?

Nå, andre understreger, at sådanne etiketter tjener et vigtigt formål. For det første kan nogen virkelig være uvidende om, at de skal fjerne barnet, før de klapper barnevognen sammen. Måske antog personen, at klapvognen var klogt designet til at sikre, at sammenfoldningen ikke ville skade barnet. Eller muligvis er der indbyggede sikkerhedsfunktioner, der forhindrer foldning, når der er et barn i klapvognen. Etc.

Det kunne også være, at personen var distraheret og tankeløst ville have foldet klapvognen sammen og omfattet baby og det hele, men etiketten fik heldigvis personen til ikke at gøre det (nogle vil hævde, at det virker usandsynligt, at en sådan person ville bemærke etiketten alligevel). Der er også det faktum, at nogen kunne sagsøge fabrikanten af ​​klapvognen, hvis en sådan etiket ikke var til stede. Du kan forestille dig en af ​​de heftige retssager, hvor en baby blev såret, og forælderen besluttede at skaffe en million dollars, fordi klapvognen manglede et advarselsskilt på den. Barnevognsfirmaet ville fortryde, at de ikke havde brugt de få øre, der var nødvendige for at lave og klæbe advarselsskiltene på deres barnevogne.

Tag også et nærmere kig på den sidste af de advarselsmeddelelser, som jeg havde nævnt ovenfor.

Jeg valgte at placere den smarte besked om at sørge for at ignorere beskeden, da der er mange falske advarselsetiketter, som folk køber eller laver for sjov i disse dage. Denne her er en rigtig filosofisk sindbøjer. Hvis du læser advarslen, der siger, at du skal ignorere advarslen, hvad skal du så gøre efter at have læst advarslen? Du har allerede læst det, så det er tilsyneladende i dit sind. Selvfølgelig kan du ignorere det, men igen bliver du slet ikke rådgivet om, hvad det er, du skal ignorere. Rundt og rundt, går denne joke.

Selvfølgelig er bona fide advarselsetiketter normalt ikke af spøg eller humoristisk karakter.

Vi skal tage advarsler ganske alvorligt.

Normalt, hvis du undlader at overholde en noteret advarsel, gør du det med en personlig alvorlig risiko. Og det kan også være, at hvis du ikke observerer og overholder advarslen, vil du potentielt også sætte andre i unødig risiko. Overvej handlingen at køre bil. I det øjeblik du sidder bag rattet i en bil, kan dine handlinger som chauffør skade dig selv, plus du kan skade dine passagerer, og du kan skade andre, såsom personer i andre biler eller nærliggende fodgængere. I den forstand er en advarsel ikke kun til din fordel, den er sandsynligvis også til gavn for andre.

Hvorfor dækker jeg disse facetter af advarsler og advarende etiketter?

Fordi nogle hævder kraftigt, at vi har brug for advarsels- og advarselsskilte på nutidens kunstig intelligens (AI).

Faktisk er tanken også at sætte sådanne mærker på nutidens AI og fremtidige AI. Alt i alt ville al AI ende med at have en eller anden form eller variant af en advarsel eller advarselsindikation forbundet med sig.

God idé eller dårlig idé?

Praktisk eller upraktisk?

Lad os gå videre og pakke konceptet ud og se, hvad vi kan gøre ud af det.

Jeg vil gerne først lægge noget væsentligt grundlag om AI og især AI-etik og AI-lovgivning, og gøre det for at sikre, at emnet AI-advarsler vil være kontekstuelt fornuftigt. For dem af jer, der generelt er interesseret i etisk kunstig intelligens og også kunstig intelligens, se min omfattende og løbende dækning på linket her , linket her, For blot at nævne nogle få.

Den stigende bevidsthed om etisk AI og også AI-lov

Den seneste æra af AI blev oprindeligt set som værende AI til gode, hvilket betyder, at vi kunne bruge AI til at forbedre menneskeheden. I hælene på AI til gode kom erkendelsen af, at vi også er fordybet i AI For Bad. Dette inkluderer kunstig intelligens, der er udtænkt eller selvforandret til at være diskriminerende og foretager beregningsmæssige valg, der gennemsyrer unødige skævheder. Nogle gange er AI'en bygget på den måde, mens den i andre tilfælde svinger ind i det uheldige territorium.

Jeg vil være meget sikker på, at vi er på samme side om arten af ​​nutidens AI.

Der er ikke nogen AI i dag, der er sansende. Det har vi ikke. Vi ved ikke, om sansende AI vil være mulig. Ingen kan passende forudsige, om vi vil opnå sansende AI, eller om sansende AI på en eller anden måde mirakuløst spontant vil opstå i en form for computerkognitiv supernova (normalt omtalt som singulariteten, se min dækning på linket her).

Den type AI, som jeg fokuserer på, består af den ikke-sansende AI, som vi har i dag. Hvis vi ville spekulere vildt om sansende AI, kunne denne diskussion gå i en radikalt anden retning. En sansende AI ville angiveligt være af menneskelig kvalitet. Du skal overveje, at den sansende AI er den kognitive ækvivalent til et menneske. Mere så, eftersom nogle spekulerer på, at vi måske har superintelligent AI, er det tænkeligt, at sådan AI kan ende med at blive smartere end mennesker (for min udforskning af superintelligent AI som en mulighed, se dækningen her).

Jeg vil kraftigt foreslå, at vi holder tingene nede på jorden og overvejer nutidens beregningsmæssige ikke-sansende AI.

Indse, at nutidens AI ikke er i stand til at "tænke" på nogen måde på lige fod med menneskelig tænkning. Når du interagerer med Alexa eller Siri, kan samtalekapaciteten virke beslægtet med menneskelige kapaciteter, men virkeligheden er, at den er beregningsmæssig og mangler menneskelig erkendelse. Den seneste æra af AI har gjort omfattende brug af Machine Learning (ML) og Deep Learning (DL), som udnytter computational pattern matching. Dette har ført til AI-systemer, der ser ud som menneskelignende tilbøjeligheder. I mellemtiden er der ikke nogen kunstig intelligens i dag, der har et antydning af sund fornuft og heller ikke noget af den kognitive undren ved robust menneskelig tænkning.

Vær meget forsigtig med at antropomorfisere nutidens AI.

ML/DL er en form for computational pattern matching. Den sædvanlige tilgang er, at du samler data om en beslutningsopgave. Du føder dataene ind i ML/DL-computermodellerne. Disse modeller søger at finde matematiske mønstre. Efter at have fundet sådanne mønstre, hvis det er fundet, vil AI-systemet bruge disse mønstre, når de støder på nye data. Ved præsentationen af ​​nye data anvendes mønstrene baseret på de "gamle" eller historiske data til at gøre en aktuel beslutning.

Jeg tror, ​​du kan gætte, hvor det er på vej hen. Hvis mennesker, der har truffet de mønstrede beslutninger, har inkorporeret uønskede skævheder, er oddsene, at dataene afspejler dette på subtile, men væsentlige måder. Machine Learning eller Deep Learning computational pattern matching vil blot forsøge at matematisk efterligne dataene i overensstemmelse hermed. Der er ingen antydning af sund fornuft eller andre sansende aspekter af AI-fremstillet modellering i sig selv.

Desuden er AI-udviklerne måske heller ikke klar over, hvad der foregår. Den mystiske matematik i ML/DL kan gøre det svært at fjerne de nu skjulte skævheder. Du ville med rette håbe og forvente, at AI-udviklerne ville teste for de potentielt begravede skævheder, selvom dette er vanskeligere, end det måske ser ud til. Der er en solid chance for, at selv med relativt omfattende test, vil der stadig være skævheder indlejret i mønstermatchende modeller af ML/DL.

Du kunne lidt bruge det berømte eller berygtede ordsprog om skrald-ind skrald-ud. Sagen er, at dette er mere beslægtet med biases-in, der snigende bliver infunderet som skævheder nedsænket i AI. Algoritmebeslutningstagningen (ADM) af AI bliver aksiomatisk fyldt med uligheder.

Ikke godt.

Alt dette har væsentlige AI-etiske implikationer og giver et praktisk vindue til erfaringer (selv før alle lektionerne sker), når det kommer til at forsøge at lovgive AI.

Udover at anvende AI-etiske forskrifter generelt, er der et tilsvarende spørgsmål om, hvorvidt vi skal have love til at regulere forskellige anvendelser af AI. Nye love bliver bandet rundt på føderalt, statsligt og lokalt niveau, der vedrører rækkevidden og arten af, hvordan AI skal udformes. Bestræbelserne på at udarbejde og vedtage sådanne love er gradvist. AI-etik fungerer i det mindste som en overvejet stopklods og vil næsten helt sikkert til en vis grad blive direkte indarbejdet i disse nye love.

Vær opmærksom på, at nogle stejlt hævder, at vi ikke har brug for nye love, der dækker AI, og at vores eksisterende love er tilstrækkelige. De advarer om, at hvis vi vedtager nogle af disse AI-love, vil vi dræbe den gyldne gås ved at slå ned på fremskridt inden for AI, der giver enorme samfundsmæssige fordele.

I tidligere spalter har jeg dækket de forskellige nationale og internationale bestræbelser på at udarbejde og vedtage love, der regulerer AI, se linket her, for eksempel. Jeg har også dækket de forskellige AI-etiske principper og retningslinjer, som forskellige nationer har identificeret og vedtaget, herunder f.eks. FN-indsatsen såsom UNESCO-sættet af AI-etik, som næsten 200 lande har vedtaget, se linket her.

Her er en nyttig keystone-liste over etiske AI-kriterier eller karakteristika vedrørende AI-systemer, som jeg tidligere har udforsket nøje:

  • Gennemsigtighed
  • Retfærdighed og Retfærdighed
  • Ikke-ondskab
  • Ansvarlighed
  • Privatliv
  • godgørenhed
  • Frihed & Autonomi
  • Stol
  • Bæredygtighed
  • Værdighed
  • Solidaritet

Disse AI-etiske principper formodes oprigtigt at blive brugt af AI-udviklere, sammen med dem, der styrer AI-udviklingsindsatsen, og endda dem, der i sidste ende udfører og udfører vedligeholdelse på AI-systemer.

Alle interessenter gennem hele AI-livscyklussen for udvikling og brug betragtes inden for rammerne af at overholde de etablerede normer for etisk AI. Dette er et vigtigt højdepunkt, da den sædvanlige antagelse er, at "kun kodere" eller dem, der programmerer AI'en, er underlagt AI-etikkens begreber. Som tidligere understreget heri, kræver det en landsby at udtænke og udforme AI, og som hele landsbyen skal være fortrolig med og overholde AI-etiske forskrifter.

Jeg har også for nylig undersøgt AI Bill of Rights som er den officielle titel på det amerikanske regerings officielle dokument med titlen "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People", der var resultatet af en årelang indsats fra Office of Science and Technology Policy (OSTP) ). OSTP er en føderal enhed, der tjener til at rådgive den amerikanske præsident og det amerikanske eksekutivkontor om forskellige teknologiske, videnskabelige og tekniske aspekter af national betydning. I den forstand kan du sige, at denne AI Bill of Rights er et dokument godkendt af og godkendt af det eksisterende amerikanske Hvide Hus.

I AI Bill of Rights er der fem keystone-kategorier:

  • Sikre og effektive systemer
  • Algoritmisk diskriminationsbeskyttelse
  • Databeskyttelse
  • Bemærkning og forklaring
  • Menneskelige alternativer, omtanke og tilbagefald

Jeg har omhyggeligt gennemgået disse forskrifter, se linket her.

Nu hvor jeg har lagt et nyttigt grundlag for disse relaterede AI-etik og AI-love-emner, er vi klar til at springe ind i det hæsblæsende emne om hvorvidt AI burde have advarselsetiketter.

Gør dig klar til en øjenåbnende informativ rejse.

At sætte advarselsmærkater på AI som et middel til at beskytte menneskeheden

Der er voksende buzz i gang, at AI måske burde komme med en advarsel af en eller anden art.

For eksempel i en nylig artikel i MIT Technology Review der diskuterede den stigende interesse for at udføre audits af AI, opstod ideen om at give advarselsskilte: "Væksten i disse audits tyder på, at vi en dag kan se advarsler i cigaretpakke-stil om, at AI-systemer kan skade din sundhed og sikkerhed. Andre sektorer, såsom kemikalier og fødevarer, har regelmæssige audits for at sikre, at produkterne er sikre at bruge. Kunne sådan noget blive normen inden for kunstig intelligens?” (MIT Technology Review, Melissa Heikkilä, 24. oktober 2022).

Lad os snakke lidt overordnet om advarsels- og advarselstegn.

Vi er alle allerede generelt bekendt med advarsels- og advarselsskilte på adskillige produkter og tjenester af hverdagsnatur. Nogle gange er det lovbestemt, at sikkerhedsskiltene er påkrævet, mens der i andre tilfælde er skønsmæssige muligheder for at bruge sådanne skilte. Derudover er nogle sikkerhedsskilte standardiserede, såsom at de er specificeret i henhold til ANSI Z535-standarden og OSHA 1910.14-standarden. Disse standarder omfatter aspekter som tegnets ordlyd, de anvendte farver og skrifttyper, tegnets form og forskellige andre detaljer.

Det giver mening at have standarder for sådanne advarselsskilte. Hver gang du ser et sådant tegn, hvis det opfylder de angivne standarder, er det mere sandsynligt, at du tror, ​​at tegnet er legitimt, plus at du kræver mindre kognitiv behandling for at analysere og give mening om tegnet. For tegn, der ikke er af en standardiseret tilgang, er du ofte nødt til mentalt at beregne, hvad tegnet fortæller dig, måske mister du kostbar tid til at handle, eller du kan helt fejlbedømme tegnet og ikke korrekt forstå advarslen ved hånden.

En række af sådanne tegn kan eksistere, for hvilke de ofte er klassificeret noget som dette:

  • Faretegn: Største bekymring og indikerer en umiddelbar fare med sandsynlige alvorlige konsekvenser
  • Advarselsskilt: Angiver en fare, der er mindre end "fare", men stadig ret alvorlig
  • Advarselstegn: Indikerende for en potentiel fare, der er mindre end "advarsel", men stadig virkelig alvorlig
  • Notifikationsskilt: Indikerende for en informativ heads-up, der er mindre end "forsigtig", men som stadig indebærer bekymrende aspekter

I betragtning af den foregående baggrund om advarsler og advarselstegn, kan vi gå videre og prøve at anvende dette kontekstuelt på brugen af ​​kunstig intelligens.

For det første kunne vi potentielt på en eller anden måde blive enige om, at AI-skiltningen kan være i en lignende alvorlighedsområde, som det er sædvanligt med hverdagstegn, sådan at:

  • AI faretegn: AI af største bekymring og indikerer en umiddelbar fare med sandsynlige alvorlige konsekvenser
  • AI advarselsskilt: AI indikerer en fare, der er mindre end "fare", men stadig ret alvorlig
  • AI advarselstegn: AI, der indikerer en potentiel fare, der er mindre end en "advarsel", men stadig virkelig alvorlig
  • AI-meddelelsestegn: AI indikerer en informativ heads-up, der er mindre end "forsigtig", men som stadig indebærer bekymrende aspekter

Essensen er, at ikke al AI vil være lige så foruroligende. Det kan være, at en AI udgør enorme risici eller kun har marginale risici. Derfor skal skiltningen afspejle, hvad der er hvad. Hvis alle AI-advarsler eller advarselstegn blot blev vist som værende af samme kaliber, ville vi formodentlig ikke vide eller være opmærksomme på, om vi skulle være meget bekymrede eller kun mildt bekymrede over AI. Brug af et typisk ordskema kan gøre livet lettere, når du ser og fortolker AI-relaterede advarselsskilte.

Du undrer dig måske over, hvad skiltene ellers ville sige med hensyn til det specifikke budskab, der skal formidles.

Det er bestemt en sværere sag at tackle. AI-mulighederne for at gøre ting, der anses for usikre eller bekymrende, ville være enormt store, næsten uendelige. Kan vi koge dem ned til nogle rutineprægede sæt, der er stavet med kun en håndfuld ord hver? Eller bliver vi nødt til at give mulighed for en mere fri form tilgang til, hvordan formuleringen vil foregå?

Jeg vil lade dig overveje det åbne spørgsmål.

Når vi går videre, har vi en tendens til at se advarselsskilte opsat på genstande. Et AI-system er ikke nødvendigvis et "objekt" i samme forstand som den sædvanlige påsætning af skilte. Dette rejser spørgsmålet om, hvor AI-advarselsskiltene vil blive præsenteret.

Det kan være, at når du kører en app på, sig din smartphone, at hvis den bruger AI, vil der blive vist en meddelelse, der indeholder den AI-relaterede advarsel. Appen vil advare dig om den underliggende brug af AI. Dette kan være en pop-up besked eller kan præsenteres på en række forskellige visuelle og endda auditive måder.

Der er også den situation, at du bruger en tjeneste, der er understøttet af AI, selvom du måske ikke interagerer direkte med AI. For eksempel kan du have en samtale med en menneskelig agent om at få et boliglån, som agenten i det stille er bag kulisserne ved hjælp af et AI-system til at guide deres indsats.

Derfor bør vi forudse, at AI-advarselsskiltene skal være til stede i begge AI-brugstilfælde, således at:

  • Produktspecifik AI: AI som et produkt burde have direkte AI-advarsels- eller advarselstegn
  • Serviceorienteret AI: AI som en tjeneste (direkte eller indirekte) bør have AI-advarsels- eller advarselstegn

Skeptikere ville helt sikkert være hurtige til at antyde, at AI-advarselsskiltet kan være lusket forklædt af app-producenten, så advarslen ikke er særlig mærkbar. Måske vises advarslen et kort øjeblik, og du bemærker virkelig ikke, at den blev vist. Et andet lusket trick ville være at lave en slags leg ud af det, tilsyneladende undergrave alvoren af ​​alarmen og lulle folk til at tro, at advarslen er uden betydning.

Ja, du kan stort set vædde på, at alle AI-relaterede advarselsskilte vil blive snydt og brugt på måder, der ikke er inden for ånden og hensigten med den advarselsmeddelelse, de skal formidle.

Alle disse skepsis hænger sammen med, om vi ville bruge AI-etik som "bløde love" for at forsøge at køre fremad med AI-relaterede advarsler og advarsler, eller om vi ville gøre brug af "hårde love", herunder vedtagne love med domstolsopbakning. I teorien ville det bløde lovfremstød give mulighed for en større antydning af at lege med sagen, mens lovene i bøgerne ville komme med potentialet for regeringshåndhævelse og frembringe større strenghed.

En anden bekymring er, om AI-skiltningen alligevel ville gøre nogen forskel.

Masser af forskning om forbrugeradfærd har en tendens til at vise forvirrede resultater, når det kommer til at levere advarselsetiketter til forbrugere. Nogle gange er advarslerne effektive, nogle gange ikke. Lad os anvende noget af den forskning til AI-konteksten.

Overvej disse facetter:

  • Opdagelse: Ville de, der bruger AI, der indeholder et levedygtigt AI-advarselsskilt, aktivt lægge mærke til eller registrere, at skiltet bliver vist til dem (forudsat at en sådan skiltning fandt sted)?
  • Forståelse: For dem, der bemærkede det, ville de forstå eller forstå, hvad AI-advarselsskiltet forsøger at foreslå dem?
  • Handling: For dem, der gør det mentale spring, vil AI-advarselsskiltet få dem til at handle eller på anden måde tjene til at vejlede deres adfærd i overensstemmelse hermed?

Du kan forudse, at hvis momentum tager til for at have AI-advarselstegn, vil forskere nøje studere sagen. Ideen ville være at hjælpe med at afklare, under hvilke omstændigheder advarslerne er nyttige, og hvornår de ikke er det. Dette relaterer sig til det involverede design og udseende og følelse. Vi kan også forvente, at offentligheden som helhed skal uddannes eller informeres om fremkomsten af ​​disse AI-advarsels- og advarselstegn, så de vil vænne sig til dem.

Der er masser af drejninger, der skal tages i betragtning.

Skal AI-advarslen eller advarselsskiltet kun forekomme i starten af ​​den app, der bruges? Måske er udgangspunktet ikke tilstrækkeligt i sig selv. En person kan ved første øjekast tro, at appen bare spiller det sikkert ved at bruge en advarsel, og dermed ikke tage meget hensyn til advarslen. Når først personen er midtvejs i at bruge appen, vil en yderligere advarsel måske være berettiget. På det tidspunkt er personen mere opmærksom på, hvad appen foretager sig, og de har måske allerede glemt den tidligere angivne advarselsmeddelelse.

AI-advarslen eller advarslen kan derefter forekomme:

  • Før du starter appen, og lige når appen er ved at blive aktiveret
  • Præsenteres, når appen er startet og kun ved startpunktet
  • Vist i starten og igen midtvejs
  • Vist flere gange under brugen af ​​AI
  • Gives i slutningen af ​​brugen af ​​appen
  • Giv efter at have forladt appen og muligvis endda minutter, timer eller dage senere
  • Osv

Mener du, at den person, der bruger AI'en, skal bekræfte eller anerkende sådanne AI-advarsler eller advarselstegn?

Nogle ville insistere på, at personen skulle være forpligtet til at anerkende, at de så advarslerne. Dette ville potentielt forhindre dem, der kunne påstå, at der ikke var nogen advarselsmeddelelse. Det kan også få folk til at tage beskederne mere seriøst, da de bliver bedt om at bekræfte, at de har observeret advarselsindikationen.

Her er et svært spørgsmål til dig.

Skulle alle AI skal give en advarsel eller sikkerhedsindikation?

Du kan hævde, at ja, al AI skal have dette. Selvom AI'en kun er en marginal sikkerhedsrisiko, bør den stadig have en form for advarselsskilt, muligvis blot en meddelelse eller informationsindikation. Andre ville bestride denne påstand. De ville modargumentere, at du går overbord. Ikke al AI har brug for dette. Desuden, hvis du tvinger al AI til at have det, vil du udvande formålet. Folk vil blive følelsesløse af at se advarselsindikationerne. Hele tilgangen bliver en farce.

På en relateret vinkel, overvej, hvad AI-skaberne sandsynligvis vil sige.

Et synspunkt ville være, at dette vil være en smerte i du-ved-hvad, der skal på plads. Det kan være dyrt at skulle ændre alle dine AI-systemer og tilføje denne funktion. Det kan være mindre omkostningskrævende at tilføje det på et fremadrettet grundlag, selvom der ikke desto mindre er en omkostning forbundet med at inkludere denne bestemmelse.

Uklarheden er en anden potentiel klage. Hvilken slags besked skal vises? Hvis der ikke er nogen standarder, betyder det, at AI-skaberne bliver nødt til at lave noget nyt. Ikke kun koster denne ekstra omkostning, den åbner muligvis døren for at blive sagsøgt. Du kan forestille dig, at en AI-producent kan blive taget til opgaven, at deres advarsel ikke var så god som et andet AI-system. Advokater vil ende med at lave et bundt fra den resulterende forvirring.

Der er også bekymring for, at folk vil blive unødigt bange af disse sikkerhedsmeddelelser.

En AI-producent kan se et brat fald i antallet af brugere på grund af en sikkerhedsmeddelelse, der blot er beregnet til at give en informativ advarsel. Folk ved ikke, hvad de skal gøre med beskeden. Hvis de ikke har set sådanne meddelelser før, kan de blive flippet med det samme og unødigt undgå brugen af ​​AI.

Jeg nævner disse facetter, fordi nogle allerede proklamerer, at "det kan ikke skade" at begynde at inkludere AI-advarsler eller sikkerhedsmeddelelser. For dem er ideen lige så ideel som æblekage. Ingen kunne for alvor tilbagevise fordelene ved altid at kræve AI-relateret sikkerhed eller advarsler. Men det er selvfølgelig ikke en måde at tænke sagen på i den virkelige verden.

Du kan endda gå videre og hævde, at AI-advarselsmeddelelserne kunne frembringe en form for massehysteri. Hvis vi pludselig begyndte at tvinge AI-systemer til at have sådanne beskeder, kunne folk misforstå hensigten. Ser du, der er masser af formaninger om, at vi står over for en AI-eksistentiel krise, hvorved AI kommer til at overtage verden og udslette menneskeheden, se linket her for min analyse af den slags påstande.

Brugen af ​​AI-advarselsmeddelelsen kan måske "inspirere" nogle mennesker til at tro, at enden er nær. Hvorfor skulle beskederne ellers blive vist nu? Det er bestemt en indikation af, at AI endelig er ved at blive klar til at blive vores undertrykkende overherrer.

En slags fortvivlende dystert resultat af at forsøge at gøre det rigtige ved at gøre offentligheden opmærksom på, hvordan AI kan tilføres diskriminerende kapaciteter eller andre AI For Bad aspekter.

Konklusion

James Russell Lowell, den berømte amerikanske digter, sagde engang dette: "En torn af erfaring er en hel ørken af ​​advarsel værd."

Jeg bringer den høje bemærkning frem for at komme med et par afsluttende kommentarer til spørgsmålet om AI-advarsler eller sikkerhedsmeddelelser.

Chancerne er, at indtil vi har en noget udbredt erkendelse af, at AI gør dårlige gerninger, vil der ikke være meget af et råb om AI-relaterede advarselsmeddelelser. De AI-producenter, der vælger at gøre det frivilligt, vil måske blive rost, selvom de også uforvarende kan finde på at blive uretfærdigt chikaneret. Nogle eksperter vil måske gå efter dem for at udnytte AI, der tilsyneladende har brug for advarsler til at begynde med, mens de i mellemtiden undlader at indse, at de forsøgte at gå først, og at alle de andre AI-skabere halter bagefter.

Forbandet, hvis du gør det, måske ikke forbandet, hvis du ikke gør det.

En anden overvejelse handler om at gøre, hvad der synes at være en god konceptuel idé, til en praktisk og nyttig praksis. Det er nemt at vifte med hænderne og vagt råbe til vinden, at AI burde have advarsler og sikkerhedsmeddelelser. Den svære del kommer, når man beslutter sig for, hvad disse budskaber skal være, hvornår og hvor de skal præsenteres, om eller i hvilken grad deres omkostninger giver tilstrækkelige fordele, og så videre.

Vi vil heri give James Russell Lowell det sidste ord (poetisk) om dette emne for nu: "Kreativitet er ikke at finde en ting, men at gøre noget ud af det, efter at det er fundet."

Det er vist på tide at smøge ærmerne op og gå i gang med dette. Og det er ikke bare en advarsel, det er en handling.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- advarsler-om-alt-eksisterende-og-fremtidige-ai/